Storia, attualità e futuro dell’IA Il Fog Computing Per affrontare queste sfide emergenti, si è sviluppato un nuovo approccio noto come Fog Computing, o Edge Computing, (figura 3). Questa metodologia consente di ottimizzare l’utilizzo della banda dati operando una prima scrematura dei dati provenienti dai sensori direttamente sul luogo in cui vengono generati, anziché trasmetterli al data center per l’elaborazione, come avveniva in passato. Il Fog Computing sfrutta tecnologie come il cloud, i sensori e gli oggetti intelligenti, le reti wireless 5G e le connessioni M2M per distribuire capacità di calcolo e storage fisicamente più vicine agli utenti finali. Questo approccio permette di minimizzare la latenza, ridurre il carico sulla rete e risolvere alcuni problemi di sicurezza. Costruire un’architettura basata sul Fog Computing offre una serie di vantaggi significativi. Innanzitutto, minimizza la latenza, consentendo alle azioni di essere eseguite il più vicino possibile al luogo in cui si verifica l’evento. Questo porta a tempi di risposta più rapidi e miglioramenti nelle prestazioni complessive del sistema. Inoltre, consente un risparmio di banda dati, poiché solo i dati essenziali vengono trasmessi al cloud per l’elaborazione più approfondita, evitando sovradimensionamenti della banda. Infine, contribuisce a migliorare la sicurezza, poiché molte delle decisioni critiche vengono prese all’interno di una sottorete sicura, riducendo l’esposizione ai rischi derivanti dall’Internet esterno. Il Fog Computing è diventato una componente essenziale delle infrastrutture IoT, soprattutto in settori in cui è necessaria una risposta tempestiva e autonoma da parte dei dispositivi. Questo è particolarmente evidente nell’industria automobilistica, dove la sicurezza è fondamentale, e nel settore manifatturiero, dove l’autonomia delle macchine è essenziale per l’Industria 4.0. Tuttavia, l’importanza del Fog Computing si estende ben oltre questi settori, poiché la crescente quantità di dati generati dai dispositivi IoT richiede soluzioni che garantiscano prestazioni ottimali. Le previsioni di sviluppo della IoT indicano un rapido aumento del numero di dispositivi connessi, che potrebbe raggiungere fino a sette dispositivi per abitante della Terra. Questo volume di dati è semplicemente troppo grande per essere gestito in tempo reale da un’infrastruttura cloud tradizionale, a causa delle limitazioni di banda e della latenza. Pertanto, spostare l’intelligenza computazionale verso l’edge, cioè la parte periferica dell’infrastruttura IoT, è diventato essenziale per sfruttare appieno il potenziale degli oggetti IoT diffusi in tutto il mondo. Un esempio di frontiera ma attuale di EDGE computing è rappresentato dal AGIPD (Adaptive Gain Integrating Pixel Detector), utilizzato nell’esperimento European X-ray Free Electron Laser. Questo sensore produce 10.7 Gib/s di dati che rende inevitabile un approccio EDGE dotato di intelligenza artificiale connessa. Per il prossimo futuro siamo vicini a una nuova svolta radicale innescata da nuove scoperte su cui la ricerca scientifica sta al momento lavorando. Alla base di queste ricerche vi sono fenomeni della fisica quantistica quali: • indeterminazione; • entanglement; • sovraposizione quantistica; • l’effetto Tunnel; • la decoerenza. La possibilità di applicare questi principi a dispositivi in grado di sfruttarli permette di organizzare e controllare le componenti di sistemi complessi tramite le leggi della fisica quantistica. I principi della Teoria Quantistica permetteranno innovazioni con impatti straordinari. Questa seconda rivoluzione quantistica si basa sulla capacità di gestire singoli oggetti e fenomeni quantistici. A tale riguardo, il centro Sensori e Dispositivi della Fondazione Bruno Kessler (https://sd.fbk.eu/it/) svolge una ricerca ad ampio raggio basata sulle nanotecnologie, nuovi materiali, sensori e nuovi dispositivi basati sulle tecnologie quantistiche. marzo/aprile 2024 43 Figura 3 Edge computing π
RkJQdWJsaXNoZXIy MTA3MTUxMQ==