Storia, attualità e futuro dell’IA dispositivi è fondamentale per il corretto funzionamento degli apparati e per un significativo incremento degli obiettivi di sicurezza. Nell’ICT, l’apprendimento profondo (DL) ha portato a progressi significativi in contesti quali visione computerizzata, elaborazione del linguaggio naturale e riconoscimento del parlato. È presumibile che giocherà un ruolo sempre più importante nei sistemi wireless (5G e oltre), dalla identificazione del canale di comunicazione ai ricevitori basati su reti neurali, dai codici correttori d’errori alla compressione dei dati. I futuri sistemi di comunicazione saranno il banco di prova per un nuovo campo di ricerca interdisciplinare alla frontiera di apprendimento automatico, ingegneria delle comunicazioni, teoria dell’informazione, progettazione hardware e software. L’inaffidabilità di un software ipertrofico e pervasivo, da solo o più spesso in combinazione con lacune nell’addestramento e nell’esperienza degli equipaggi, è tristemente nota per essere la causa della maggior parte degli incidenti aerei (si veda il programma televisivo documentaristico Indagini ad alta quota). E che dire dalle frustrazioni giornaliere createci da app malfunzionanti, oltre che in perenne aggiornamento, che sui nostri smartphone dovrebbero consentirci l’accesso a banche, prenotazioni al sistema sanitario o a enti pubblici, tramite PIN, password, codici di sblocco, SPID, CIE, e altre credenziali, che abbiamo dimenticato, o che più spesso, ci viene richiesto di cambiare, perché scadute? Siamo ostaggio di softwaristi sottopagati che lavorano, spesso offshore (in subappalto), male e in fretta. “Today, in the programming field, we mostly stand on each other’s feet”, sono ancora parole di Richard Hamming [11, p. 63] che, dispensando arguzia e saggezza, parafrasa un’immagine resa celebre da molti fra cui Bernardo di Chartres e Isaac Newton: “Siamo nani sulle spalle di giganti”. C’è da auspicare che i progressi nell’IA possano anche riversarsi presto nell’ingegnerizzazione del software in tutte le fasi della catena di approvvigionamento (supply chain): dallo sviluppo alla manutenzione, magari sfruttando appieno il concetto di “ridondanza utile” (riecco Shannon!) nella progettazione di sistemi a prova d’errore, come da decenni si fa nelle telecomunicazioni con la codificazione per rilevare e correggere gli errori dovuti ai disturbi del canale di comunicazione. Dal punto di vista tecnico, la “ridondanza inutile” o “superflua”, quando e dove c’è, dovrebbe essere invece drasticamente ridotta. L’ambizioso obiettivo generale è che, anche se gli algoritmi potranno commettere errori dovuti a carenza di dati, a una programmazione difettosa, a definizioni confuse dell’obiettivo, persino alla caotica peculiarità della marzo/aprile 2024 21 te nell’ottimizzazione di sistemi basati sul criterio di minimizzare una misura desiderata dell’errore tra una funzione obiettivo e i dati reali. Gli esperti di telecomunicazioni ricorderanno, magari con una punta di nostalgia, la sua applicazione nell’equalizzazione adattativa dei sistemi di trasmissione numerici, nati negli Anni 60 del secolo scorso. Il gradiente non simulerà certo la neuroplasticità e la malleabilità del cervello, ma consente di avvicinarsi molto. La matematica del calcolo numerico e computazionale può sembrare esoterica e maneggiarla non è certo facile, ma è condizione necessaria, ancorché non sufficiente, se vogliamo avere una comprensione non superficiale di che cosa accada dentro la “scatola”. Come riconoscerà il lettore AEIT (che per statuto e missione raggruppa le discipline di elettrotecnica, elettronica, automazione, informatica e telecomunicazioni), parecchi degli argomenti trattati, benché non tutti, afferiscono ai corsi per ingegneri elettrici, elettronici e ICT definiti di “Complementi di matematica” o “Analisi matematica 3”. Senza dimenticare che il background di base è tuttora costituito dalle equazioni di Maxwell per i campi elettromagnetici e dalla rappresentazione complessa (o metodo di Steinmetz) delle grandezze sinusoidali nell’analisi armonica. Formule, metodi, modelli, algoritmi, tecniche, schemi - ossia le abilità (skill) fondamentali utilizzate in questo campo - sono piuttosto complessi e li lasciamo volentieri ai testi specializzati; gli interessati potranno anche trovare gli approfondimenti teorici con pazienti ricerche online, ricorrendo - pur senza azioni di pirateria informatica - a risorse quali Google e Wikipedia alimentate da parole-chiave mirate alla ricerca. Fonti queste a cui rinviamo per credibilità, o trustworthiness, termine che riassume requisiti di aggiornamento, approfondimento, affidabilità, precisione, accuratezza, esattezza delle voci. Fra i testi specificatamente dedicati all’IA, segnaliamo i volumi [21-24] che si qualificano per livelli di approfondimento matematico in ordine crescente ([23] offre anche utili sezioni di carattere storico ed etico; [24] è tuttora il manuale più avanzato sul deep learning). In forma di riepilogo, possiamo dire che i gioielli più glamour della corona IA generativa sono*: 1. machine learning (ML), apprendimento automatico 2. natural-language processing (NLP), elaborazione del linguaggio naturale 3. large language model (LLM), modelli linguistici di grandi dimensioni 4. artificial neural network (ANN), reti neurali 5. deep learning (DL), apprendimento profondo Inseriti in uno schema di questo tipo, gli argomenti presentati nel box si potrebbero configurare come altrettanti capitoli di un ipotetico, seppur non completo, handbook sull’IA. * Allo scopo di facilitarne la comprensione, abbiamo qui nuovamente esplicitato gli acronimi contenuti nei cinque punti. Illustrazioni chiare e sintetiche di queste tecnologie e modelli, oltre che nei testi [21-24], sono in: www.ibm.com/it-it/ topics/neural-networks (in italiano); www.ibm.com/blog/ai-vs-machine-learning- vs-deep-learning-vs-neural-networks/ (in inglese).
RkJQdWJsaXNoZXIy MTA3MTUxMQ==