AI-breve storia
la mappa è stata prodotta elaborando la pagina web linkata

1943: la prima rete neurale artificiale
In un paper accademico, lo psicologo cognitivo Walter Pitts e l’esperto di cibernetica Warren McCulloch mostrano come un sistema di neuroni artificiali possa apprendere nello stesso modo in cui imparano gli esseri umani. La teoria esposta da Pitts e McCulloch è ancora oggi alla base degli algoritmi di deep learning.
In sintesi, i due scienziati dimostrano che, attraverso una serie di tentativi ed errori, i collegamenti tra i neuroni artificiali che hanno portato a eseguire l’azione corretta si rafforzano, mentre quelli che hanno portato a un’azione errata si indeboliscono. Questo sistema, quindi, non ha bisogno di essere programmato con regole fisse, ma apprende autonomamente sfruttando i dati in suo possesso. È il primo modello matematico di rete neurale artificiale, ma all’epoca non c’erano né i dati né il potere computazionale per mettere in pratica la teoria.

Le macchine possono pensare?
Alan Turing
, considerato tra i padri fondatori dell’IA, stabilì le basi teoriche per la ricerca sull’intelligenza artificiale. Nel 1950, pubblicò il famoso articolo “Computing Machinery and Intelligence”, in cui ha proposto il “Test di Turing” come criterio per valutare l’intelligenza delle macchine. Questo concetto ha stimolato dibattiti sulla capacità delle macchine di raggiungere l’intelligenza umana.

Nel 1956, McCarthy ha coniato, durante la storica conferenza di Dartmouth (New Hampshire, Stati Uniti), il termine “intelligenza artificiale”; successivamente fonderà il laboratorio di IA presso il MIT. Ha svolto un ruolo chiave nello sviluppo di algoritmi di percezione e nel promuovere la ricerca nell’IA. McCarthy è anche considerato uno dei padri fondatori della programmazione simbolica e dell’IA simbolica.

È il cervello elettronico che insegna a se stesso.
Nel 1958, lo psicologo statunitense Rosenblatt sviluppò il perceptron, ispirato al funzionamento dei neuroni biologici. Il perceptron è una rete neurale artificiale composta da un singolo strato di unità logiche. Questo modello è stato uno dei primi tentativi di creare un sistema che potesse apprendere autonomamente dai dati.

Un IBM 704, un computer da 5 tonnellate grande quanto una stanza, è stato sottoposto a una serie di schede perforate. Dopo 50

Un IBM 704, un computer da 5 tonnellate grande quanto una stanza, è stato sottoposto a una serie di schede perforate. Dopo 50 tentativi, il computer ha imparato da solo a distinguere le schede contrassegnate a sinistra da quelle contrassegnate a destra.

Nel 1966, Shakey è stato uno dei primi robot mobili dotati di intelligenza artificiale. È stato sviluppato presso il laborato

Nel 1966, Shakey è stato uno dei primi robot mobili dotati di intelligenza artificiale. È stato sviluppato presso il laboratorio di ricerca Stanford e ha dimostrato la capacità di ragionamento e pianificazione autonoma. Shakey rappresenta un passo importante verso la realizzazione di sistemi intelligenti in grado di interagire con il mondo reale.

1966: Eliza, il primo chatbot della storia
Non sfrutta reti neurali e non è nemmeno un esempio pionieristico di apprendimento autonomo, eppure Eliza – creato dall’informatico Joseph Weizenbaum – è il primo chatbot della storia. Nato per fare la parodia di uno psicologo della scuola rogersiana, Eliza si limita a ripetere le affermazioni dei suoi interlocutori in forma di domanda.

Negli anni ’70, l’IA si trovò ad affrontare diverse sfide che ne rallentarono il progresso. Uno degli eventi significativi fu l’affair XOR, presentato da Marvin Minsky e Seymour Papert nel loro libro “Perceptrons” del 1969, che evidenziò i limiti dei modelli di perceptron nel risolvere problemi complessi, come replicare il comportamento della funzione XOR. In particolare, si dimostrò che un singolo strato di unità connesse può classificare solo input che possono essere separati da una linea retta o da un iperpiano.

Queste analisi, insieme a un basso ritorno di investimenti, portarono a mettere in discussione l’efficacia delle reti neurali artificiali e ad un periodo di scetticismo e disillusione nei confronti dell’IA. Tuttavia, è importante sottolineare che il primo “inverno” dell’IA ha comportato anche importanti lezioni apprese. I limiti dei perceptron hanno evidenziato la necessità di sviluppare modelli di intelligenza artificiale più complessi e adattabili. Inoltre, questo periodo di riflessione ha contribuito ad una maggiore consapevolezza delle sfide e dei problemi che accompagnano lo sviluppo dell’IA.

Negli anni ’80 si è verificata una ripresa significativa della ricerca e dello sviluppo nell’ambito dell’IA, guidata principalmente dall’IA simbolica. Questa branca dell’apprendimento automatico si concentra sulla rappresentazione della conoscenza e sull’utilizzo di regole e inferenze per affrontare problemi complessi. I sistemi esperti e knowledge-based sono stati sviluppati come strumenti per risolvere problemi complessi sfruttando basi di conoscenza rappresentate principalmente come regole if-then. Un esempio notevole è SHRDLU, sviluppato da Terry Winograd. SHRDLU era un programma di IA che interagiva con il mondo attraverso il linguaggio naturale, dimostrando una certa comprensione del contesto e della semantica, nonostante fosse basato su approcci rule-based.

Oltre ai sistemi esperti, un’altra pietra miliare di questo periodo è stata Stanford Cart, un carrello sviluppato a Stanford

Oltre ai sistemi esperti, un’altra pietra miliare di questo periodo è stata Stanford Cart, un carrello sviluppato a Stanford in grado di eseguire compiti fisici complessi, come il trasporto di oggetti in un ambiente con ostacoli. Questo ha dimostrato la capacità dei robot di manipolare oggetti fisici in modo autonomo, aprendo nuove prospettive per l’applicazione pratica dell’IA.

Gli anni ’80 sono stati anche caratterizzati dallo studio teorico di algoritmi fondamentali per l’IA, come l’algoritmo di back-propagation, reso popolare nel 1986 da uno dei padri della moderna AI, Geoffrey Hinton. Questo algoritmo, che sfrutta la retroazione dell’errore nei processi di apprendimento, ha migliorato la capacità delle reti neurali di adattarsi ai dati, aprendo nuove possibilità per l’IA.

Nonostante i notevoli progressi, verso la fine degli anni ’80 e l’inizio degli anni ’90, l’IA ha affrontato alcune sfide e rallentamenti. In particolare, i sistemi esperti presentano diversi limiti, tra cui la loro dipendenza dalle informazioni fornite inizialmente e l’adattabilità limitata tra domini. Inoltre, la manutenzione e l’aggiornamento della base di conoscenza richiedono sforzi e costi significative. Ciò portò a tagliare gli investimenti nella ricerca sull’IA, che all’epoca era ancora fortemente vincolata a fondi governativi.

1997: DeepBlue sconfigge Gary Kasparov
L’intelligenza artificiale, dopo un lungo silenzio, torna sulle prime pagine di tutto il mondo quando il sistema di Ibm DeepBlue sconfigge il campione mondiale di scacchi Gary Kasparov (che però vincerà le sfide successive).
DeepBlue non è una rete neurale, ma un’intelligenza artificiale simbolica all’interno della quale sono state codificate tutte le regole degli scacchi e le mosse da eseguire in ogni situazione. Sarà la massima, e per il momento ultima, grande conquista di questa forma di AI.

L’esplosione del Machine Learning e del Deep Learning: gli anni 2000
Negli ultimi decenni, l’Intelligenza Artificiale ha vissuto una notevole rinascita grazie all’esplosione del machine learning (ML) e del deep learning (DL). Alcuni dei principali sviluppi di questo periodo:

Introduzione delle reti neurali multi-layer: Un punto di svolta nell’IA è stato raggiunto nel 2015 con l’introduzione delle Deep Neural Networks. Modelli come AlexNet hanno aperto la strada a reti neurali in grado di apprendere rappresentazioni complesse dai dati. Il DL ha rivoluzionato molti campi, come l’elaborazione del linguaggio naturale e la computer vision.

Hardware GPU: L’incremento della potenza di calcolo è stato un fattore cruciale per l’esplosione dell’IA. I progressi nella tecnologia hardware, in particolare l’introduzione dei processori grafici ad alte prestazioni (GPU), hanno fornito alle macchine le risorse necessarie per l’addestramento di modelli complessi.

La competizione annuale di classificazione ILSVRC: Lanciata nel 2010, ha avuto un ruolo fondamentale nello stimolare il progresso nell’elaborazione delle immagini. La competizione è legata al dataset ImageNet, con oltre 15 milioni di immagini appartenenti a più di 20.000 classi. Grazie ai metodi di DL, l’errore di classificazione è stato significativamente ridotto, aprendo nuove prospettive nel campo della visione artificiale.

Comunità IA: L’evoluzione dell’IA è stata favorita dalla condivisione delle conoscenze. L’apertura del codice, dei dataset e delle pubblicazioni scientifiche ha giocato un ruolo cruciale. Framework open source come TensorFlow e PyTorch, supportati dalle principali aziende IT (Google e Facebook), hanno dato impulso allo sviluppo. Questo ha consentito a ricercatori e sviluppatori di accedere a strumenti e risorse per sperimentare. Le competizioni di ML, sono diventate piattaforme di riferimento per la condivisione di modelli, l’acquisizione di dataset e la collaborazione tra ricercatori.

Investimenti privati: i colossi hi-tech hanno riconosciuto il potenziale dell’IA nel trasformare i loro prodotti e servizi, nonché nell’aprire nuove opportunità di business. Di conseguenza, hanno stanziato fondi considerevoli per la ricerca e lo sviluppo nell’ambito dell’IA.

Il Glossario dell'AI
clicca a destra

AI generativa-mappa

m

Podcast- AI e fantascienza