Altro che ChatGPT, la vera storia dell'AI (che inizia molto prima di quanto pensi)
Mentre usiamo ChatGPT e le altre AI generative, spesso dimentichiamo che questi strumenti sono solo l'ultimo tassello di un "sogno" millenario.

No, l’Intelligenza Artificiale non è nata un martedì di novembre del 2022 con il lancio di ChatGPT. Quello che stiamo vivendo oggi è l’ultimo atto di una saga millenaria, che affonda le radici in un terreno fatto di “leggende” e algoritmi teorizzati molto prima dell’invenzione del silicio.
Dagli automi di bronzo dell’antichità fino ai chatbot che negli anni ’60 facevano “finta” di capirti, la strada per arrivare ai modelli odierni è stata un percorso accidentato, caratterizzato da grandi entusiasmi e “inverni” glaciali, con finanziamenti sparivano nel nulla.
Dai robot di bronzo alla “scienza poetica” di Ada Lovelace
La preistoria dell’AI non è fatta di chip, ma di “leggende”. Già nel 400 a.C., Archita di Taranto faceva volare una colomba di legno, mentre il mito greco di Talos, il gigante di bronzo creato per difendere Creta, rappresenta il primo vero concept di automa della storia.
Nel I secolo a.C., Erone di Alessandria descriveva teatri robotici capaci di muoversi grazie a complessi sistemi di pesi, dimostrando che la “programmazione” di sequenze era possibile secoli prima dell’elettricità. Questa ossessione è continuata nel Settecento con le canard digérateur (l’anatra digeritrice) di Jacques de Vaucanson, un prodigio meccanico capace di mangiare e defecare che sollevò i primi dubbi sulla possibilità di replicare artificialmente la vita.
Il vero salto è avvenuto, però, nell’Inghilterra vittoriana grazie ad Ada Lovelace. Mentre Charles Babbage progettava la sua “calcolatrice gigante”, nel 1843 la matematica britannica intuì che se una macchina poteva manipolare numeri, allora poteva manipolare qualsiasi simbolo astratto, dalla musica alle immagini, scrivendo di fatto il primo programma della storia. Questo approccio, definito “scienza poetica”, ha predetto l’Intelligenza Artificiale generativa con quasi due secoli di anticipo.
Il test di Alan Turing
Ma facciamo un balzo in avanti nel tempo. Le fondamenta teoriche del Deep Learning moderno sono nate nel 1943, in piena Seconda Guerra Mondiale, quando lo psicologo Walter Pitts e l’esperto di cibernetica Warren McCulloch dimostrarono in un paper accademico come un sistema di neuroni artificiali potesse apprendere autonomamente tramite tentativi ed errori, rafforzando o indebolendo le proprie connessioni proprio come fa il cervello umano.
Qualche anno dopo, nel 1950, Alan Turing ha spostato il dibattito dalla filosofia alla pratica con il suo celebre test: se un computer riesce a ingannare un umano in una conversazione via testo, allora può essere definito intelligente.
Il termine “Intelligenza Artificiale” è stato coniato ufficialmente solo nel 1956 durante la storica conferenza di Dartmouth, dove pionieri come John McCarthy sognavano di risolvere i misteri della mente umana, riuscendo a simularne ogni aspetto in una sola estate.
Possiamo immaginare l’ottimismo che era nato attorno a questo ambito di studio e ricerca. Parliamo di un periodo storico in cui sono stati realizzati i primi grandi esperimenti, come il Mark I Perceptron del 1958, presentato dal New York Times come un “cervello elettronico” capace di identificare il mondo senza aiuto umano. In realtà era un caos di cavi e manopole che riusciva a malapena a distinguere la destra dalla sinistra.
Dall’ottimismo alla delusione, fino a quello che possiamo definire il primo “inverno dell’AI”. Nel 1969 i ricercatori Marvin Minsky e Seymour Papert pubblicarono un saggio che stroncò le reti neurali, poi ci sono stati rapporti ALPAC e Lighthill e, infine, furono azzerati i fondi.
Verso i moderni LLM
Per decenni, un’amara verità: nessuno voleva più investire sull’Intelligenza Artificiale. Ma c’è stato un momento di rinascita per questo ambito di studio e ricerca, costellato di avvenimenti che ancora oggi vengono ricordati con grande entusiasmo, come la vittoria del supercomputer Deep Blue contro il campione di scacchi Garry Kasparov nel 1997.
Ma il vero Big Bang dell’era moderna è avvenuto il 30 settembre 2012: la rete neurale AlexNet umiliò la concorrenza nel riconoscimento immagini grazie all’uso delle GPU dei videogiochi e alla funzione di attivazione ReLU, che velocizzò drasticamente l’apprendimento. Un grande successo che diede una spinta allo sviluppo dell’architettura Transformer nel 2017, la vera base tecnologica di ChatGPT e di ogni moderno Large Language Model (LLM).
Oggi l’AI è ovunque. E ChatGPT è solo la punta dell’iceberg di una storia millenaria che, come aveva predetto Ada Lovelace, continua a unire la fredda logica alla creatività umana.


















