Perché l'AI non sarà mai in grado di pensare? La teoria degli esperti
Secondo gli esperti, l’intelligenza artificiale non potrà mai riprodurre la mente umana perché rimane confinata nel linguaggio e non riuscirà mai a pensare
In Sintesi
- Secondo alcuni esperti l’idea di ottenere un’intelligenza simile a quella umana ampliando i modelli linguistici (LLM) è priva di basi scientifiche.
- Linguaggio e funzioni cognitive/di ragionamento sono separate nel cervello umano. Pertanto, gli LLM, essendo strumenti statistici per emulare il linguaggio, non sono un percorso verso il pensiero generale.
Le grandi aziende tecnologiche già da diverso tempo promettono macchine pensanti e sistemi capaci di riprodurre (o addirittura superare) la mente umana. Ma, secondo alcuni esperti, questa narrazione è più vicina alla strategia commerciale che alla realtà scientifica.
Benjamin Riley, fondatore della società di ricerca Cognitive Resonance, mette in discussione il presupposto su cui si regge l’intera corsa all’intelligenza artificiale generale (AGI), sostenendo che il linguaggio, pur essendo un potente strumento di espressione, non coincide con il pensiero, per cui l’idea che modelli linguistici sempre più grandi finiranno per generare intelligenza comparabile a quella umana è una convinzione priva di basi scientifiche.
Il mito dell’AGI e la promessa di un’onniscienza artificiale
Nella visione dei colossi tecnologici, l’AGI rappresenta un sistema capace di affrontare qualsiasi compito cognitivo umano, dall’elaborazione del linguaggio alla risoluzione di problemi complessi. In questa narrazione diventa una sorta di panacea per le sfide globali, dalla cura per il cancro al cambiamento climatico, fino a una presunta “nuova fisica” capace di rivoluzionare la comprensione dell’universo.
È una prospettiva che offre una giustificazione per il livello senza precedenti degli investimenti e l’idea che l’AGI sia a portata di mano permette ai dirigenti dell’IA di presentare queste spese come necessarie, quasi inevitabili.
Ma la logica che sostiene questa corsa potrebbe poggiare su un malinteso radicale. Riley sottolinea come gli LLM, per quanto impressionanti nella conversazione, siano strumenti statistici progettati per emulare il linguaggio, non la mente umana.
Alla base di tutto ci sono decenni di studi neuroscientifici che dimostrano come il cervello umano separi nettamente i processi linguistici da altre funzioni cognitive. Una risonanza magnetica funzionale, ad esempio, mostra che le aree attivate durante la risoluzione di un problema matematico non coincidono con quelle coinvolte nell’elaborazione del linguaggio. Inoltre, studi condotti su pazienti che hanno perso le capacità linguistiche a causa di traumi o malattie rivelano che la loro capacità di ragionare, risolvere problemi o comprendere le emozioni rimane in larga parte intatta.
Questa distinzione è fondamentale e se il pensiero non risiede nel linguaggio, allora ampliare i modelli linguistici non avvicina automaticamente l’uomo a un’intelligenza paragonabile alla sua.
Altro “problema” dei modelli linguistici è il fatto che non potranno mai raggiungere l’intelligenza generale perché mancano di una comprensione strutturale del mondo fisico. Da qui la sua proposta di puntare su world models, sistemi in grado di apprendere dalla realtà tridimensionale attraverso dati sensoriali e fisici.
Altro fronte critico riguarda la capacità creativa dei modelli linguistici. Una recente analisi pubblicata sul Journal of Creative Behavior suggerisce che l’IA generativa è vincolata da limiti matematici che impediscono ai modelli di produrre vera originalità. Dato che gli LLM sono essenzialmente sistemi probabilistici, raggiungono inevitabilmente un punto di saturazione in cui ogni output “nuovo” è in realtà una combinazione prevedibile (o un insieme caotico di frasi prive di senso); di conseguenza l’IA non potrà mai raggiungere livelli creativi professionali, rimanendo confinata alla qualità media delle informazioni su cui è stata addestrata.
Quale futuro per gli LLM
La domanda che in molti si fanno è se gli LLM non possono sviluppare un pensiero proprio, come potranno generare le innovazioni radicali che molti dirigenti tech continuano a promettere? È una domanda cruciale, soprattutto mentre figure come Elon Musk sostengono che l’IA scoprirà nuove leggi della fisica mentre Sam Altman immagina un modello capace di risolvere la crisi climatica.
Secondo Riley, invece, si tratta di una visione è fuorviante. I sistemi linguistici, per quanto sofisticati, rimarranno sempre confinati all’interno dei dati su cui sono stati addestrati e potranno rielaborare, combinare, reinterpretare, ma non superare realmente quella base.
In poche parole, dunque, nonostante l’accesso a tutto il bagaglio di conoscenza umana, l’AI resterà sempre una macchina intrappolata nel vocabolario dell’uomo, incapace di generare concetti veramente nuovi.




















