COMMENTI
I modelli linguistici non sono ontologicamente capaci di pensareL’intelligenza artificiale (per ora) non esiste
I primissimi modelli di intelligenza artificiale erano ridicoli: davano risposte sbagliate e spesso surreali. In pratica era come chiedere a un pappagallo ubriaco di spiegare Kant. Ma oggi ChatGPT, Grok e altre Ia altri sono talmente fluide, ben articolate e convincenti che molti le considerano capaci di conoscere davvero tutto e addirittura di ragionare da sole

Conferenza Mondiale sull'Intelligenza Artificiale
Photo: WAIC a Shanghai, Cina, 6 luglio 2023. Foto: REUTERS/Aly Song
| Aggiornato alle
Condividi articolo
Tempo di lettura: 5 Min.
Tempo di lettura: 5 Min.
I primissimi modelli di intelligenza artificiale erano ridicoli: davano risposte sbagliate e spesso surreali. In pratica era come chiedere a un pappagallo ubriaco di spiegare Kant. Ma oggi ChatGPT, Grok e altre Ia altri sono talmente fluide, ben articolate e convincenti che molti le considerano capaci di conoscere davvero tutto e addirittura di ragionare da sole.
Ma le cose non stanno proprio così. Questi modelli, infatti, non pensano affatto. Sono semplicemente dei motori di “autocompletamento”. Come funzionano? In pratica si fa una richiesta scrivendo alle Ia una frase, loro indovinano la parola successiva, poi quella dopo ancora e così via, basandosi esclusivamente sulla statistica di migliaia di miliardi di parole dal web, libri e forum. Non applicano nessuna logica (a parte quella statistica) e nessuna regola: sono letteralmente probabilità travestite da conversazione. E quindi, per ovvi motivi, non hanno la minima idea se una frase sia vera o falsa, sanno soltanto se “suona bene” e se è in linea con qualcosa che hanno già visto. Questo è il motivo per cui in certi casi inventano con assoluta sicurezza frasi o affermazioni inesistenti, eventi storici mai accaduti o spiegazioni fisiche completamente inventate.
Ma dato che parlano perfettamente, il nostro cervello applica automaticamente gli stessi “criteri di fiducia” che usa con le persone vere. Praticamente, noi confondiamo la forma con la sostanza e attribuiamo comprensione a qualcosa che è solo un’imitazione molto convincente: è un po’ come sentire qualcuno parlare un francese impeccabile e dargli credito anche su vino, moda e filosofia. Da qui ormai hanno preso piede due idee sull’intelligenza artificiale abbastanza pericolose. La prima è che basta “rendere i modelli più potenti e prima o poi emergerà un vero ragionamento”. I modelli più grandi sono sempre più fluidi e impressionanti, ma il trucco alla base – cioè prevedere la parola successiva – è sempre lo stesso. È ancora imitazione, non comprensione. È come credere che ingrandire le ruote di un’auto per farle girare più velocemente alla fine la farà diventare un aereo. In realtà alcuni studi dimostrano che i modelli più potenti possono addirittura diventare meno affidabili su certe questioni.
L’altra idea ampiamente diffusa è: “Chi se ne frega di come funziona? Se il risultato è corretto, va bene lo stesso”. E questa è la cosa più pericolosa. Perché un’affermazione o una conclusione è considerata affidabile solo se ponderata da un ragionamento deduttivo e con delle osservazioni del mondo reale che confermano o smentiscono una tesi. E da questo punto di vista anche i più grandi modelli linguistici, i cosiddetti Llm, sono anni luce indietro. Non deducono nulla, poiché la loro architettura non include alcuna inferenza logica.
Per cercare di aggirare questi limiti gli sviluppatori hanno implementato diversi strumenti esterni come calcolatrici, database e motori di ricerca. I modelli di conseguenza sono migliorati un po’, certo, ma il problema di fondo resta. Esistono però dei modelli alternativi, che puntano davvero a un’intelligenza artificiale capace di pensare: l’Ia simbolica, che segue regole logiche esplicite; l’Ia causale, che capisce i rapporti di causa-effetto e risponde a domande del tipo “cosa succederebbe se” e quella agentica, cioè che agisce con un obiettivo, riceve feedback e impara dai propri errori. Purtroppo però quasi tutti i fondi finiscono per finanziare gli Llm, mentre queste alternative ricevono praticamente solo le briciole.
I modelli linguistici comunque restano strumenti straordinari: sono perfetti per scrivere e riassumere certe idee, ma sono e resteranno sempre motori linguistici di schemi privi di una vera e propria conoscenza. Il pensiero autentico richiede comprensione del mondo fisico, memoria e ragionamento: tutte cose che i modelli linguistici non possono gestire. Si possono usare come strumenti creativi e stimolanti, ma mai come fonti affidabili. E basta credere alla favola che il “pappagallo cominci a fare filosofia”. Non succederà mai.
Copyright Epoch Times
Articoli attuali dell'autore
08 maggio 2025
L’intelligenza artificiale è un bluff








