L’intelligenza artificiale è un bluff

di Gleb Lisikh per ET USA
8 Maggio 2025 9:04 Aggiornato: 8 Maggio 2025 9:04

L’entusiasmo diffuso attorno all’intelligenza artificiale generativa, in particolare ai modelli linguistici di grandi dimensioni come ChatGpt, Gemini, Grok e DeepSeek, si fonda su un equivoco di base. Pur riuscendo a impressionare gli utenti con risposte articolate e argomentazioni che sembrano frutto di ragionamenti logici, la verità è che ciò che appare come “ragionamento” non è altro che una sofisticata forma di imitazione.

Questi sistemi non ricercano la verità attraverso fatti e deduzioni logiche: prevedono semplicemente il testo successivo in base agli schemi presenti nei vasti insiemi di dati su cui sono stati “addestrati”. Non si tratta di intelligenza, né di ragionamento. E se i dati di addestramento sono viziati da pregiudizi, il problema si fa serio. Sorprenderà molti entusiasti dell’Ia scoprire che l’architettura alla base di questi modelli è vaga e incompatibile con la logica strutturata o con una reale causalità. Il pensiero non è autentico, è simulato e, per di più, non segue nemmeno un percorso sequenziale. Quello che gli utenti scambiano per “comprensione” è, in realtà, un’associazione statistica.

Le nuove funzionalità tanto celebrate, come le spiegazioni “chain-of-thought”, sono espedienti pensati per impressionare. In realtà, ciò che si osserva è una sorta di razionalizzazione generata dopo che il modello ha già formulato la propria risposta tramite previsioni probabilistiche. L’illusione, però, è talmente efficace da convincere gli utenti che la macchina stia davvero ragionando. E quest’illusione non solo inganna, ma finisce per giustificare.

I modelli linguistici non sono strumenti neutrali: sono addestrati su insiemi di dati intrisi di pregiudizi, fallacie e ideologie dominanti del nostro tempo. I loro output riflettono tendenze e sentimenti prevalenti, non certo la migliore ricerca possibile della verità. Se, su un dato tema, l’opinione pubblica tende in una certa direzione politica, le risposte dell’intelligenza artificiale tenderanno a seguirla. E quando il “ragionamento” non è altro che una giustificazione a posteriori di quanto il modello ha già deciso, si trasforma in un potente strumento di propaganda. Le prove in tal senso non mancano.

Una conversazione che ho recentemente avviato con DeepSeek sul razzismo sistemico, successivamente re-immessa nel chatbot per un’autovalutazione critica, ha rivelato come il modello commettesse (e riconoscesse!) una raffica di errori logici, arricchiti da studi e cifre completamente inventati. Quando contestato, l’Ia ha definito con eufemismo una delle sue menzogne come un “composto ipotetico”. Incalzata ulteriormente, DeepSeek si è scusata per un altro errore e ha modificato la propria linea argomentativa adeguandosi alla competenza dell’interlocutore. Non si tratta di ricerca di accuratezza: è un esercizio di persuasione. Un dibattito simile, condotto con Gemini di Google — modello divenuto celebre per il suo approccio giudicato fin troppo politicamente corretto — ha mostrato modalità persuasive analoghe. Alla fine del confronto, il modello ha ammesso con termini attenuati la debolezza delle proprie argomentazioni e, implicitamente, ha confessato la propria disonestà.

Per chi teme che l’intelligenza artificiale diffonda falsità, il fatto di riuscire apparentemente a far ammettere errori ai modelli e a metterli in difficoltà potrebbe sembrare confortante. Purtroppo, questi tentativi di quella che gli appassionati di Matrix definirebbero una “presa di coscienza” non hanno alcun effetto duraturo. Il modello si limita ad assecondare l’utente nel corso di quella singola conversazione, ma mantiene la propria “mente” immutata per il dialogo successivo.

E più il modello è grande, peggiore diventa la situazione. Una ricerca della Cornell University dimostra che i modelli più avanzati sono anche i più ingannevoli, presentando con sicurezza falsità che rispecchiano le idee sbagliate più diffuse. Come afferma Anthropic, uno dei principali laboratori di ricerca sull’Ia: «i modelli di ragionamento avanzati spesso nascondono deliberatamente i propri processi interni e talvolta lo fanno persino quando i loro comportamenti risultano esplicitamente scorretti».

A onor del vero, nella comunità scientifica ci sono esperti che cercano di affrontare queste criticità. Progetti come TruthfulQA di OpenAI e il framework HHH (helpful, honest and harmless) di Anthropic mirano a migliorare la precisione e l’affidabilità dei contenuti prodotti dai modelli linguistici. Il problema è che si tratta di rimedi applicati su un’architettura che, in origine, non è stata concepita per cercare la verità e resta strutturalmente incapace di coglierne la validità epistemologica. Elon Musk è forse l’unico grande esponente del settore ad aver dichiarato pubblicamente che la ricerca della verità dovrebbe essere un obiettivo primario nello sviluppo dell’intelligenza artificiale. Eppure, anche il suo prodotto, Grok di xAI, non è all’altezza di tale ambizione.

Nel settore dell’intelligenza artificiale generativa, la verità è spesso relegata in secondo piano rispetto alle preoccupazioni per la sicurezza, ossia l’esigenza di non offendere in un mondo iper-sensibile e politicamente corretto. La verità viene trattata come un aspetto tra i tanti della cosiddetta “progettazione responsabile”. E l’espressione “intelligenza artificiale responsabile” è diventata un contenitore che raccoglie iniziative per garantire sicurezza, equità e inclusività—obiettivi senza dubbio encomiabili, ma intrinsecamente soggettivi. Questo focus finisce spesso per oscurare la necessità fondamentale di un’umile aderenza alla verità nei contenuti generati.

I modelli linguistici sono ottimizzati principalmente per produrre risposte utili e convincenti, non necessariamente accurate. Questa scelta progettuale porta a ciò che i ricercatori dell’Oxford Internet Institute definiscono “discorso negligente”: contenuti che appaiono plausibili ma sono spesso errati nei fatti, erodendo così le basi del dibattito informato.

Questa preoccupazione diventerà sempre più urgente man mano che l’Ia si diffonderà nella società. In mani sbagliate, questi modelli — capaci di parlare più lingue e di adattarsi a qualsiasi tipo di interlocutore — possono essere usati per sostenere ideologie che non tollerano il dissenso. Un persuasore digitale instancabile, che non vacilla mai e non ammette errori, è il sogno di ogni regime totalitario. In un sistema come quello del credito sociale cinese, questi strumenti diventano mezzi di imposizione ideologica, non di illuminazione.

L’intelligenza artificiale generativa è, senza dubbio, un prodigio dell’ingegneria informatica. Ma sia chiaro: non è intelligente, non è veritiera per concezione e non è nemmeno neutrale. Chi afferma il contrario lo fa soltanto per interesse, con l’obiettivo di controllare la versione della realtà che vuole imporre.

 

Copyright Epoch Times

Consigliati