Logo Epoch Times

COMMENTI

L'Ia sbaglia e falsifica la realtà con una facilità e una 'sicurezza' inquietanti

L’intelligenza artificiale distrugge la capacità di ragionamento

Secondo uno studio del Center for Democracy and Technology, nell’anno scolastico 2024-25 l’85% degli insegnanti e l’86% degli studenti hanno utilizzato l’intelligenza artificiale durante le lezioni. Un fattore che già adesso sta compromettendo la capacità dei ragazzi di costruire delle normali relazioni con i propri docenti

top-article-image

FOTO D'ARCHIVIO: Una persona visita la Conferenza mondiale sull'intelligenza artificiale a Shanghai, Cina, 26 luglio 2025. REUTERS/Go Nakamura/ Foto d'archivio

author-image
Condividi articolo

Tempo di lettura: 6 Min.

«Il Parlamento statunitense è troppo lento sulla regolamentazione dell’Intelligenza artificiale, che è già entrata nelle case e nelle scuole americane creando enormi problemi alle famiglie». A dichiararlo è Michael Kleinman, responsabile del Future of Life Institute. E mentre i parlamentari discutono sull’argomento, nelle scuole americane decine di milioni di bambini stanno già utilizzando l’intelligenza artificiale senza nessun controllo rispetto alla sua sicurezza e, soprattutto, senza che insegnanti e genitori capiscano il reale pericolo che i ragazzi stanno correndo.
Secondo uno studio del Center for Democracy and Technology, nell’anno scolastico 2024-25 l’85% degli insegnanti e l’86% degli studenti hanno utilizzato l’intelligenza artificiale durante le lezioni. Un fattore che già adesso sta compromettendo la capacità dei ragazzi di costruire delle normali relazioni con i propri docenti. Nonostante questo, nelle scuole elementari e medie di tutto il Paese sono stati adottati diversi programmi spacciati per la cosiddetta “alfabetizzazione all’Ia” (cioè delle iniziative scolastiche che spiegano a grandi linee come funzionano i chatbot). Ma il problema è che la maggior parte dei genitori, degli insegnanti e persino dei politici ha ancora idee profondamente sbagliate su che cosa sia davvero l’Ia, come funzioni e quali rischi comporta.
Molti pensano all’intelligenza artificiale come un mero strumento, un’auto o a una calcolatrice. Insomma, qualcosa di prevedibile e che fa esattamente quello che le si chiede. Ma non è proprio così. Chi costruisce un’auto conosce alla perfezione ogni bullone; e la calcolatrice non genera idee, non imita emozioni e soprattutto non genera informazioni false (o quanto meno inesatte) con assoluta convinzione. L’intelligenza artificiale sì. I modelli linguistici immagazzinano enormi quantità di dati e generano testi, argomenti e teorie senza alcun ragionamento alla base. In pratica si basano sulla mera statistica: si fa una domanda ai chatbot, loro indovinano la parola successiva, poi quella dopo ancora e così via, basandosi esclusivamente sulla statistica di migliaia di miliardi di parole dal web e altri testi.
Un altro problema è che troppo spesso l’intelligenza artificiale viene vista come uno strumento neutrale e imparziale. Ma l’Ia viene addestrata su testi scritti da esseri umani, e che per ovvi motivi sono pieni di pregiudizi. Questo significa che se un bambino fa una domanda all’Ia relativa alla storia, o su come risolvere un conflitto sociale, la risposta si baserà su quegli schemi piuttosto che su una verità oggettiva. E di conseguenza i bambini tenderanno a scambiare la risposta generata con il classico tono sicuro dal modello linguistico per verità assoluta. Quando l’intelligenza artificiale sbaglia, i bambini e i ragazzi non se ne accorgono. E spesso non se ne accorgono nemmeno gli adulti che in teoria li dovrebbero guidare. Si pensa inoltre che, se l’intelligenza artificiale è stata costruita dall’uomo, quest’ultimo a sua volta la può controllare. Ma il comportamento di questi sistemi emerge dall’addestramento, non da istruzioni esplicite. Infatti, le stesse aziende che costruiscono i modelli linguistici li definiscono «imprevedibili».
Alcuni esperti dicono che l’intelligenza artificiale curerà le malattie e risolverà i problemi del mondo. Altri decisamente meno ottimisti, come Geoffrey Hinton – il premio Nobel considerato il “padrino” dell’Intelligenza artificiale – ritengono che potrebbe mettere a rischio l’esistenza stessa dell’umanità. Ovviamente, quando gli scienziati di questo calibro stimano un 10-30% di probabilità di esiti disastrosi, non stanno necessariamente affermando che vi sia una catastrofe alle porte, ma stanno sottolineando che non sappiamo dove stiamo andando. Nessuno costruirebbe un ponte con un rischio di crollo tra il 10 e il 30%. Come si può allora adottare una tecnologia così poco sicura all’interno di un sistema scolastico?
I bambini non hanno bisogno dei modelli linguistici per imparare a pensare. Anzi: ai ragazzi serve ponderare un ragionamento, stimolare la memoria e l’immaginazione, coltivare le relazioni umane e così via. Ma se delegano tutto all’intelligenza artificiale, si esternalizzano proprio quelle basi cognitive che la scuola dovrebbe costruire.
Questi problemi non possono essere trascurati, dato che stanno pesantemente condizionando sempre di più il mondo di oggi. Per prendere un aereo non serve che ogni passeggero abbia studiato l’aerodinamica. Ma lo stesso non si può dire per l’intelligenza artificiale, dato che può letteralmente modellare il pensiero dei bambini. I genitori devono prima di tutto capire profondamente come funzionano i modelli linguistici, prima di darli in mano ai propri figli. E fino a quando insegnanti, genitori e gli stessi politici non avranno chiaro questo punto, il problema di fondo rimarrà irrisolto.

Iscriviti alla nostra newsletter - The Epoch Times

Copyright Epoch Times