Elon Musk e 1.000 esperti chiedono una pausa sullo sviluppo dell’Ia

Di Katabella Roberts

Il Ceo di Twitter Elon Musk si è unito al gran numero di esperti di intelligenza artificiale (AI) e dirigenti del settore, che invita tutti i laboratori di intelligenza artificiale a «sospendere immediatamente» l’addestramento di sistemi più potenti di Chat Gpt-4 per almeno sei mesi.

La lettera, pubblicata dal Future of Life Institute senza scopo di lucro, è stata firmata da oltre 1.100 persone, tra cui il co-fondatore di Apple Steve Wozniak, il fondatore e Ceo di Stability AI Emad Mostaque e gli ingegneri di Meta e Google e altri.

Questi esperti sostengono che i sistemi di intelligenza artificiale con intelligenza tale da entrare in competizione con gli umani possono rappresentare «profondi rischi per la società e l’umanità» e cambiare la «storia della vita sulla Terra» e citano ricerche approfondite sulla questione e riconoscimenti da parte dei «migliori laboratori di intelligenza artificiale».

Secondo gli esperti al momento la pianificazione e la gestione per quanto riguarda i sistemi di intelligenza artificiale avanzata sono limitate, nonostante le aziende negli ultimi mesi siano state «bloccate in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, possano capire, prevedere o controllare in modo affidabile.

«I sistemi di intelligenza artificiale contemporanei stanno entrando in competizione con l’uomo in vari compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superarci in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti», afferma la lettera.

Protocolli di sicurezza necessari

«I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili».

La lettera chiede quindi una pausa pubblica e verificabile di almeno sei mesi sull’addestramento di sistemi di intelligenza artificiale più potenti del Gpt-4 o una moratoria emessa dal governo su tale addestramento se la pausa non può essere attuata rapidamente.

Durante una tale pausa, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero creare e implementare una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale che siano «rigorosamente controllati» e supervisionati da esperti di terze parti indipendenti.

Tali protocolli dovrebbero essere progettati per garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio, accurati, affidabili e allineati, secondo gli esperti.

Inoltre, la lettera invita i responsabili politici a sviluppare rapidamente solidi sistemi di governance dell’Ia come delle autorità in grado di fornire supervisione e tracciare sistemi di intelligenza artificiale altamente capaci, raccogliere fondi per ulteriori ricerche sulla sicurezza dell’IA e creare istituzioni in grado di far fronte alle probabili «drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’Ia causerà».

Ma gli esperti sottolineano che «questo non significa una pausa nello sviluppo dell’Ia in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti».

La lettera arriva appena due settimane dopo che OpenAI, il creatore del sistema di intelligenza artificiale ChatGpt, ha rilasciato il tanto atteso aggiornamento della sua tecnologia dell’Ia il 14 marzo: Chat Gpt-4, il sistema Ia più potente di sempre.

Aggiornamento ChatGpt rilasciato

Secondo OpenAI supportato da Microsoft, il sistema aggiornato ha una serie di nuove funzionalità, come l’accettazione di immagini come input e la generazione di didascalie, classificazioni e analisi, ed è più sicuro e accurato del suo predecessore.

A febbraio, OpenAI ha riconosciuto che a un certo punto potrebbe essere importante ottenere una «revisione indipendente prima di iniziare ad addestrare sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli». «Riteniamo che gli standard pubblici su quando uno sforzo Agi dovrebbe interrompere un’esecuzione di addestramento, decidere che un modello è sicuro da rilasciare o ritirare un modello dall’uso in produzione, siano importanti. Infine, riteniamo che sia importante che i principali governi mondiali siano informati sulle corse di addestramento al di sopra di una certa scala».

All’inizio di questa settimana, Europol, l’agenzia delle forze dell’ordine dell’Unione europea, ha avvertito delle gravi implicazioni dell’utilizzo di ChatGpt per il crimine informatico e altre attività dannose, inclusa la diffusione di disinformazione.

Ulteriori preoccupazioni sono state sollevate sul software che viene addestrato utilizzando l’apprendimento per rinforzo dal feedback umano (Rlhf), in particolare per quanto riguarda il modo in cui può essere utilizzato per aiutare gli studenti a imbrogliare sugli esami e compiti.

Nonostante queste preoccupazioni, la popolarità di ChatGpt ha spinto le aziende rivali a lanciare prodotti simili.

La scorsa settimana, Google ha annunciato di aver lanciato la sua app AI, nota come «Bard», per i test nel Regno Unito e negli Stati Uniti, sebbene la società sia stata notevolmente più lenta nel rilasciare la tecnologia rispetto al suo rivale, citando la necessità di ulteriori feedback sull’app.

 

Articolo in inglese: Elon Musk Joins Over 1,000 Experts Calling for Pause on Advanced AI Development

NEWSLETTER
*Epoch Times Italia*
 
Articoli correlati