I rischi della rapida evoluzione dell’intelligenza artificiale

di Redazione ETI/Catherine Yang
9 Agosto 2025 12:41 Aggiornato: 9 Agosto 2025 12:41

Il 5 agosto, OpenAI ha rilasciato due modelli linguistici a “pesi aperti”, i primi dal lancio di GPT-2 nel 2019. I modelli a pesi aperti rendono pubblici i parametri di addestramento, ma non il codice sorgente né i dati di training, a differenza dei modelli open-source, che includono anche questi ultimi. Grazie ai pesi accessibili, gli sviluppatori possono analizzare e ottimizzare i modelli per compiti specifici senza bisogno dei dati originali. OpenAI ha annunciato che i nuovi modelli – denominati Gpt-oss-120b e Gpt-oss-20b – sono scaricabili gratuitamente, consentendo personalizzazioni e implementazioni in ambienti propri. «Questi modelli aperti riducono le barriere per mercati emergenti, settori con risorse limitate e piccole organizzazioni prive del budget o della flessibilità per adottare modelli proprietari – ha dichiarato OpenAI il 5 agosto. L’accesso a questi potenti modelli a pesi aperti, sviluppati negli Usa, favorisce l’espansione di un’infrastruttura di intelligenza artificiale democratica».

Le aziende tecnologiche statunitensi e l’amministrazione Trump concordano sulla necessità che gli Stati Uniti diventino leader nel settore dell’intelligenza artificiale, attraverso l’adozione diffusa di hardware, modelli, software, applicazioni e standard americani. Il 23 luglio, la Casa Bianca ha presentato un piano d’azione per l’intelligenza artificiale, mirato a rimuovere ostacoli per le aziende, accelerare l’innovazione, potenziare le infrastrutture e stabilire standard internazionali tramite la diplomazia.
Il 6 agosto, Amazon ha comunicato che i modelli a pesi aperti di OpenAI sono ora disponibili su Bedrock, il mercato di intelligenza artificiale generativa di Amazon Web Services. È la prima volta che un modello OpenAI viene offerto su questa piattaforma, ha precisato il colosso tecnologico. A maggio, Meta ha annunciato una collaborazione con Red Hat per promuovere l’intelligenza artificiale open-source per le imprese.

Nel panorama open-source, le aziende cinesi detengono attualmente una posizione di forza. Recentemente, alcuni senatori repubblicani hanno chiesto al ministero del Commercio Usa di indagare sui rischi per la sicurezza dei dati e sulle possibili vulnerabilità nei modelli open-source cinesi, come DeepSeek. A giugno, il fondatore di Huawei, Ren Zhengfei, ha dichiarato ai media di Stato cinesi che lo sviluppo dell’intelligenza artificiale in Cina includerà diverse migliaia di software open-source. Il 7 agosto, il Global Times, organo di propaganda del regime comunista cinese, ha pubblicato un editoriale sostenendo che i tentativi degli Usa di frenare la strategia cinese in questo campo falliranno, poiché «la Cina ha adottato un approccio open-source» per soddisfare le sue vaste esigenze. Dagli anni 2000, il regime comunista cinese ha costruito alleanze per il software open-source, spingendo il settore tecnologico a contribuire alla comunità mondiale con l’obiettivo di ridurre la dipendenza da software proprietari americani. Secondo un’analisi GitHub del 2024, la Cina è il terzo maggiore contributore di software open-source sulla piattaforma. Pur non essendo ancora leader mondiale nell’intelligenza artificiale, mantiene una forte presenza nel settore open-source.
Ma i modelli cinesi di intelligenza artificiale presentano rischi di spionaggio tramite raccolta dati e vulnerabilità che potrebbero favorire la diffusione di malware o contenuti dannosi. OpenAI ha sottolineato il pericolo che modelli a pesi aperti vengano sfruttati per scopi illeciti. Per questo, ha ottimizzato i nuovi modelli con dati specifici in biologia e cybersicurezza, testandone la sicurezza contro usi impropri. L’azienda invita terze parti a segnalare vulnerabilità, offrendo un premio di 500 mila dollari.

La diffusione delle applicazioni di intelligenza artificiale, in particolare quelle di assistenza, ha accresciuto i rischi per la sicurezza degli utenti. A differenza delle applicazioni tradizionali, che limitavano dati raccolti e autorizzazioni, le app di intelligenza artificiale svolgono funzioni multiple, acquisendo informazioni sensibili come testi articolati che riflettono pensieri e intenzioni degli utenti, ben oltre i semplici file. Questa mole di dati espone le app a violazioni, sia in rete sia sui dispositivi, soprattutto se provengono da fonti non sicure. Sebbene OpenAI adotti misure di sicurezza rigorose, molte applicazioni di intelligenza artificiale, scaricate milioni di volte, mancano di controlli adeguati. Da qui l’importanza di verificare dove finiscano i dati e come siano protetti.


Iscriviti alla nostra newsletter - The Epoch Times