OpenAI ha denunciato come dall’inizio dell’anno sia intervenuta per interrompere più di 20 operazioni internazionali che hanno tentato di utilizzare i modelli di intelligenza artificiale per fini dannosi. Scopo della denuncia di OpenAI non è solo quello di raccontare come l’intelligenza artificiale possa avere utilizzi impropri e pericolosi (il che non è neanche una grossa novità) o come l’azienda si stia impegnando a questo scopo; obiettivo di OpenAI è quello di avviare e arricchire il dibattito su come l’AI possa rappresentare uno strumento estremamente importante anche per usi pericolosi.

I possibili pericoli dell’uso di ChatGPT

Nelle 54 pagine del rapporto Influence and cyber operations: an update di ottobre 2024 OpenAI spiega come l’intelligenza artificiale venga utilizzata per identificare e prevenire la disinformazione online. Diversi attori internazionali utilizzano i modelli AI per eseguire operazioni informatiche offensive. Si tratta di operazioni che prevedono attività di disinformazione, campagne di phishing, ricerca di vulnerabilità e sviluppo di malware.

Il report spiega anche come l’AI sia stata utilizzata per generare contenuti (foto, testi, audio e video) falsi ma così convincenti da essere difficili da distinguere rispetto a quelli veri. Inoltre l’AI può essere utilizzata per personalizzare i messaggi disinformativi a specifici gruppi demografici così come a consentire una diffusione della disinformazione su larga scala in tempi estremamente più rapidi e con costi inferiori rispetto alle medesime operazioni senza l’utilizzo dell’AI.

Tra le minacce evidenziate dal documento di OpenAI ci sono quelle legate alla perdita di fiducia e autorevolezza da parte delle istituzioni pubbliche e delle fonti di informazioni tradizionali così come alla polarizzazione dell’opinione pubblica con l’obiettivo di alimentare le tensioni sociali andando a costituire un pericolo anche in termini di creazione di disordini sociali e manipolazione dei mercati finanziari.

Tra i più interessanti esempi dell’utilizzo pericoloso di ChatGPT ci sono quelli condotti dall’hacker cinese SweetSpecter e dai gruppi iraniani CyberAv3ngers e STORM-0817. L’hacker cinese ha tentato di utilizzare ChatGPT per lo sviluppo di malware andando a colpire (senza riuscirci) anche diversi dipendenti di OpenAI. Il gruppo iraniano CyberAv3ngers, associato a forze rivoluzionarie islamiche, ha utilizzato l’intelligenza artificiale per cercare vulnerabilità nei sistemi di controllo industriale così da generare script per degli attacchi alle infrastrutture. Il gruppo STORM-0817 ha invece sviluppato malware per i dispositivi Android con l’obiettivo di rubare dati sensibili (contatti, informazioni sulla posizione, registro delle chiamare, eccetera) degli utenti.

OpenAI ha voluto chiarire che il proprio modello GPT-4 non ha migliorato in maniera sostanziale le capacità degli hacker di creare malware o eseguire attività pericolose. Nel presentare il report l’azienda ha poi ribadito l’impegno dei propri team a intervenire in maniera preventiva contro tutti coloro che potrebbero utilizzare i modelli di intelligenza artificiale per scopi pericolosi. La diffusione dell’AI da una parte e gli imminenti eventi politici internazionali (soprattutto le elezioni presidenziali statunitensi del prossimo 5 novembre) dall’altra stanno facendo emergere la preoccupazione per questo uso improprio dei modelli di intelligenza artificiale.

I nostri contenuti da non perdere: