Gli usi illeciti di OpenAI: ecco le sfide più rilevanti


L’intelligenza artificiale ha rivoluzionato numerosi settori, ma il suo impiego non è sempre benigno.

OpenAI ha recentemente pubblicato un aggiornamento sulle misure adottate per contrastare gli usi malevoli dei propri modelli, rivelando una serie di operazioni illecite che spaziano dalla propaganda politica alla cyber criminalità.

Il documento evidenzia il ruolo chiave dell’azienda nel monitorare e mitigare queste minacce, collaborando con altre istituzioni per garantire un utilizzo etico dell’IA.

Gli abusi dei modelli di intelligenza artificiale

Nel corso dell’ultimo anno, OpenAI ha ampliato le proprie capacità investigative per individuare e contrastare gli abusi dei propri modelli di intelligenza artificiale.

L’azienda si trova in una posizione unica per osservare e prevenire attività dannose, distinguendosi per la capacità di tracciare pattern di comportamento e connessioni tra diverse operazioni online.

Tra le minacce più preoccupanti individuate, emergono diversi casi di sorveglianza, truffe online e operazioni di disinformazione che sfruttano l’IA per amplificare la propria efficacia.

In Cina usi illeciti di OpenAI per monitorare i social media

Uno degli esempi più rilevanti riguarda l’uso dell’IA per sviluppare strumenti di monitoraggio dei social media.

OpenAI ha scoperto un gruppo operante dalla Cina che ha utilizzato i suoi modelli per generare descrizioni dettagliate di un software di sorveglianza, sostenendo di fornire report in tempo reale alle autorità cinesi riguardo a proteste in Occidente.

Oltre a creare documentazione e materiali promozionali per tale strumento, gli operatori coinvolti hanno utilizzato i modelli per il debugging del codice, confermando un intento proattivo nel miglioramento di una tecnologia destinata a scopi di controllo sociale.

Corea del Nord: una rete di assunzioni fraudolente

Parallelamente, OpenAI ha individuato e smantellato una rete di assunzioni fraudolente potenzialmente legata alla Corea del Nord.

L’obiettivo di questa operazione era infiltrare lavoratori fittizi in aziende occidentali, permettendo loro di ottenere stipendi e finanziamenti che sarebbero poi stati deviati verso il regime nordcoreano.

Gli operatori hanno utilizzato i modelli di IA per generare CV, lettere di presentazione e profili social in grado di superare le verifiche delle aziende.

Inoltre, gli stessi modelli venivano impiegati per assistere questi falsi candidati nelle interviste di lavoro e per produrre risposte plausibili alle domande tecniche.
Una volta ottenuto il lavoro, l’IA veniva utilizzata per svolgere mansioni operative, mantenendo l’inganno.

Disinformazione politica: come la Cina influenzava i media latinoamericani

Un altro caso significativo riguarda la disinformazione politica, con una campagna di influenza proveniente dalla Cina che ha utilizzato i modelli di OpenAI per generare contenuti in spagnolo destinati ai media latinoamericani.

Diversi articoli critici nei confronti degli Stati Uniti sono stati pubblicati su testate di rilievo in Perù, Messico ed Ecuador, presentandosi come contributi giornalistici autentici.

Parallelamente, sono stati prodotti contenuti in inglese per screditare dissidenti cinesi, con commenti postati su piattaforme social da account falsi che si spacciavano per utenti occidentali.

Si tratta di un’evoluzione delle classiche operazioni di propaganda, con l’IA che consente di automatizzare e perfezionare il processo di manipolazione dell’opinione pubblica.

Truffe sentimentali e pig butchering

L’IA è stata sfruttata anche per orchestrare truffe sentimentali, un fenomeno noto come “pig butchering”, ampiamente diffuso nel Sud-Est asiatico.

OpenAI ha individuato un gruppo operante dalla Cambogia che utilizzava i suoi modelli per tradurre e generare messaggi ingannevoli destinati a vittime, spesso uomini di mezza età con profili social pubblici.

I truffatori stabilivano un contatto iniziale su piattaforme come Facebook e Instagram, fingendosi giovani donne in cerca di compagnia.

Dopo aver instaurato un rapporto di fiducia, convincevano le vittime a investire in schemi finanziari fraudolenti, spesso legati al trading di criptovalute.

L’IA veniva impiegata per rendere le conversazioni più naturali e personalizzate, aumentando l’efficacia della truffa.

Le operazioni di influenza dell’Iran

Anche l’Iran è stato coinvolto in operazioni di influenza sfruttando i modelli di IA.

OpenAI ha scoperto una connessione tra due campagne di propaganda che in precedenza erano state considerate indipendenti.

Alcuni account hanno utilizzato ChatGPT per generare tweet e articoli che sono poi stati pubblicati su siti legati a operazioni di disinformazione iraniana.

Questa scoperta ha sollevato interrogativi su una possibile collaborazione tra diverse reti di influenza iraniane, suggerendo un coordinamento più sofisticato di quanto precedentemente ipotizzato.

Attacchi informatici dalla Nord Corea

Un altro campo di applicazione malevolo riguarda il cyber crimine. OpenAI ha identificato account potenzialmente collegati a gruppi nordcoreani noti per attacchi informatici.

Questi attori hanno utilizzato i modelli di IA per ricercare informazioni su strumenti di intrusione, sviluppo di malware e tecniche di attacco.

Sebbene le richieste fatte ai modelli non abbiano rivelato informazioni inedite, il semplice fatto che tali attori tentino di sfruttare l’IA per affinare le proprie capacità dimostra il crescente interesse della criminalità informatica per questi strumenti.

Per le elezioni in Ghana scende in campo la propaganda con l’AI

Un altro episodio riguarda le elezioni presidenziali in Ghana, dove un’operazione di propaganda ha impiegato l’IA per generare contenuti a favore di un candidato specifico.

Un sito web denominato “Empowering Ghana” ha pubblicato articoli e post sui social media elogiando il vicepresidente Mahamudu Bawumia e criticando il suo avversario.

Per aumentare l’apparente engagement, venivano generati commenti automatici in massa, creando un’illusione di consenso diffuso.

Tuttavia, l’analisi di OpenAI ha rivelato che gran parte di questi account avevano un seguito artificiale e interazioni fittizie.

Le truffe lavorative legate al cosiddetto task scam

OpenAI ha smascherato una rete di truffe lavorative legate al cosiddetto “task scam”, una pratica fraudolenta diffusa soprattutto in Asia.

I truffatori attiravano le vittime con offerte di lavoro apparentemente vantaggiose, che prevedevano la scrittura di recensioni online a pagamento.

Dopo un periodo di formazione, veniva richiesto un “contributo iniziale” per sbloccare i guadagni accumulati, ma il denaro versato non veniva mai restituito.

L’IA serviva a tradurre messaggi, elaborare risposte persuasive e migliorare la credibilità dell’operazione.

Prospettive future

Questi episodi dimostrano come l’intelligenza artificiale possa essere sfruttata per scopi malevoli su scala globale.

OpenAI sta lavorando attivamente per individuare e prevenire tali abusi, collaborando con aziende tecnologiche e istituzioni governative per garantire la sicurezza online.

Il monitoraggio costante e la condivisione delle informazioni rappresentano strumenti essenziali per contrastare l’uso improprio dell’IA, ma la sfida resta aperta.

Gli attori malevoli continueranno a sperimentare nuove strategie, rendendo necessaria un’evoluzione continua delle misure di sicurezza e delle capacità investigative.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link