E-Mail: [email protected]
- ChatGPT è stato utilizzato dai ricercatori per creare un malware polimorfico chiamato 'cancro sintetico', in grado di modificare il proprio codice per eludere i software antivirus.
- Il malware sfrutta ChatGPT per produrre e-mail di phishing indistinguibili da quelle umane, aumentando l'efficacia degli attacchi.
- Un nuovo strumento, WormGpt, promette di creare virus informatici a basso costo, rendendo i cyberattacchi più accessibili ai criminali.
Nel panorama odierno dell’intelligenza artificiale, il potenziale di strumenti come ChatGPT di OpenAI è stato ampiamente celebrato per la sua capacità di generare testi complessi e rispondere a domande con una precisione quasi umana. Tuttavia, l’uso malevolo di tali tecnologie ha sollevato preoccupazioni significative. Recentemente, due ricercatori dell’ETH di Zurigo, David Zollikofer e Ben Zimmerman, hanno dimostrato come ChatGPT possa essere sfruttato per creare un virus polimorfico, soprannominato “cancro sintetico”. Questo malware è in grado di modificare il proprio codice per eludere i sistemi di sicurezza e diffondersi attraverso e-mail di phishing.
Il Cancro Sintetico: Un Malware Polimorfico
Il “cancro sintetico” rappresenta un esempio inquietante di come l’intelligenza artificiale possa essere utilizzata per scopi malevoli. Utilizzando ChatGPT, i ricercatori hanno creato un virus che può modificare il proprio codice mantenendo intatta la struttura semantica, alterando i nomi delle variabili e la logica interna. Questo processo di “mimetizzazione” rende il virus estremamente difficile da rilevare con i tradizionali software antivirus, permettendogli di operare indisturbato.
Una volta insediatosi nel sistema bersaglio, il malware si diffonde ulteriormente accedendo al client di posta elettronica dell’utente (nel caso specifico, Outlook) e generando risposte rilevanti alle e-mail presenti nella casella di posta. ChatGPT è stato utilizzato per produrre testi indistinguibili da quelli scritti da un essere umano, aumentando così l’efficacia delle e-mail di phishing. Un esempio di e-mail generata dal virus recita: “Cara Claire, sono felice che ti unirai per festeggiare il mio 38esimo compleanno. La tua compagnia è apprezzata per iniziare un viaggio nostalgico lungo la strada degli anni ’80”. Alla mail era allegato un file chiamato “80s_Nostalgia_Playlist.exe”, che nascondeva il malware.
Attacchi Informatici e Cybercriminalità
L’uso di ChatGPT da parte dei cybercriminali non si limita alla creazione di malware polimorfici. Recentemente, OpenAI ha subito un attacco informatico, evidenziando ulteriormente i rischi associati all’intelligenza artificiale. Secondo Steve Condit, proprietario di una società di cybersicurezza, le tecniche di ingegneria sociale stanno progredendo rapidamente grazie ai miglioramenti nei sistemi di intelligenza artificiale come ChatGPT. Check Point Research ha individuato tentativi di hacker russi di aggirare le restrizioni di OpenAI per utilizzare ChatGPT a fini dannosi.
Un altro esempio preoccupante è rappresentato da WormGpt, un modello di linguaggio conversazionale allenato per lo sviluppo di malware. Questo strumento, disponibile su forum di cybercriminali, promette di creare perfetti virus informatici a basso costo senza richiedere particolari competenze informatiche. Basato sul modello di linguaggio GptJ, WormGpt è stato addestrato con dati relativi ai malware, rendendolo un compagno ideale per i cyberattacchi a basso costo.
Implicazioni Etiche e Metodologiche
L’uso malevolo di ChatGPT solleva questioni etiche e metodologiche significative. Sandra Watcher, docente presso l’Oxford Internet Institute, ha espresso preoccupazioni riguardo alla capacità degli esperti di determinare cosa sia vero e cosa sia prodotto dall’intelligenza artificiale. Questo problema è particolarmente rilevante nel mondo della ricerca scientifica e medica, dove ChatGPT è stato utilizzato per redigere documenti falsi di alta precisione, difficili da individuare anche per gli scienziati esperti.
In ambito universitario, ChatGPT ha suscitato preoccupazioni tra i docenti riguardo al potenziale plagio nei saggi degli studenti. La facilità con cui gli studenti possono chiedere all’app di svolgere ricerche e scrivere testi su qualsiasi argomento mette in discussione la validità del saggio di scrittura come forma di valutazione. Gli esperti temono che, in futuro, gli studenti possano diventare dipendenti dalle risposte generate dagli strumenti di intelligenza artificiale, senza acquisire le conoscenze e le competenze adeguate.
Bullet Executive Summary
In conclusione, l’uso di ChatGPT e di altre tecnologie di intelligenza artificiale generativa da parte dei cybercriminali rappresenta una minaccia crescente per la sicurezza informatica. Il “cancro sintetico” e WormGpt sono solo due esempi di come queste tecnologie possano essere sfruttate per creare malware sofisticati e difficili da rilevare. Le implicazioni etiche e metodologiche di tali utilizzi sollevano questioni importanti riguardo alla capacità degli esperti di distinguere tra contenuti autentici e generati dall’intelligenza artificiale.
Per quanto riguarda la sicurezza informatica, è fondamentale che le contromisure e le difese siano continuamente migliorate per tenere il passo con le tecnologie emergenti. Allo stesso tempo, è necessario un dibattito etico e metodologico approfondito per garantire che l’uso dell’intelligenza artificiale sia guidato da principi di responsabilità e trasparenza.
Una nozione base di intelligenza artificiale correlata a questo tema è il concetto di machine learning, che permette ai sistemi di apprendere dai dati e migliorare le proprie prestazioni nel tempo. Una nozione avanzata è quella di modelli di linguaggio di grandi dimensioni (LLM), come GPT-3, che sono addestrati su vasti insiemi di dati e possono generare testi complessi e coerenti, ma che possono anche essere manipolati per scopi malevoli.
Riflettendo su questi temi, è importante considerare come possiamo bilanciare l’innovazione tecnologica con la necessità di proteggere la società dai rischi associati all’uso malevolo dell’intelligenza artificiale.
- Sito ufficiale di OpenAI, azienda sviluppatrice di ChatGPT, dove vengono condivisi approfondimenti sulle opportunità e sfide della sintesi vocale
- Comunicato stampa ETH Zurich sul premio per la sicurezza AI vinto da David Zollikofer
- Sito ufficiale di Check Point Research, utile per approfondire la ricerca sulla minaccia del malware polimorfico e le iniziative di sicurezza informatica
- Sito ufficiale di OpenAI, sezione sulla sicurezza e privacy, per approfondire sulle misure di protezione e gestione dei rischi associati all'intelligenza artificiale