E-Mail: [email protected]
- L'analisi di 200 resoconti di abuso ha evidenziato come le tecnologie IA vengano utilizzate per influenzare l'opinione pubblica e generare profitti illeciti.
- Il caso di una foto falsa del Presidente Macron diffusa su Facebook nel marzo 2024 mostra il pericolo delle tecnologie di deepfake.
- La Russia e la Cina utilizzano l'IA per campagne di disinformazione, sfruttando social media come Telegram e TikTok.
L’evoluzione dei modelli di intelligenza artificiale generativa ha portato alla capacità di produrre immagini, testi, audio e video con una precisione senza precedenti. Tuttavia, con l’aumento delle possibilità offerte da queste tecnologie, cresce anche il rischio di utilizzo improprio. Manipolazioni, frodi e molestie sfruttando la potenza dell’IA sono ormai all’ordine del giorno.
Secondo uno studio condotto da DeepMind, azienda inglese acquisita dieci anni fa da Google, e dalla divisione Jigsaw di Google, l’uso improprio dell’intelligenza artificiale è in costante aumento. L’analisi, basata su 200 resoconti di abuso dei sistemi di intelligenza artificiale generativa, ha evidenziato che le manipolazioni delle sembianze umane, i deepfake e la falsificazione di prove sono le tattiche più diffuse. Queste tecnologie vengono utilizzate principalmente per influenzare l’opinione pubblica, consentire truffe e generare profitti illeciti.
Tra gli abusi più frequenti si annoverano l’impersonificazione, l’imitazione, il ridimensionamento e l’amplificazione di notizie, la falsificazione e il sockpuppetting, ovvero la creazione di plurime identità false all’interno di community per promuovere un’idea senza rivelare la vera identità. Seguono l’appropriazione dell’immagine di personaggi famosi per scopi commerciali, come nel caso di Tom Hanks, la realizzazione di immagini intime non consensuali e la violazione della proprietà intellettuale.
Abusi dell’Intelligenza Artificiale
Dati forniti da Google DeepMind mostrano che la maggior parte degli abusi registrati non richiede un utilizzo sofisticato dell’intelligenza artificiale. “Assistiamo – spiegano i ricercatori – a uno sfruttamento delle funzionalità di intelligenza artificiale accessibili a tutti”, che richiedono competenze tecniche minime. La grande accessibilità e disponibilità di strumenti di AI aperti a tutta la popolazione mondiale ha introdotto “forme di abuso di livello inferiore”, non apertamente dannose, ma con implicazioni etiche da considerare. Queste forme di comunicazione mirano alla sensibilizzazione politica e all’autopromozione, rischiando di confondere il confine tra autentico e ingannevole.
L’uso dell’AI nella Disinformazione
Uno degli aspetti più preoccupanti dell’uso improprio dell’intelligenza artificiale è l’uso diffuso delle app di “face swapping” e dei deepfake. Queste applicazioni consentono la creazione di immagini sintetiche manipolate dall’IA, che possono cambiare l’aspetto di un individuo. Il pericolo di queste tecnologie è stato evidenziato nel marzo 2024, quando una foto falsa del Presidente Macron, ritratto su un letto in pigiama rosa, è stata diffusa su Facebook, ingannando molti utenti che l’hanno considerata autentica.
La Russia ha utilizzato mezzi digitali per diffondere disinformazione e influenzare l’opinione pubblica. Attraverso social media come Telegram e TikTok, l’intelligence russa ha orchestrato campagne per dipingere l’Ucraina come corrotta e instabile. Queste campagne hanno sfruttato account falsi su TikTok, diffondendo video e immagini manipolate per alimentare la narrativa russa. Anche la Cina ha abbracciato l’uso dell’IA per la disinformazione, utilizzando strumenti come CapCut di ByteDance per orchestrare campagne di disinformazione volte a influenzare le elezioni in Taiwan.
Implicazioni delle Truffe Digitali
L’avvento dei “media sintetici” – video, immagini e audio generati artificialmente – ha aperto la strada a truffe sofisticate. Un esempio è una truffa a Hong Kong, dove un impiegato finanziario è stato ingannato da una finta videochiamata con un deepfake del direttore finanziario dell’azienda. Affrontare la disinformazione digitale richiede un approccio multifattoriale. Le piattaforme online devono adottare politiche rigorose per identificare e rimuovere contenuti manipolati, e i governi devono collaborare a livello internazionale per sviluppare normative e protocolli per combattere la manipolazione digitale. L’educazione digitale è essenziale per aiutare le persone a riconoscere e resistere alla disinformazione online.
- 👍 L'intelligenza artificiale offre straordinarie opportunità se usata correttamente......
- 👎 La crescente minaccia dei deepfake è davvero inquietante......
- 🤔 Il vero problema è la fiducia cieca nelle immagini online......
Intelligenza Artificiale a Disposizione dei Criminali: Il Fattore Umano
L’intelligenza artificiale, pur portando cambiamenti positivi nel mondo, rappresenta una minaccia reale quando viene utilizzata in modo improprio. I truffatori possono automatizzare processi complessi e dispendiosi in termini di tempo, creando identità false sintetiche che interagiscono come esseri umani attraverso punti di contatto digitali, ingannando aziende e consumatori. L’IA consente anche la creazione di contenuti falsi di alta qualità, aumentando l’efficacia degli attacchi fraudolenti.
Nuovi Schemi di Attacco
Tra i principali nuovi schemi di attacco vi sono:
– *Messaggi di testo: l’IA generativa consente di replicare scambi tra vittima e interlocutore con precisione di contesto e correttezza grammaticale.
– Immagini e video: l’IA permette di produrre immagini e video autentici di alta qualità, indistinguibili da quelli reali.
– Voce umana: l’IA può creare voci che imitano persone reali, aumentando i rischi per i consumatori e le aziende che utilizzano sistemi di verifica vocale.
– Chatbot: l’IA consente di creare chatbot amichevoli e convincenti che possono sostenere conversazioni simili a quelle umane per lunghi periodi, con l’obiettivo di instaurare una connessione emotiva e di fiducia con la vittima.
– Siti web: la creazione di siti web truffa è diventata semplice grazie all’IA, che consente anche a truffatori con scarse competenze di scrivere codice.
Contrastare l’IA con l’IA
La consapevolezza delle nuove minacce derivanti dall’uso improprio dell’intelligenza artificiale è il punto di partenza per definire una strategia di sicurezza informatica adeguata. Abbinata alla competenza di professionisti esperti, consente alle aziende di avvalersi dei vantaggi delle tecnologie avanzate per un uso legittimo dell’intelligenza artificiale nelle strategie di difesa. La sfida per le aziende non è solo restare al passo con i truffatori, ma stare sempre un passo avanti. Per farlo, è necessario integrare la formazione dei dipendenti nella strategia di sicurezza informatica.
Bullet Executive Summary
In conclusione, l’uso improprio dell’intelligenza artificiale rappresenta una sfida complessa e in continua evoluzione. La manipolazione digitale, le frodi e le molestie sono solo alcune delle minacce che emergono dall’uso non etico di queste tecnologie. La consapevolezza e la competenza sono fondamentali per contrastare queste minacce, e il fattore umano gioca un ruolo cruciale nel garantire la sicurezza e la resilienza delle aziende.
Una nozione base di intelligenza artificiale correlata al tema è il machine learning, che consente ai sistemi di IA di apprendere e migliorare dalle esperienze passate senza essere esplicitamente programmati. Questo è alla base di molte delle tecnologie di manipolazione e frode descritte nell’articolo.
Una nozione avanzata di intelligenza artificiale applicabile al tema è il deep learning*, una sottocategoria del machine learning che utilizza reti neurali artificiali per analizzare grandi quantità di dati e fare previsioni o decisioni complesse. Questo è particolarmente rilevante per la creazione di deepfake e altri contenuti sintetici di alta qualità.
Riflettendo su queste nozioni, è evidente che la battaglia contro l’uso improprio dell’intelligenza artificiale richiede un impegno comune e una continua innovazione. Solo attraverso la collaborazione tra governi, aziende tecnologiche e individui possiamo sperare di preservare l’integrità dell’informazione e garantire un futuro sicuro e informato per tutti.