E-Mail: redazione@bullet-network.com
- Nel 2024, oltre due miliardi di persone voteranno in 76 paesi.
- Il 16 febbraio 2024, aziende come Google e OpenAI siglano accordo anti-deepfake.
- Nel 2023, solo 3 stati USA legiferano sui deepfake.
L’ombra dei deepfake sulle elezioni globali
Il 2024 si è configurato come un anno cruciale per la democrazia a livello globale, con oltre due miliardi* di persone chiamate alle urne in ben *settantasei paesi. Tuttavia, questo periodo elettorale senza precedenti è stato oscurato da una minaccia insidiosa: la proliferazione di deepfake e contenuti manipolati dall’intelligenza artificiale (ia). Questa tendenza, lungi dall’essere un fenomeno isolato, rappresenta una sfida seria per l’integrità dei processi democratici e la fiducia del pubblico nelle istituzioni.
Le elezioni presidenziali degli Stati Uniti, previste per il 5 novembre, si sono configurate come un terreno fertile per la disinformazione e la manipolazione. La posta in gioco è alta, con la potenziale vittoria di Kamala Harris* o *Donald Trump che potrebbe ridefinire la postura del governo di Washington su questioni cruciali di politica ed economia internazionale, compreso il settore digitale e le politiche di sicurezza cibernetica.
La sinergia tra intelligenza artificiale e media manipolati ha creato un ambiente in cui è sempre più difficile distinguere la realtà dalla finzione. Campagne mirate, orchestrate da attori esterni e interni, mirano a influenzare l’opinione pubblica e minare la fiducia nel processo elettorale. Gruppi apt affiliati a servizi di intelligence di governi rivali e elementi interni alle correnti politiche sono tra i principali responsabili di questa ondata di disinformazione.
La facilità con cui l’ia può generare contenuti sintetici e deepfake ha sollevato preoccupazioni su scala globale. Sebbene campagne di disinformazione siano state registrate in numerosi paesi, le democrazie sembrano essere particolarmente vulnerabili a questi attacchi mediatici. La capacità di manipolare video e audio in modo incredibilmente realistico rende difficile per gli elettori discernere la verità dalla menzogna, mettendo a rischio la credibilità delle campagne politiche e il processo decisionale degli elettori.
Il 16 febbraio 2024*, un consorzio di aziende informatiche, tra cui *Google*, *Microsoft* e *OpenAI, ha stretto un accordo tecnologico per contrastare l’uso di deepfake nelle campagne elettorali. L’accordo, denominato “Tech Accord to Combat against Deceptive Use of AI in 2024 Elections”, mira a prevenire la creazione e la diffusione di contenuti manipolati, garantire la trasparenza sull’origine dei contenuti e migliorare le strategie di risposta agli incidenti. Tuttavia, la sfida è complessa e richiede un impegno costante da parte di tutti gli attori coinvolti, compresi i governi, le aziende tecnologiche e la società civile.
Casi concreti di manipolazione elettorale tramite ia
Nonostante gli sforzi per contrastare la disinformazione, diversi casi concreti hanno dimostrato la capacità dell’ia di compromettere l’integrità dei processi democratici. Nel settembre 2023*, durante le elezioni parlamentari in *Slovacchia*, un audio manipolato è stato diffuso sui social media, simulando la voce di Michal Šimecka*, leader del partito progressista, e di un giornalista mentre pianificavano di manipolare le elezioni. L’audio, che è riuscito a eludere le politiche di moderazione di Meta*, ha avuto un impatto significativo sull’opinione pubblica.
Nelle elezioni presidenziali in *Argentina* nell’*ottobre 2023, registrazioni audio false hanno riprodotto la voce del candidato Carlos Melconian mentre offriva posizioni governative in cambio di favori sessuali. Questo episodio ha evidenziato la vulnerabilità dei candidati politici alla diffamazione tramite deepfake e la difficoltà di contrastare la diffusione di tali contenuti online.
Negli Stati Uniti, una robocall ha riprodotto la voce del presidente Joe Biden* nel *gennaio 2024*, nel tentativo di dissuadere gli elettori dal votare alle primarie del *New Hampshire. Questo incidente ha sollevato preoccupazioni sull’uso di deepfake sempre più accurati e sofisticati e sulla necessità di regolamentare l’uso dell’ia nelle campagne elettorali.
Questi casi, purtroppo, rappresentano solo la punta dell’iceberg. La capacità dell’ia di generare contenuti falsi e manipolati in modo sempre più convincente rende difficile per gli elettori distinguere la realtà dalla finzione e prendere decisioni informate. La mancanza di una regolamentazione adeguata e di strumenti efficaci per contrastare la disinformazione rischia di minare la fiducia del pubblico nelle istituzioni democratiche e di compromettere l’integrità dei processi elettorali.

Il ruolo dell’etica nell’era dell’intelligenza artificiale
L’ascesa dell’intelligenza artificiale ha portato con sé un acceso dibattito sull’etica del suo utilizzo. Termini come “etica dell’ia”, “etica do ia”, “etica en ia”, “etica in ia”, “etica na ia livro” e “la etica y responsable” sono diventati centrali nel discorso pubblico, riflettendo la crescente consapevolezza dei rischi e delle opportunità associate a questa tecnologia. Se da un lato l’ia offre enormi potenzialità per migliorare la vita delle persone e risolvere problemi complessi, dall’altro il suo utilizzo improprio può avere conseguenze devastanti per la società.
Il caso delle elezioni ‘ombra’ di Neo-Venezia rappresenta un esempio lampante di come l’ia possa essere utilizzata per manipolare l’opinione pubblica e compromettere l’integrità dei processi democratici. La creazione di candidati virtuali e la diffusione di notizie false hanno minato la fiducia nelle istituzioni e nel sistema elettorale, creando un clima di sfiducia e disillusione.
La mancanza di regolamentazione e di consapevolezza sui rischi connessi all’ia ha permesso agli attori esterni di agire indisturbati, sfruttando le vulnerabilità del sistema democratico. La diffusione di deepfake e notizie false ha minato la fiducia nelle istituzioni e nel processo elettorale, creando un clima di sfiducia e disillusione.
È fondamentale promuovere un approccio etico all’ia, che tenga conto dei rischi e delle opportunità associate a questa tecnologia. Ciò richiede un impegno congiunto da parte dei governi, delle aziende tecnologiche, delle organizzazioni della società civile e dei singoli cittadini. È necessario sviluppare standard etici e linee guida per l’utilizzo dell’ia, promuovere l’alfabetizzazione digitale e rafforzare la fiducia nelle istituzioni.
In particolare, è importante garantire la trasparenza e la responsabilità nell’utilizzo dell’ia. Gli algoritmi devono essere comprensibili e spiegabili, in modo da poter individuare e correggere eventuali bias o errori. Le decisioni prese dall’ia devono essere soggette a controllo umano, in modo da evitare conseguenze indesiderate o discriminatorie.
Solo attraverso un approccio etico e responsabile all’ia sarà possibile sfruttare appieno il suo potenziale per il bene comune e proteggere la democrazia dalla minaccia della manipolazione.
Verso un futuro democratico nell’era dell’ia
La sfida della manipolazione dell’ia richiede una risposta globale e coordinata. È necessario sviluppare contromisure efficaci per contrastare la diffusione di deepfake e disinformazione, promuovere l’alfabetizzazione digitale e rafforzare la fiducia nelle istituzioni.
Tra le possibili soluzioni, vi sono:
* Sviluppo di tecnologie di rilevamento dei deepfake: Algoritmi in grado di identificare e segnalare i contenuti manipolati dall’ia.
* Watermarking dei contenuti generati dall’ia: Inserimento di marcatori digitali invisibili per tracciare l’origine dei contenuti e verificarne l’autenticità.
* Campagne di sensibilizzazione e alfabetizzazione digitale: Educare i cittadini a riconoscere e valutare criticamente le informazioni online.
* Regolamentazione dell’utilizzo dell’ia nelle campagne elettorali: Definire limiti e responsabilità per l’utilizzo dell’ia nella propaganda politica.
* Collaborazione internazionale: Scambio di informazioni e coordinamento delle azioni tra governi, aziende tecnologiche e organizzazioni della società civile.
La National Conference of State Legislatures ha evidenziato come, nel corso del 2023, solo tre stati americani abbiano adottato provvedimenti legislativi in materia di deepfake, a fronte di sette che hanno presentato proposte di legge senza però giungere a risultati concreti. Il vuoto normativo, sia a livello statale che federale, rappresenta un’ulteriore sfida nella lotta contro la disinformazione generata dall’ia.
L’ordine esecutivo emesso dal presidente Joe Biden* nell’*ottobre scorso, che incarica il Dipartimento del Commercio di sviluppare linee guida sul watermarking dei contenuti generati dall’ia, rappresenta un passo avanti significativo, ma non sufficiente. Il watermarking, pur essendo utile per i contenuti testuali, può rivelarsi inefficace nel caso di video e immagini, in quanto i metadati possono essere facilmente modificati.
È necessario un approccio più ampio e integrato, che coinvolga tutti gli attori della società e che tenga conto delle specificità dei diversi contesti nazionali e locali. Solo attraverso un impegno costante e multidisciplinare sarà possibile proteggere la democrazia dalla minaccia della manipolazione dell’ia e garantire elezioni libere e giuste.
Un invito alla riflessione: Navigare le acque dell’intelligenza artificiale
Navigare nel mare magnum dell’intelligenza artificiale può sembrare un compito arduo, quasi come districarsi tra le calli labirintiche di una Neo-Venezia futuristica. Ma la verità è che, per affrontare le sfide che questa tecnologia ci pone, non serve essere degli esperti di informatica. Basta, forse, un pizzico di curiosità e un sano spirito critico.
Partiamo dalle basi: cos’è un deepfake? In parole semplici, è un video o un’immagine in cui il volto o il corpo di una persona sono stati sostituiti digitalmente con quelli di qualcun altro, utilizzando tecniche di intelligenza artificiale. Immagina di avere a disposizione un software potentissimo che, partendo da una foto o da un video, è in grado di modificare i tratti somatici di una persona, di farla parlare con una voce non sua, di farle dire cose che non ha mai detto. Ecco, questo è un deepfake.
Ma la tecnologia non si ferma qui. Esistono tecniche ancora più sofisticate, come i modelli generativi, che sono in grado di creare immagini e video completamente nuovi, partendo da zero. Questi modelli, basati su reti neurali artificiali, imparano a riconoscere i pattern e le caratteristiche di un determinato tipo di immagine (ad esempio, un volto umano) e sono poi in grado di generare immagini simili, ma completamente originali.
La domanda che dobbiamo porci, quindi, è: come possiamo proteggerci da queste tecnologie? Come possiamo distinguere la realtà dalla finzione in un mondo in cui è sempre più difficile fidarsi di ciò che vediamo e sentiamo?
La risposta non è semplice, ma passa attraverso l’educazione, la consapevolezza e la responsabilità. Dobbiamo imparare a riconoscere i segnali che ci indicano che un video o un’immagine potrebbero essere falsi, a verificare le fonti delle informazioni che riceviamo, a non condividere notizie non verificate. Dobbiamo, soprattutto, essere consapevoli del potere che abbiamo come consumatori di informazioni e utilizzare questo potere in modo responsabile.
Perché, in fondo, la democrazia non è solo un sistema politico, ma anche un modo di pensare e di agire. È la capacità di informarsi, di riflettere, di formarsi un’opinione personale e di partecipare attivamente alla vita della comunità. Ed è proprio questa capacità che dobbiamo proteggere, nell’era dell’intelligenza artificiale.