E-Mail: [email protected]
- Progetto presentato presso la Sala Zuccari del Senato, con la partecipazione di esperti e istituzioni.
- Sviluppato un prototipo di algoritmo basato sul machine learning per individuare e bloccare le fake news.
- Implicazioni etiche dei deepfake discussi con importanti esponenti del settore tecnologico e della sicurezza.
- ChatGPT-4 ha diffuso informazioni false in tutti i casi testati nel report di NewsGuard.
- Collaborazione tra settori pubblico, privato e accademico per strumenti efficaci nella lotta contro la disinformazione.
La lotta contro la disinformazione si intensifica con il supporto dell’intelligenza artificiale, grazie a una nuova iniziativa promossa dall’Universitas Mercatorum e dalla Fondazione Vittorio Occorsio. Il progetto, presentato oggi presso la Sala Zuccari del Senato durante l’evento “Il contrasto alla disinformazione con l’intelligenza artificiale: buone pratiche e law enforcement”, rappresenta un passo significativo verso la creazione di un’informazione affidabile e trasparente con l’aiuto dell’IA. L’evento, introdotto dai saluti di Francesco Verducci, Vicepresidente della Commissione straordinaria per il contrasto ai fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza del Senato, ha visto la partecipazione di esperti, magistrati, forze dell’ordine, accademici, giornalisti e rappresentanti delle istituzioni.
I relatori principali, Eugenio Occorsio, Presidente della Fondazione Vittorio Occorsio, e Luciano Carta, Special Advisor AI della Fondazione Occorsio e Direttore dell’AISE, hanno sottolineato l’importanza di una collaborazione sinergica tra autorità pubbliche, università, enti del terzo settore e imprese per contrastare la disinformazione. Il progetto di ricerca, sostenuto dal “Centro Studi Giurisdizione e Intelligenza Artificiale” dell’Universitas Mercatorum, propone di sviluppare strumenti tecnologici per diagnosticare e prevenire campagne di fake news.
Un progetto di ricerca all’avanguardia
Il progetto ha prodotto un prototipo di algoritmo basato sul machine learning in grado di individuare e bloccare notizie false in rete. La formazione delle categorie vulnerabili alla disinformazione, come i giovani, e la creazione di tool informatici per diagnosticare e prevenire campagne di fake news sono priorità del progetto, come dichiarato da Vittorio Occorsio, Notaio e Professore ordinario di diritto privato dell’Universitas Mercatorum.
La giornata di lavori è stata suddivisa in tre sessioni principali. La prima, “La disinformazione e le sue caratteristiche”, ha visto interventi di alti funzionari delle istituzioni di sicurezza, accademici, giornalisti e magistrati impegnati nella lotta contro il cybercrime. Tra i relatori, Alessandra Guidi, Vicedirettore Generale del DIS, e Alessandro de Pedys, Ministro Plenipotenziario e Direttore Generale per la Diplomazia Pubblica e Culturale del Ministero degli Affari Esteri e della Cooperazione Internazionale.
La seconda sessione, “Il punto di vista delle imprese”, moderata da Flavia Giacobbe, Direttrice di Formiche, ha analizzato le strategie del settore privato per contrastare la disinformazione, con interventi di rappresentanti di aziende come Hewlett Packard Enterprise Italia, Meta e Google Italia. La terza sessione, di carattere politico, moderata da Gennaro Migliore, Presidente del Center for Global Studies, ha visto esponenti politici come Enrico Borghi e Licia Ronzulli discutere proposte legislative per affrontare la disinformazione e la creazione di nuove agenzie governative interministeriali per il monitoraggio e la lotta contro i cybercriminali.
Deepfake e le nuove frontiere dell’intelligenza artificiale
I deepfake stanno ridefinendo i confini della comunicazione nell’era dell’intelligenza artificiale. Un esempio emblematico è quello di un’azienda di costruzioni che ha utilizzato un video promozionale in cui un rinomato architetto sembra discutere di una nuova tecnologia edilizia che promette di rivoluzionare il settore. In realtà, l’azienda ha usato la tecnologia deepfake e l’architetto non ha mai fatto tali dichiarazioni né autorizzato l’uso della sua immagine per questo scopo. Questo uso della tecnologia solleva questioni etiche riguardo alla veridicità delle informazioni e al consenso degli individui i cui volti e voci vengono replicati.
Un articolo della MIT Technology Review, scritto da Melissa Heikkilä, esplora l’esperienza personale con la nuova tecnologia dell’azienda di intelligenza artificiale Synthesia, che ha sviluppato la capacità di creare avatar digitali iperrealistici. La startup ha recentemente lanciato una nuova generazione di avatar AI, sfruttando i recenti sviluppi dell’intelligenza artificiale generativa per produrre figure virtuali realistiche ed espressive. Questi avanzamenti tecnologici hanno superato i limiti precedenti, come la rigidità e la non naturalezza dei movimenti, aprendo la strada a nuove preoccupazioni sulla nostra capacità di discernere il vero dal falso.
ChatGPT e la disinformazione climatica
ChatGPT, il modello di intelligenza artificiale per linguaggi naturali sviluppato dalla statunitense OpenAI, diventa sempre più potente e persuasivo, ma non necessariamente più affidabile. Un report di NewsGuard, società che fornisce valutazioni di credibilità per migliaia di siti di informazione, ha rilevato che rispetto alla versione ChatGPT-3.5, valutata a gennaio 2023, il successore ChatGPT-4, testato a marzo scorso, ha diffuso affermazioni false e fuorvianti nella totalità dei casi.
L’intelligenza artificiale può tuttavia aiutare a contrastare il cambiamento climatico. Secondo esperti di Climate Change AI, organizzazione non-profit, l’intelligenza artificiale e il machine learning possono facilitare l’azione per il clima in diversi modi. Ad esempio, possono distillare dati grezzi in dati utilizzabili, accelerare la ricerca scientifica, ottimizzare sistemi complessi e migliorare la capacità di previsione. Tuttavia, l’IA può anche essere utilizzata per diffondere disinformazione sul cambiamento climatico, attraverso la creazione di algoritmi che promuovono teorie del complotto o negano l’esistenza del cambiamento climatico.
Bullet Executive Summary
In conclusione, l’intelligenza artificiale rappresenta una risorsa potente sia per contrastare la disinformazione che per amplificarla. La collaborazione tra enti pubblici, privati e accademici è cruciale per sviluppare strumenti efficaci nella lotta contro le fake news. La tecnologia dei deepfake e la crescente sofisticazione di modelli come ChatGPT evidenziano la necessità di un approccio etico e regolamentato nell’uso dell’IA. La sfida principale sarà bilanciare l’innovazione tecnologica con norme etiche e controlli di censura, per garantire che le innovazioni migliorino la società senza confonderla.
Nozione base di intelligenza artificiale: Il machine learning è una branca dell’intelligenza artificiale che si occupa di sviluppare algoritmi in grado di apprendere dai dati e migliorare le proprie prestazioni nel tempo senza essere esplicitamente programmati.
Nozione avanzata di intelligenza artificiale: L’intelligenza artificiale generativa è una sottocategoria dell’IA che utilizza reti neurali profonde per creare contenuti nuovi e originali, come immagini, testi e video, basandosi su esempi di dati esistenti. Questo tipo di IA ha il potenziale di rivoluzionare molti settori, ma solleva anche importanti questioni etiche e di sicurezza.
La riflessione personale che emerge è che, mentre l’intelligenza artificiale offre strumenti potenti per migliorare la nostra società, è fondamentale utilizzarla in modo responsabile e consapevole. La collaborazione tra sviluppatori, legislatori e il pubblico sarà essenziale per creare un ambiente in cui la tecnologia possa prosperare mantenendo l’integrità e la fiducia.