E-Mail: [email protected]
- Un post di Donald Trump su Truth ha scatenato dibattiti sulla disinformazione, con 3 immagini su 4 generate dall'IA.
- Il Global Threat Intelligence Report prevede 40 miliardi di dollari di perdite economiche a causa dei deepfake entro il 2027.
- Quasi 600 mila attacchi contro infrastrutture critiche tra luglio e settembre 2024, colpendo soprattutto banche e ospedali.
Nell’agosto del 2024, un post di Donald Trump su Truth, il suo social network, ha scatenato un acceso dibattito sulla disinformazione. Il post, che includeva un collage di immagini delle cosiddette “Swifties for Trump”, è diventato virale, ma solo una delle quattro foto era autentica. Le altre erano state generate, almeno in parte, utilizzando l’intelligenza artificiale generativa. Questo episodio ha sollevato preoccupazioni sui pericoli della gen AI e sull’ondata di disinformazione che potrebbe generare. Tuttavia, la questione della disinformazione precede l’avvento dell’IA generativa e potrebbe essere attribuita a tecnologie di fotoritocco già esistenti, come Photoshop. L’intelligenza artificiale ha certamente ridotto i tempi e i costi di produzione di contenuti ingannevoli, ma il problema della disinformazione è radicato da tempo e documentato nella letteratura sui “cheap fake”.
Impatto e Percezione della Disinformazione
Secondo il World Economic Forum, la disinformazione rappresenta uno dei rischi più gravi a breve termine per il mondo. L’intelligenza artificiale amplifica le informazioni fuorvianti, potenzialmente destabilizzando la società. L’analisi condotta dal Wired AI Elections Project nel 2024, che ha esaminato diversi incidenti di deepfake, dimostra che tanti di quei contenuti potevano non essere ingannevoli e avrebbero potuto essere realizzati senza l’uso di IA, a costi ridotti. Questa tesi è sostenuta da diverse ricerche accademiche, che sfidano le narrazioni sensazionalistiche spesso presenti nei media. Studiosi come Sayash Kapoor e Arvind Narayanan hanno concluso che l’impatto globale della disinformazione sia stato minore di quanto temuto. Tuttavia, la loro analisi non considera alcuni aspetti problematici, come le “allucinazioni” dei chatbot o i deepfake utilizzati per parodia o satira politica.
- L'intelligenza artificiale può migliorare la nostra società… 🌟...
- La disinformazione IA sta distruggendo la fiducia pubblica… 👎...
- E se la disinformazione fosse anche un'opportunità per riflettere… 🤔...
Deepfake e Minacce Economiche
Il Global Threat Intelligence Report di Blackberry ha lanciato l’allarme sui deepfake, prevedendo perdite economiche di 40 miliardi di dollari entro il 2027. I deepfake rappresentano una sfida significativa, erodendo la fiducia nelle comunicazioni e creando incertezze in settori critici come banche e ospedali. Tra luglio e settembre 2024, si sono verificati quasi 600 mila attacchi contro infrastrutture critiche, con banche e ospedali come bersagli principali. Questi settori non possono permettersi interruzioni, rendendoli vulnerabili ai cybercriminali. Mentre dal governo americano si stanno sviluppando regolamentazioni attraverso il No Fraud AI Act per indirizzare l’uso dei deepfake, in Canada sono già attuate regolazioni contro l’impiego di media non consensuali.
Conclusioni e Riflessioni
La disinformazione, sebbene amplificata dall’intelligenza artificiale, non è un problema esclusivamente tecnologico. È essenziale considerare i modelli di business e le politiche che governano la diffusione delle informazioni. Concentrarsi solo sulla tecnologia potrebbe distogliere l’attenzione dai problemi strutturali e istituzionali. Anche se l’impatto della disinformazione può sembrare minore, le sue conseguenze possono essere significative, come dimostrato da eventi politici recenti e dalle scelte di alcuni gruppi estremisti.
Nel contesto dell’intelligenza artificiale, è fondamentale comprendere il concetto di machine learning, che permette ai sistemi di migliorare le loro prestazioni attraverso l’esperienza. Tuttavia, un aspetto avanzato è il deep learning, una sottocategoria del machine learning che utilizza reti neurali artificiali per analizzare grandi quantità di dati. Questa tecnologia è alla base dei deepfake, dimostrando come l’IA possa essere utilizzata sia per scopi positivi che negativi. La riflessione personale che emerge è la necessità di un equilibrio tra innovazione tecnologica e responsabilità etica, per garantire che l’IA sia uno strumento di progresso e non di divisione.