E-Mail: [email protected]
- Bitdefender ha rilevato oltre 350.000 follower su pagine compromesse che promuovono pubblicità fraudolente.
- Le truffe hanno preso di mira milioni di destinatari in Europa, Nord America e Medio Oriente, causando rischi per la salute degli utenti.
- ChatGPT ha raggiunto un'accuratezza del 79,5% nel rilevare incongruenze in immagini generate da intelligenza artificiale.
Negli ultimi mesi, il fenomeno dei deepfake ha preso di mira il settore della sanità, utilizzando immagini, video e tecnologie di clonazione vocale per riprodurre personaggi famosi come Brad Pitt, Cristiano Ronaldo, Sofia Loren e medici noti. Questi deepfake vengono impiegati per promuovere integratori e cure miracolose, creando campagne fraudolente e disinformazione. La società di sicurezza Bitdefender ha individuato numerosi annunci falsi e siti web gestiti da criminali informatici che utilizzano contenuti sponsorizzati sui social media, con conseguenze potenzialmente gravi per gli utenti.
La salute e il benessere sono argomenti preferiti dai criminali informatici per rubare informazioni e raggirare le persone. Il British Medical Journal ha dedicato un’analisi al fenomeno dopo che sono comparsi deepfake di medici famosi come Hilary Jones, che rispondeva a domande del pubblico televisivo in un finto video che pubblicizzava un farmaco per la pressione alta. I ricercatori di Bitdefender hanno raccolto e analizzato truffe legate alla salute in tutto il mondo per un periodo di tre mesi, da marzo a maggio 2024, rilevando che una pagina compromessa o fasulla che promuoveva pubblicità fraudolente aveva oltre 350.000 follower.
Le campagne hanno preso di mira milioni di destinatari in tutto il mondo, tra cui Europa, Nord America e Medio Oriente. Questo fenomeno rappresenta una minaccia crescente per la sicurezza e la salute degli utenti, che possono essere indotti a seguire consigli medici errati o a utilizzare prodotti inefficaci o dannosi.
Sarà ChatGPT a salvarci dal deepfake?
Il deepfake è una tecnica avanzata di intelligenza artificiale che permette di creare video e immagini non veritiere, spesso manipolando volti umani in modo convincente. Questa tecnologia desta preoccupazioni per la diffusione di informazioni fuorvianti e non verificate, minando la fiducia degli utenti nei confronti delle immagini e dei filmati digitali sui social media e sui siti web. Ma cosa succederebbe se strumenti come ChatGPT potessero essere utilizzati per smascherare questi contenuti ingannevoli?
Un team di ricercatori dell’Università di Buffalo, negli Stati Uniti, ha esplorato questa possibilità. I modelli linguistici, noti per generare testi coerenti e creativi, potrebbero essere la chiave per individuare media contraffatti sul web. Gli analisti hanno testato chatbot come ChatGPT di OpenAI, Gemini di Google e Copilot di Microsoft per rilevare immagini di volti umani create artificialmente. La ricerca, presentata alla IEEE/CVF Conference on Computer Vision & Pattern Recognition, ha rivelato che le performance di questi modelli non sono all’altezza degli algoritmi avanzati per il rilevamento dei deepfake, ma la loro forza risiede nella capacità di spiegare le decisioni in modo chiaro e comprensibile per gli esseri umani.
ChatGPT, addestrato su un vasto database di testi e immagini, si è rivelato il più efficace tra tutti. Essendo il primo e più diffuso tra i Large Language Model (LLM), ChatGPT comprende le relazioni linguistiche e può analizzare le foto in modo più dettagliato rispetto alla concorrenza. Il chatbot di OpenAI ha raggiunto un’accuratezza del 79,5% nell’evidenziare incongruenze in immagini generate da modelli come StyleGAN e Latent Diffusion. Questo dato è comparabile con i tradizionali algoritmi di rilevamento dei deepfake, ma con un importante vantaggio: ChatGPT può spiegare il ragionamento dietro le decisioni utilizzando un linguaggio accessibile.
Per esempio, analizzando una foto di un uomo con occhiali generata dall’intelligenza artificiale, il modello ha notato che i capelli sul lato sinistro dell’immagine erano leggermente sfocati e che la transizione tra la persona e lo sfondo era troppo brusca e priva di profondità. Tuttavia, ChatGPT non raggiunge le prestazioni dei sofisticati algoritmi di rilevamento dei deepfake, che superano il 90% di accuratezza. Gli LLM non riescono a cogliere le differenze statistiche invisibili all’occhio umano, spesso scovate con procedure standard. Inoltre, il modello spesso rifiuta di analizzare contenuti quando non è sicuro della risposta, indicando che ChatGPT possiede potenzialità per un’analisi più accurata, ma è necessario l’intervento umano per ottimizzare e guidare le sue capacità.
Deepfake di VIP promuovono cure miracolose sui social: come difendersi
Ogni giorno su Facebook, Messenger e Instagram vengono pubblicati contenuti sponsorizzati su cure miracolose e integratori dalle capacità straordinarie, corredati da immagini generate dall’intelligenza artificiale, video e audio deepfake di persone famose ed esperti di sanità. Una ricerca condotta da Bitdefender sulle campagne fraudolente a tema sanitario ha rivelato che il problema degli annunci fasulli sui social è diffuso, con rischi per la nostra sicurezza e salute.
Le truffe puntano su temi come il benessere e la salute, attirando gli utenti su siti web falsi che promuovono farmaci, trattamenti e cure dal successo assicurato a un prezzo contenuto. Bitdefender ha raccolto dati per tre mesi (marzo-maggio 2024), evidenziando l’utilizzo di immagini, video e audio deepfake di personaggi famosi come Ben Carson, Brad Pitt, Cristiano Ronaldo, Denzel Washington e Sofia Loren. Le pagine false sui social superano i 350.000 follower, dimostrando che il problema è diffuso in tutto il mondo, Europa inclusa.
Bitdefender consiglia agli utenti di diffidare delle offerte che utilizzano sponsorizzazioni da parte di personaggi famosi. Le truffe stanno evolvendo rapidamente, diventando sempre più difficili da individuare man mano che l’intelligenza artificiale migliora. Quando si tratta di salute, è bene rivolgersi al proprio medico e evitare le cure fai da te, specie se consigliate sui social, poiché rischiano di essere pericolose.
Bullet Executive Summary
In conclusione, il fenomeno dei deepfake rappresenta una minaccia crescente per la sicurezza e la salute degli utenti, specialmente nel settore della sanità. La tecnologia dei deepfake viene utilizzata per creare campagne fraudolente che promuovono cure miracolose e integratori, sfruttando l’immagine di personaggi famosi e medici noti. Tuttavia, strumenti come ChatGPT potrebbero diventare alleati preziosi nella lotta contro questi contenuti ingannevoli, grazie alla loro capacità di spiegare le decisioni in modo chiaro e comprensibile.
Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il concetto di machine learning, che permette ai modelli di apprendere dai dati e migliorare le loro performance nel tempo. Un’ulteriore nozione avanzata è il transfer learning, che consente ai modelli di applicare conoscenze acquisite in un contesto a nuovi problemi, migliorando la loro capacità di rilevare e contrastare i deepfake.
In definitiva, la lotta contro i deepfake richiede un approccio multidisciplinare che combini tecnologia avanzata, consapevolezza degli utenti e intervento umano per garantire la sicurezza e la veridicità delle informazioni nel panorama digitale moderno.