E-Mail: [email protected]
- Secondo uno studio dell'Università di Glasgow, le IA generative non soffrono di allucinazioni, ma producono risposte prive di fondamento.
- Un report di NewsGuard ha rilevato che i chatbot ripetono informazioni errate nel 18% dei casi, un miglioramento rispetto al mese precedente.
- NewsGuard ha identificato 1.065 siti di notizie false generati dall'IA in 16 lingue diverse.
Uno studio recente dell’Università di Glasgow ha sollevato un dibattito significativo sulla natura delle risposte fornite dalle intelligenze artificiali generative, come ChatGPT. Secondo i ricercatori, queste IA non soffrono di “allucinazioni” nel senso umano del termine, ma piuttosto producono risposte prive di fondamento che possono sembrare plausibili. Un esempio eclatante risale al maggio 2023, quando un avvocato di New York ha utilizzato ChatGPT per scrivere un’arringa legale, solo per scoprire che l’IA aveva inventato sentenze precedenti.
Il termine “allucinazioni” è stato criticato per la sua inadeguatezza nel descrivere il fenomeno. Etimologicamente, il termine si riferisce a una perdita di coscienza o a una fuga dalla realtà, concetti che non si applicano alle IA generative, che non hanno una coscienza o una percezione della realtà. Queste IA non possono né stravolgere né sfuggire alla realtà; semplicemente, producono risposte errate.
Il problema principale è che queste risposte errate possono rendere le IA inaffidabili, un problema significativo per il loro sviluppo e utilizzo. Massimo Chiriatti, Chief Technology and Innovation Officer di Lenovo, sottolinea che le IA generative non hanno un rapporto con la verità. Sono progettate per rispondere agli utenti, ma non per dire la verità, poiché non la conoscono.
I Large Language Model (LLM) sono sistemi IA ingegnerizzati per comprendere e generare linguaggio umano. Vengono addestrati utilizzando grandi quantità di dati (Big Data) e algoritmi statistici per prevedere le parole da inserire nelle frasi. Tuttavia, questi modelli possono scrivere frasi perfette dal punto di vista sintattico e grammaticale, ma restituire argomenti convincenti e sbagliati.
La Sfida della Disinformazione
Il rapporto tra chatbot e disinformazione è complesso e delicato. I modelli di AI faticano a riconoscere le fake news all’interno dei prompt inseriti dagli utenti. Questo è confermato da un report di NewsGuard, un’organizzazione che monitora la disinformazione online. Il report ha esaminato la propensione di 10 chatbot a riproporre narrazioni false su argomenti di attualità.
I ricercatori di NewsGuard hanno utilizzato 30 prompt per ciascun modello, basati su un campione di 10 notizie false diffuse online. I risultati non sono stati soddisfacenti, ma hanno segnato un miglioramento rispetto al passato: i modelli hanno ripetuto informazioni errate nel 18% dei casi, non hanno fornito risposte nel 31% delle situazioni e hanno smentito le notizie nel 51% delle volte. Nel mese precedente, i chatbot avevano ripetuto informazioni sbagliate nel 30% dei casi e smentito fake news nel 41% delle situazioni.
Ad agosto, metà dei chatbot analizzati ha evitato di fornire risposte più spesso rispetto a luglio, con due modelli che continuano a evitare di rispondere a richieste di notizie potenzialmente controverse. La capacità dei modelli AI di riconoscere affermazioni false all’interno dei prompt degli utenti sembra migliorata, ma non abbastanza.
- ✨ La potenza delle IA generative è davvero sorprendente......
- ⚠️ Le IA generative sono una vera minaccia per l'affidabilità......
- 🔍 Cosa succederebbe se considerassimo le IA come meri strumenti......
La Proliferazione dei Siti di Fake News Generati da AI
Un altro aspetto preoccupante è la proliferazione di siti di notizie false generati dall’intelligenza artificiale. NewsGuard ha identificato 1.065 siti di notizie e informazioni inaffidabili generati dall’IA in 16 lingue diverse. Questi siti hanno nomi generici come iBusiness Day, Ireland Top News e Daily Time Update, e potrebbero sembrare siti di notizie legittimi.
Questi siti operano con poca supervisione umana e pubblicano articoli scritti da bot. Gli articoli spesso contengono affermazioni false, come bufale sulla morte di personaggi famosi o eventi inventati e datati, presentati come accaduti di recente. Il modello di guadagno per questi siti è la pubblicità programmatica, con l’industria della tecnologia pubblicitaria che fornisce annunci senza tenere conto della natura o della qualità del sito.
Marchi rinomati possono involontariamente sostenere questi siti, contribuendo alla diffusione della disinformazione. In soli nove mesi, c’è stato un boom di siti di fake news generati con l’IA, con implicazioni preoccupanti in vista delle elezioni presidenziali statunitensi e altri eventi di attualità.
La Necessità di Nuove Terminologie e Competenze
Storicamente, ogni nuova tecnologia ha portato alla nascita di nuove terminologie per qualificarla e spiegarla. Nel caso delle IA generative, c’è un bisogno urgente di nuove parole per descrivere correttamente i fenomeni che osserviamo. Attualmente, è più facile antropomorfizzare il lessico e attribuirlo alle macchine piuttosto che creare nuove parole per capire e condividere le nuove realtà.
Termini come “intelligenza”, “apprendimento” e “coscienza” sono oggetto di dibattito in letteratura sulla loro applicabilità alle IA. Massimo Chiriatti sottolinea che, facendo leva sulla nostra cultura e lavorando insieme ai tecnici, possiamo trovare e proporre un nuovo lessico per il mondo. I linguisti hanno un’ottima opportunità per contribuire a questa evoluzione terminologica.
Bullet Executive Summary
In conclusione, le intelligenze artificiali generative rappresentano una sfida significativa nel panorama moderno dell’IA. Non soffrono di allucinazioni, ma producono risposte prive di fondamento che possono sembrare plausibili. Questo le rende inaffidabili e suscettibili di diffondere disinformazione. La proliferazione di siti di fake news generati dall’IA e la difficoltà dei chatbot nel riconoscere le fake news sono problemi che richiedono attenzione e soluzioni innovative.
Una nozione base di intelligenza artificiale correlata a questo tema è la comprensione del linguaggio naturale (Natural Language Understanding, NLU). La NLU è una sottodisciplina dell’IA che si occupa di come le macchine comprendono e interpretano il linguaggio umano. Tuttavia, come abbiamo visto, la comprensione semantica profonda è ancora una sfida per gli LLM.
Una nozione avanzata di intelligenza artificiale applicabile a questo tema è il ragionamento contestuale. Questo concetto si riferisce alla capacità di un’IA di comprendere e utilizzare il contesto per migliorare la precisione delle sue risposte. Attualmente, gli LLM si arenano perché non comprendono il contesto in modo profondo, dipendendo solo dai modelli di informazioni esplicite su cui sono addestrati.
In definitiva, per affrontare queste sfide, è essenziale combinare competenze tecniche con conoscenze filosofiche, antropologiche e pedagogiche. Solo così possiamo sperare di gestire l’innovazione in modo efficace e responsabile, trovando un equilibrio tra progresso tecnologico e benessere sociale.
- Politiche universitarie sull'utilizzo delle Intelligenze Artificiali generative nella ricerca
- Sito ufficiale di Lenovo per comunicati stampa e notizie istituzionali
- Sito ufficiale di NewsGuard, organizzazione che monitora la disinformazione online, con report e informazioni sulla propaganda e le fake news