Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Le allucinazioni di Meta AI e il caso Trump: cosa è successo davvero

Meta AI ha sbagliato sul tentato omicidio di Donald Trump. Scopriamo le cause delle allucinazioni dell'intelligenza artificiale e come Meta sta affrontando il problema.
  • Il tentato omicidio di Donald Trump è avvenuto il 13 luglio in Pennsylvania.
  • Il 57% dei principali chatbot ha fornito informazioni inesatte sull'attentato.
  • Meta AI ha ammesso che le allucinazioni sono un problema significativo e ancora irrisolto.

L’intelligenza artificiale di Meta, nota come Meta AI, ha recentemente attirato l’attenzione per un grave errore riguardante il tentato omicidio di Donald Trump avvenuto il 13 luglio scorso in Pennsylvania. Inizialmente, Meta aveva deciso di non consentire alla sua IA di rispondere a domande sull’accaduto. Tuttavia, una volta “sbloccata”, la IA ha fornito risposte errate, affermando che l’attentato non fosse mai avvenuto. Meta ha attribuito l’errore alle cosiddette “allucinazioni” dell’intelligenza artificiale, un fenomeno in cui i chatbot generano risposte errate o inventate.

Meta ha spiegato che le allucinazioni sono un grave difetto della tecnologia IA generativa, che nessuno è ancora riuscito a risolvere completamente. Le risposte generate dai modelli linguistici di grandi dimensioni si basano sui dati su cui sono stati addestrati, il che può creare problemi quando l’IA è posta di fronte a domande su argomenti in rapido sviluppo. Meta ha ammesso che l’azienda avrebbe dovuto aggiornare le risposte della IA sull’attentato prima, ma ha anche sottolineato che il problema delle allucinazioni rappresenta una sfida continua per la gestione degli eventi in tempo reale.

Le scuse di Meta e le implicazioni politiche

Meta ha pubblicato un post sul blog ufficiale, firmato dal VP of Global Policy Joel Kaplan, in cui si scusa per l’errore commesso dal suo assistente basato sull’IA generativa. Kaplan ha spiegato che il problema delle allucinazioni affligge tutto il settore e che i chatbot sul mercato mostrano tutti avvisi in questo senso. Nel caso specifico del tentato assassinio di Trump, Meta ha agito rapidamente per correggere le inesattezze, ma inizialmente l’assistente era programmato per non rispondere a domande sull’argomento per timore di allucinazioni.

Un altro problema emerso è stato correlato alla diffusione di una foto modificata di Trump con l’orecchio insanguinato, che ha portato i sistemi di Meta a bloccare automaticamente anche contenuti simili. Questo ha ulteriormente complicato la situazione, soprattutto in un clima politicamente teso e polarizzato come quello degli Stati Uniti, a pochi mesi dalle elezioni presidenziali.

Cosa ne pensi?
  • 👍 Grande reattività da parte di Meta nel correggere l'errore......
  • 👎 Una gaffe inaccettabile dall'intelligenza artificiale di Meta......
  • 🤔 Interessante considerare come le allucinazioni IA riflettano le nostre......

Le indagini di NewsGuard e le false narrative

Un’indagine condotta da NewsGuard ha rivelato che le principali piattaforme di IA generativa non sono state in grado di fornire informazioni accurate sull’attentato nel 57% dei casi. Le false narrative diffuse online includevano affermazioni come la falsa identificazione dell’attentatore nell’attivista Mark Violets e la falsa informazione che Trump fosse stato colpito al petto mentre indossava un giubbotto antiproiettile.

NewsGuard ha valutato dieci chatbot, tra cui ChatGPT-4, Smart Assistant, Grok, Pi, Le Chat, Copilot, Meta AI, Claude, Gemini e Perplexity. I risultati hanno mostrato che questi chatbot hanno fallito nel fornire informazioni accurate nel 56,67% dei casi, o perché ripetevano affermazioni false (11,11%) o rifiutavano di fornire informazioni sul tema (45,56%). In media, i chatbot hanno offerto debunking nel 43,33% dei casi.

Le teorie del complotto e la disinformazione online

Minuti e ore successive all’attentato contro Donald Trump, le piattaforme di social media e i gruppi di chat si sono riempiti di teorie del complotto. Dalle ipotesi di un “piano del deep state” ordito dal presidente Joe Biden alla tesi di una sparatoria inscenata per aumentare le possibilità di vittoria di Trump alle presidenziali di novembre, le cospirazioni sono arrivate da tutti gli schieramenti politici.

Il proprietario della piattaforma X, Elon Musk, ha dichiarato di “appoggiare Trump” e ha promosso queste teorie, suggerendo che l’attacco fosse un atto “intenzionale”. Termini come “staged” (inscenato) e “false flag” (operazioni per incolpare un’entità o persona diversa dal reale responsabile) sono diventati trending topic sulla piattaforma.

Bullet Executive Summary

L’incidente del tentato omicidio di Trump e le conseguenti allucinazioni dell’intelligenza artificiale di Meta ci ricordano i limiti e le sfide delle IA generative. Le allucinazioni, definite come risposte false o inventate, rappresentano un problema significativo che richiede un’attenzione costante e un miglioramento continuo. Questo episodio sottolinea l’importanza di un’accurata gestione delle informazioni e di una supervisione umana per garantire l’affidabilità delle risposte fornite dai chatbot.

Una nozione base di intelligenza artificiale correlata a questo tema è il concetto di “modelli linguistici di grandi dimensioni” (LLM), che sono addestrati su vasti set di dati per generare risposte coerenti e pertinenti. Tuttavia, questi modelli possono essere soggetti a errori e allucinazioni, specialmente quando affrontano argomenti in rapido sviluppo.

Una nozione avanzata di intelligenza artificiale applicabile a questo tema è il “meccanismo di disimpegno”, che potrebbe essere implementato per ridurre le allucinazioni. Questo meccanismo prevede lo spostamento, l’aggiornamento e l’inibizione dei dati per evitare sovraccarichi alla memoria di lavoro dell’IA, migliorando così la qualità e l’affidabilità delle risposte generate.

In conclusione, mentre le intelligenze artificiali continuano a evolversi e a offrire supporto in vari ambiti, è essenziale ricordare che siamo noi i responsabili della direzione che prenderanno. Non dobbiamo credere ciecamente a tutto ciò che un chatbot dice, ma piuttosto utilizzare queste tecnologie come strumenti per migliorare la nostra comprensione e il nostro lavoro, mantenendo sempre un occhio critico e vigile.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
4 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
4
0
Ci interessa la tua opinione, lascia un commento!x