Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Intelligenza artificiale: scopri perché non può ancora ragionare come un umano

L'intelligenza artificiale come ChatGPT sembra razionale, ma non può ancora percepire il contesto o seguire logiche umane. Scopri i limiti e le sfide future.
  • ChatGPT e altre AI generative non seguono un ragionamento logico come gli umani.
  • Solo il 10% degli umani risponde correttamente ai test di logica al primo tentativo, simile alla percentuale delle AI.
  • ChatGPT 4 ha superato il 90% dei test di logica, mostrando miglioramenti rispetto alle versioni precedenti.

Ricorderete la controversa tesi dell’IA senziente che ha fatto discutere appassionati di tecnologia e non. Forse, vale la pena fare un passo indietro, considerando che non pochi si chiedono se un’intelligenza artificiale sappia “ragionare”. Semplificando il concetto, un chatbot di intelligenza artificiale come ChatGPT non “pensa” come un essere umano, ma si tratta di un servizio che cerca di “ingannare” l’interlocutore per convincerlo di una conversazione naturale. In realtà, dietro le quinte risiede un complicato meccanismo che necessita di miriadi di dati di qualità, realizzati da esseri umani, anche per svolgere operazioni banali come riconoscere un soggetto in una foto.

Fiumi di parole potrebbero essere spesi sul funzionamento dei sistemi di intelligenza artificiale e sulle variabili che entrano in gioco. Potrebbe interessarvi sapere che un’IA sceglie la prossima parola su base probabilistica. Un LLM (modello linguistico di grandi dimensioni) sceglie il cosiddetto “prossimo token”. Un sistema di intelligenza artificiale come un chatbot sembra riuscire a “pensare”, perché, dandogli in pasto un’enorme quantità di dati, migliora nell’indovinare la prossima parola. Mediante la “tokenizzazione”, le parole vengono codificate in numeri univoci: dietro le quinte si lavora su numeri, non su parole.

Potremmo entrare nel dettaglio delle allucinazioni dell’intelligenza artificiale, ovvero gli errori che quest’ultima può commettere nel generare risposte. L’IA “non sa ragionare” ma funziona per “probabilità”. Le allucinazioni sono un elemento intrinseco in campo IA e rappresentano una situazione difficile da risolvere. Basterà, in questo contesto, dare più dati ai sistemi per rispondere con precisione alle richieste dell’umanità? Forse no, ecco perché è importante tenere il disclaimer “ChatGPT può commettere errori. Verificare le informazioni importanti”.

A proposito di ChatGPT, è interessante notare che la prima versione del modello linguistico di grandi dimensioni (LLM) che ha “sconvolto” il grande pubblico è stata GPT-3 (o GPT-3.5). Prima di quest’ultima, esisteva anche una versione GPT-2. Qual è stato il salto in avanti importante? GPT-2 era un modello da 1,5 miliardi di parametri, mentre GPT-3 è stato addestrato su 175 miliardi di parametri. La rivoluzione di GPT-3 è basata sull’utilizzo massivo di dati, necessario a convincere l’essere umano di conversare con un “sistema in grado di pensare”, quando in realtà non lo è.

La logica dell’AI: un’illusione di razionalità

Le potenzialità dell’intelligenza artificiale generativa sono indubbie. ChatGPT, Gemini, Copilot e altri strumenti sul web sono utilizzati da migliaia di persone per velocizzare attività, semplificare processi, ottenere rapidamente informazioni e creare contenuti originali e coinvolgenti. L’AI sembra, in apparenza, di fornire tutte le risposte in modo razionale e corretto. Tuttavia, alcune ricerche recenti hanno dimostrato che l’AI non è razionale e non segue un ragionamento logico.

Le intelligenze artificiali generative non sono infallibili e possono commettere gli stessi errori degli umani con la stessa percentuale. Questo è emerso dopo che ChatGPT e altre AI generative sono state sottoposte a test di ragionamento logico. I risultati conseguiti hanno evidenziato che l’AI non segue un ragionamento logico. Non sempre l’intelligenza artificiale riesce a percepire il contesto, cogliere il senso delle parole, le sfumature, l’ironia e il sarcasmo, né a seguire ragionamenti logici.

Uno studio condotto dai ricercatori dell’University College di Londra e dell’Università di Bologna ha rivelato che l’AI, come ChatGPT e Gemini, sottoposte a test di logica utilizzati dalla psicologia cognitiva, non sempre riesce a rispondere correttamente al primo tentativo. Solo circa il 10% degli intervistati umani riesce a rispondere correttamente al primo tentativo. L’AI è riuscita a fare di meglio? Non sempre. In alcuni casi, la percentuale di risposte esatte era simile a quella umana. I ricercatori hanno notato che l’AI ha risposto in modo differente alla stessa domanda più volte e ha commesso errori impensabili, come invertire vocali e consonanti o sbagliare il risultato delle addizioni. Errori che difficilmente gli umani commettono.

Tra gli strumenti analizzati, ChatGPT 4, accessibile con abbonamento a ChatGPT Plus, ha superato il 90% dei test di logica a cui è stato sottoposto. ChatGPT 4 è più evoluto rispetto alla versione 3.5 e ad altri modelli linguistici che non hanno subito recenti aggiornamenti. Tuttavia, tutte le intelligenze artificiali generative possono migliorare nel tempo e, in futuro, saranno sempre più affidabili.

La macchina e la morale: un’illusione di intelligenza

Sophia, il primo androide sociale, sviluppato a Hong Kong nel 2015, è in grado di riprodurre 62 espressioni facciali umane. Intervistata dai media, Sophia ha impressionato giornalisti e giornaliste per le sue risposte. Tuttavia, alcune di queste sono state ritenute prive di senso e artificiose. Questo solleva una domanda fondamentale: i computer possono prendere decisioni importanti? Dovremmo lasciarli fare?

Un team di ricerca dell’Istituto svizzero Idiap ha mostrato che parte dell’intelligenza delle macchine è un’illusione. La domanda se le macchine possano pensare è stata posta dal matematico britannico Alan Turing nel 1950, nel suo famoso scritto che ha gettato le basi per la concezione e la definizione dell’intelligenza artificiale (IA). Turing inventò il “gioco dell’imitazione”, usato per giudicare l’intelligenza di una macchina. Il gioco, noto come Test di Turing, coinvolge tre giocatori: un uomo, una donna e un interrogatore che deve determinare quale dei due giocatori è l’uomo e quale la donna. Se l’interrogatore non riesce a distinguere tra un computer e una persona, il computer dovrebbe essere considerato un’entità intelligente.

Settant’anni dopo, nessun sistema di intelligenza artificiale ha superato il primo test di Turing. Hervé Bourlard, direttore dell’Idiap, sostiene che non esiste una cosa come “l’intelligenza artificiale” e che nessun sistema riflette la minima intelligenza umana. Un bebè di due o tre mesi sa fare ciò che un’IA non può. Ad esempio, un bambino piccolo sa che un bicchiere d’acqua capovolto diventa vuoto. Nessuna macchina può capire questa differenza. Questo esempio dimostra il valore del buon senso, una capacità che distingue gli umani dagli altri esseri viventi e che le macchine non possono imitare.

L’IA è radicata in settori commerciali e contribuisce ai processi decisionali in campi come le risorse umane, le assicurazioni e i prestiti bancari. Analizzando il comportamento umano su Internet, le macchine imparano chi siamo e cosa ci piace. Tuttavia, questo non rende l’intelligenza artificiale intelligente. Bourlard preferisce parlare di apprendimento automatico. Tre aspetti rendono l’IA potente: la potenza di calcolo, i modelli matematici e le banche dati vaste e diffuse.

Bullet Executive Summary

In conclusione, l’intelligenza artificiale non è ancora in grado di ragionare come un essere umano. I sistemi di intelligenza artificiale come ChatGPT funzionano su base probabilistica e non sono in grado di percepire il contesto, cogliere le sfumature o seguire ragionamenti logici come un essere umano. Tuttavia, l’IA ha fatto passi da gigante nell’elaborazione dei dati e nel miglioramento delle sue capacità di risposta. La sfida futura sarà quella di sviluppare modelli di IA che siano trasparenti, spiegabili e sicuri.

Nozione base di intelligenza artificiale: La tokenizzazione è il processo mediante il quale le parole vengono codificate in numeri univoci, permettendo ai modelli linguistici di grandi dimensioni (LLM) come ChatGPT di elaborare e generare risposte basate su dati probabilistici.

Nozione avanzata di intelligenza artificiale: Le reti neurali e gli algoritmi di deep learning sono alla base delle capacità di apprendimento automatico dell’IA. Tuttavia, lo sviluppo del pensiero critico e della consapevolezza di sé rimane una sfida complessa che va oltre la semplice elaborazione dei dati.

L’intelligenza artificiale ha il potenziale per trasformare la nostra vita quotidiana e il mondo creativo, ma dobbiamo affrontare questi cambiamenti con apertura mentale e consapevolezza, esplorando le potenzialità e le sfide che ci aspettano.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Ci interessa la tua opinione, lascia un commento!x