E-Mail: [email protected]
- Gli LLM come GPT-4 eccellono nell'aritmetica in base 10 ma falliscono con altre basi numeriche.
- Quando si trovano di fronte a sfide inedite, le performance degli LLM calano drasticamente.
- Le pubblicazioni hanno dovuto reintegrare il personale umano per correggere errori e 'allucinazioni' dell'IA.
Un recente studio del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ha sollevato dubbi sulle capacità di ragionamento dei modelli linguistici di grandi dimensioni (LLM), come ChatGPT e Microsoft Copilot. La ricerca ha messo in luce che le prestazioni di questi modelli si basano più sulla memorizzazione di dati pre-addestrati che su una reale capacità di ragionamento.
Gli LLM, come GPT-4, eccellono nell’aritmetica in base 10, ma falliscono con altre basi numeriche, dimostrando una dipendenza dai dati di allenamento piuttosto che una comprensione profonda dei concetti matematici. Inoltre, in compiti di ragionamento spaziale, questi modelli brillano solo se il compito è stato incluso nei dati di allenamento. Quando si trovano di fronte a sfide inedite, le loro performance calano drasticamente.
Implicazioni per il Futuro del Lavoro dell’IA
La ricerca del MIT ha importanti implicazioni per il futuro del lavoro e il ruolo dell’IA. Mentre alcune professioni potrebbero essere a rischio di automazione, lo studio sottolinea l’importanza dell’intervento umano per garantire risultati accurati e affidabili.
Nel settore del giornalismo, l’automazione basata sull’IA ha mostrato i suoi limiti. Alcune pubblicazioni hanno tentato di sostituire i redattori umani con sistemi automatizzati, solo per dover reintegrare il personale per correggere errori e “allucinazioni” dell’IA. Anche nell’industria dei videogiochi, l’integrazione dell’IA solleva preoccupazioni tra gli sviluppatori, che temono un’alterazione del ruolo creativo dei professionisti.
La Macchina e la Morale
La Svizzera, leader nel campo dell’intelligenza artificiale, affronta sfide etiche significative. La questione della “macchina morale” è tornata in auge negli anni ’90 per motivi pubblicitari e di marketing, ma senza un reale progresso nella potenza dei modelli matematici. Hervé Bourlard, direttore dell’Idiap, sostiene che non esiste una cosa come “l’intelligenza artificiale” che rifletta la minima intelligenza umana.
L’IA è radicata in settori commerciali, contribuendo ai processi decisionali in campi come le risorse umane, le assicurazioni e i prestiti bancari. Tuttavia, secondo Bourlard, non si tratta di vera intelligenza, ma piuttosto di apprendimento automatico. La potenza di calcolo, i modelli matematici e le banche dati vaste sono i tre aspetti che rendono l’IA potente.
Quando Arriverà un’Intelligenza Artificiale Generale?
L’evoluzione dell’intelligenza artificiale non è andata come previsto. Nonostante le aspettative eccessive e le paure, oggi ci troviamo a litigare con assistenti virtuali come Alexa per semplici comandi. Nel 1956, una dozzina di scienziati si riunì al college di Dartmouth per lavorare a un progetto ambizioso: costruire una macchina in grado di simulare l’intelligenza umana. Tuttavia, non riuscirono nell’impresa.
Oggi, algoritmi basati sul deep learning hanno rivoluzionato il mondo, ma non siamo ancora vicini a un’intelligenza artificiale generale (AGI). Il deep learning ha permesso progressi notevoli, ma gli algoritmi si scontrano con la complessità del mondo reale. Ad esempio, le auto autonome continuano ad avere problemi nel traffico cittadino, un ambiente troppo caotico per essere gestito dalla tecnologia attuale.
Bullet Executive Summary
L’intelligenza artificiale ha fatto passi da gigante, ma la ricerca del MIT ci ricorda che c’è ancora molta strada da fare per raggiungere la flessibilità e la profondità del ragionamento umano. Mentre i progressi sono notevoli, la dipendenza dalla memorizzazione limita le applicazioni dell’IA in contesti complessi. L’evoluzione tecnologica procede spedita, ma le paure attuali potrebbero non essere lontane dal concretizzarsi.
Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il concetto di apprendimento automatico, che si riferisce alla capacità delle macchine di migliorare le proprie prestazioni analizzando dati e riconoscendo schemi. Una nozione avanzata è il deep learning, una sottocategoria del machine learning che utilizza reti neurali artificiali con molti strati per analizzare grandi quantità di dati e fare previsioni accurate.
La riflessione personale che emerge è che, mentre l’IA può automatizzare molti compiti e migliorare l’efficienza, è fondamentale mantenere un equilibrio tra automazione e intervento umano per garantire risultati accurati e affidabili. La trasparenza e la comprensibilità dei modelli di IA sono essenziali per costruire una fiducia duratura tra le macchine e gli esseri umani.