E-Mail: [email protected]
- Meta ha annunciato che il modello di intelligenza artificiale Llama non sarà rilasciato nell'UE a causa delle normative europee, in particolare il GDPR.
- Una versione solo testo di Llama 3 sarà disponibile per i clienti aziendali dell'UE, ma non la versione multimodale.
- L'AI Act, approvato con 499 voti a favore, stabilisce nuovi requisiti per l'IA nell'UE, che nessun fornitore attualmente soddisfa.
Meta ha annunciato giovedì che non rilascerà il suo modello di intelligenza artificiale avanzato, Llama, nell’Unione Europea a causa delle preoccupazioni per la forte protezione della privacy dell’UE e delle normative sull’intelligenza artificiale. “Rilasceremo il modello multimodale Llama nei prossimi mesi, ma non nell’UE a causa dell’imprevedibile contesto normativo europeo”, ha affermato Meta in una dichiarazione ad Axios, ripresa da UPI.
Questa decisione potrebbe impedire alle aziende europee di utilizzare i modelli di intelligenza artificiale multimodali di Meta, limitando i prodotti di intelligenza artificiale disponibili per gli individui nell’UE. Le leggi sulla privacy dei dati in Europa estendono maggiori protezioni agli utenti, e Meta ha affermato che una versione di solo testo del modello Llama 3 sarà resa disponibile per i clienti aziendali dell’UE.
Meta è stata ordinata di interrompere l’addestramento dell’intelligenza artificiale utilizzando i post degli utenti di Facebook e Instagram nell’UE per motivi di privacy. La decisione di Meta di non rilasciare il sistema Llama AI nell’UE è legata al Regolamento generale sulla protezione dei dati (GDPR), considerato la legge sulla privacy e sicurezza più forte dell’UE. Il GDPR regola come i dati personali degli individui nell’UE vengono trattati e trasferiti.
Secondo il Consiglio Europeo, il GDPR definisce i diritti fondamentali dell’individuo nell’era digitale, gli obblighi di chi tratta i dati, le modalità per il rispetto e le sanzioni per chi non rispetta le norme. Ad agosto entrerà in vigore una nuova legge UE sull’intelligenza artificiale, che sottopone i sistemi “ad alto rischio” a normative severe. Secondo la legge, i fornitori di IA nell’UE devono “stabilire un sistema di gestione del rischio durante il ciclo di vita dei sistemi IA, condurre governance dei dati assicurandosi che la formazione, la convalida e il test dei set di dati dell’IA siano pertinenti, rappresentativi e privi di errori per completare lo scopo previsto”.
Implicazioni per le aziende europee
La decisione di Meta di non rilasciare il modello Llama nell’UE avrà un impatto significativo sulle aziende europee che speravano di utilizzare questi modelli per sviluppare prodotti e servizi innovativi. La restrizione limiterà le opzioni disponibili per le aziende europee, che potrebbero dover cercare alternative meno avanzate o affrontare costi aggiuntivi per conformarsi alle normative europee.
Meta ha dichiarato che i modelli di intelligenza artificiale multimodale saranno utilizzati in prodotti come gli occhiali intelligenti Meta Ray-Ban. Tuttavia, la versione più grande e solo testo del modello Llama 3 sarà disponibile per i clienti dell’UE. Questo lascia una situazione difficile per le aziende al di fuori dell’UE che speravano di fornire prodotti e servizi utilizzando questi modelli, poiché non potranno offrirli in uno dei mercati economici più grandi al mondo.
L’UE non ha commentato la decisione di Meta, ma la decisione di Apple di limitare l’implementazione dell’intelligenza artificiale è stata criticata dal commissario europeo per la concorrenza, Margrethe Vestager. La scelta della società madre di Facebook e Instagram potrebbe non essere apprezzata dal business, ma per Meta sembra essere la decisione più prudente.
Regolamentazione e conformità
La regolamentazione europea sull’intelligenza artificiale è stata recentemente rafforzata con l’approvazione dell’AI Act da parte del Parlamento Europeo il 14 giugno 2023. Con 499 voti a favore, 28 contrari e 93 astensioni, l’AI Act rappresenta l’iniziativa legislativa più importante al mondo nell’ambito dell’IA. Il regolamento stabilirà requisiti per l’IA nell’UE e creerà un precedente per la regolamentazione dell’IA a livello globale.
Secondo uno studio del Center for Research on Foundation Models (CRFM) della Stanford University, i modelli di base sul mercato, come ChatGPT, non soddisfano i requisiti di trasparenza richiesti dal regolamento sull’intelligenza artificiale. L’applicazione dei requisiti potrebbe portare a cambiamenti nel funzionamento della tecnologia, ma secondo i ricercatori, questi cambiamenti sono fattibili per i fornitori.
Il regolamento richiede che i fornitori descrivano i “rischi non mitigati con una spiegazione del motivo”, ma nessuno dei fornitori valutati nel sondaggio fornisce queste informazioni. I fornitori di modelli di base raramente misurano le prestazioni dei modelli in termini di danni intenzionali o uso dannoso e fattori di robustezza e calibrazione.
Bullet Executive Summary
In conclusione, la decisione di Meta di non rilasciare il modello Llama nell’UE evidenzia le sfide che le aziende tecnologiche devono affrontare nel navigare nel complesso panorama normativo europeo sulla privacy dei dati. La mancanza di chiarezza e coerenza normativa può ostacolare l’innovazione e creare incertezza per le imprese nel mercato unico europeo.
Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il concetto di modelli di linguaggio di grandi dimensioni (Large Language Models, LLM), che sono addestrati su vasti set di dati per comprendere e generare testo in linguaggio naturale. Questi modelli sono alla base di molte applicazioni di intelligenza artificiale, come i chatbot e i sistemi di traduzione automatica.
Una nozione avanzata di intelligenza artificiale applicabile al tema dell’articolo è il concetto di intelligenza artificiale multimodale, che si riferisce a modelli in grado di elaborare e comprendere dati provenienti da diverse modalità, come testo, immagini, audio e video. Questi modelli rappresentano un passo avanti significativo nell’evoluzione dell’IA, poiché consentono una comprensione più completa e integrata delle informazioni, migliorando l’interazione uomo-macchina e aprendo nuove possibilità per applicazioni innovative.
La riflessione personale che emerge da questo scenario è l’importanza di bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali degli individui. Le normative come il GDPR e l’AI Act sono essenziali per garantire che l’IA sia sviluppata e utilizzata in modo etico e responsabile, ma è altrettanto cruciale che queste regolamentazioni non soffochino l’innovazione e la competitività delle aziende. Come società, dobbiamo trovare un equilibrio che permetta di sfruttare i benefici dell’IA senza compromettere la privacy e la sicurezza dei dati.
- Sito ufficiale di Meta con comunicato stampa sull'intelligenza artificiale in Europa
- Sito ufficiale della Commissione Europea sulla protezione dei dati, per approfondire sul GDPR e le norme sull'intelligenza artificiale
- Sito ufficiale dell'Unione Europea con informazioni sulla legislazione sull'intelligenza artificiale e sulla protezione dei dati personali nell'UE