E-Mail: [email protected]
- La nuova politica di Meta entrerà in vigore il 26 giugno 2024 e permetterà l'uso dei dati pubblici degli utenti per addestrare l'IA senza consenso esplicito.
- Gli utenti devono seguire una procedura complessa per opporsi all'uso dei loro dati, inclusa la compilazione di un modulo e la conferma via email.
- Noyb ha presentato denunce in 11 paesi europei, accusando Meta di violare il GDPR e di non garantire la trasparenza nell'uso dei dati.
Meta, la società madre di Facebook e Instagram, ha recentemente annunciato un aggiornamento significativo alla sua politica sulla privacy, che entrerà in vigore il 26 giugno 2024. Questo cambiamento ha suscitato preoccupazioni e polemiche, specialmente in Europa, dove la protezione dei dati personali è regolata dal GDPR (General Data Protection Regulation). La nuova politica permetterà a Meta di utilizzare i dati pubblici degli utenti per addestrare la sua intelligenza artificiale generativa, senza richiedere il consenso esplicito degli utenti.
La Procedura per Negare il Consenso
Meta ha informato gli utenti dei suoi principali social network, Facebook e Instagram, che parte delle loro informazioni, inclusi dati, post, immagini e video condivisi online, potrebbe essere utilizzata per addestrare il modello di linguaggio della nuova IA di Zuckerberg. Tuttavia, gli utenti hanno la possibilità di opporsi a questa raccolta di dati, sebbene la procedura non sia semplice.
Per negare il consenso, gli utenti devono accedere alla sezione “Informazioni” nelle impostazioni dell’app di Instagram o Facebook, cliccare su “Informativa sulla Privacy” e poi su “Diritto di Opposizione”. Da lì, devono compilare un modulo indicando il Paese di provenienza e la propria email, e fornire una motivazione per l’opposizione, preferibilmente citando il GDPR per una maggiore serietà. Dopo aver confermato la richiesta tramite un codice temporaneo inviato via email, Meta esaminerà la richiesta e, se accolta, le informazioni dell’utente non verranno utilizzate per addestrare l’IA.
Dubbi su Trasparenza e Controllo
L’annuncio di Meta ha sollevato numerosi dubbi riguardo alla trasparenza e al controllo dei dati. L’azienda ha dichiarato che utilizzerà i dati personali di circa quattro miliardi di utenti per la sua tecnologia IA, basandosi sulla base giuridica dell’interesse legittimo, senza richiedere il consenso esplicito degli utenti. Questo approccio ha suscitato critiche, in particolare da parte del gruppo per la privacy Noyb, che ha presentato denunce in 11 paesi europei.
Uno dei punti chiave della questione riguarda la legittimità della base giuridica dell’interesse legittimo, che potrebbe contrastare con i diritti alla privacy garantiti dal GDPR. Inoltre, una volta inseriti nel sistema, i dati degli utenti non possono essere cancellati, violando il diritto all’oblio. Meta ha anche specificato che l’opposizione all’utilizzo dei dati non garantisce la completa cancellazione dai suoi sistemi, poiché l’azienda potrebbe elaborare i dati per altri scopi.
Le Denunce di Noyb e le Implicazioni Legali
Il Centro Europeo per i Diritti Digitali (Noyb) ha presentato denunce in 11 paesi europei contro Meta, chiedendo alle autorità di avviare una procedura d’urgenza per fermare l’abuso dei dati personali da parte del colosso dei social network. Secondo Noyb, la nuova politica di Meta viola dieci articoli del GDPR, poiché l’azienda intende utilizzare tutti i dati pubblici e non pubblici degli utenti raccolti dal 2007 per la sua tecnologia IA.
Max Schrems, fondatore di Noyb, ha criticato Meta per non specificare come e per quali scopi verranno utilizzati i dati degli utenti, e per la possibilità che questi dati possano essere resi disponibili a qualsiasi “terza parte”. Schrems ha anche accusato la Commissione irlandese per la protezione dei dati (DPC), l’autorità principale di Meta nell’UE, di essere complice nel permettere la violazione delle normative GDPR.
Prospettive Normative sull’Intelligenza Artificiale
Uno dei punti principali del rapporto dell’EDPB (European Data Protection Board) è che gli operatori di grandi modelli linguistici come ChatGPT non possono giustificare la mancata conformità ai requisiti del GDPR invocando l’impossibilità tecnica. Questo è rilevante considerando il principio della “scatola nera” nei sistemi di intelligenza artificiale, dove la mancanza di trasparenza nei processi decisionali può complicare l’attribuzione di responsabilità per errori.
Il rapporto suggerisce che le aziende di IA potrebbero adottare garanzie tecniche per rendere accettabile l’uso della base giuridica degli interessi legittimi, come l’esclusione e il filtraggio di categorie di dati e la cancellazione dei dati utilizzati. Tuttavia, Meta non ha ancora chiarito come gestirà la condivisione dei dati con terze parti e se i suoi chatbot rispetteranno il “diritto all’oblio” previsto dall’articolo 17 del GDPR.
Bullet Executive Summary
In conclusione, la nuova politica di Meta sull’utilizzo dei dati per l’intelligenza artificiale ha sollevato numerose preoccupazioni riguardo alla trasparenza, al controllo e alla conformità con il GDPR. Gli utenti hanno la possibilità di opporsi a questa raccolta di dati, ma la procedura è complessa e non garantisce la completa cancellazione dei dati dai sistemi di Meta. Le denunce presentate da Noyb in 11 paesi europei potrebbero portare a ulteriori sviluppi legali e regolamentari.
Nozione base di intelligenza artificiale: L’intelligenza artificiale (IA) si riferisce alla capacità di un sistema di eseguire compiti che normalmente richiederebbero intelligenza umana, come il riconoscimento vocale, la traduzione linguistica e la presa di decisioni.
Nozione avanzata di intelligenza artificiale: La “scatola nera” dell’IA si riferisce alla mancanza di trasparenza nei processi decisionali dei modelli di IA, dove gli input e gli output sono visibili, ma il processo interno rimane opaco. Questo solleva questioni etiche e legali riguardo alla responsabilità e alla conformità normativa.
Riflettendo su queste nozioni, è importante considerare come la trasparenza e il controllo dei dati personali possano influenzare la fiducia degli utenti nelle tecnologie di intelligenza artificiale. La protezione dei dati non è solo una questione legale, ma anche un elemento cruciale per costruire un rapporto di fiducia tra le aziende tecnologiche e i loro utenti.