E-Mail: [email protected]
- 13 firmatari: La lettera è stata firmata da 13 persone, tra cui sette ex dipendenti di OpenAI, quattro dipendenti attuali di OpenAI, un ex dipendente di Google DeepMind e un dipendente attuale di Google DeepMind.
- Rischi evidenziati: La lettera indica rischi come l'ulteriore radicamento delle disuguaglianze, la manipolazione della disinformazione e la possibile perdita di controllo sui sistemi di IA autonomi.
- Richieste di trasparenza: Le aziende sono sollecitate a non stipulare accordi di riservatezza che impediscano la critica e a promuovere processi anonimi per sollevare preoccupazioni relative al rischio.
Un gruppo di attuali ed ex dipendenti di OpenAI e Google DeepMind ha pubblicato una lettera aperta esprimendo preoccupazioni sui pericoli dell’intelligenza artificiale avanzata e denunciando la mancanza di supervisione delle aziende che sviluppano questa tecnologia. I dipendenti hanno identificato numerosi rischi legati allo sviluppo dell’IA, tra cui l’ulteriore radicamento delle disuguaglianze, la manipolazione della disinformazione e la possibile perdita di controllo sui sistemi di intelligenza artificiale autonomi. Questi rischi, secondo la lettera, potrebbero portare all’estinzione umana.
La preoccupazione per i potenziali danni dell’intelligenza artificiale esiste da decenni, ma il boom artificiale degli ultimi anni ha intensificato queste paure, costringendo i regolatori a cercare di mettersi al passo con i progressi tecnologici. Le aziende di intelligenza artificiale hanno dichiarato il loro impegno per lo sviluppo sicuro della tecnologia, ma i ricercatori e i dipendenti hanno messo in guardia contro la mancanza di supervisione: “Ci auguriamo che i rischi possano essere mitigati con una guida sufficiente da parte della comunità scientifica, dei politici e del pubblico. Le aziende che sviluppano IA hanno incentivi finanziari per avanzare rapidamente e spesso evitano di condividere informazioni sulle misure di protezione e sui livelli di rischio”.
La lettera sottolinea che non si può fare affidamento sulla volontà delle aziende di divulgare volontariamente informazioni, e spetta agli attuali ed ex dipendenti parlare apertamente. Finché non ci sarà un controllo governativo efficace sulle società, i dipendenti attuali ed ex “sono gli unici che possono ritenerle responsabili nei confronti del pubblico”. Tuttavia, ampi accordi di riservatezza impediscono loro di esprimere preoccupazioni non direttamente alle aziende, e potrebbero non affrontare i problemi. Le tutele ordinarie per gli informatori sono insufficienti, poiché si concentrano su attività illegali, mentre molti dei rischi evidenziati non sono ancora regolamentati.
Richieste alle Società
Nella lettera, i dipendenti chiedono alle società di intelligenza artificiale di adottare diverse misure per migliorare la trasparenza e la sicurezza. Le richieste includono che le società non stipuleranno né applicheranno accordi che proibiscano la “denigrazione” o la critica per preoccupazioni al rischio, né si vendicheranno ostacolando il vantaggio economico acquisito a seguito di critiche al rischio. Inoltre, le aziende dovrebbero facilitare un processo anonimo e verificabile per permettere ai dipendenti attuali ed ex di sollevare preoccupazioni relative al rischio al consiglio di amministrazione, alle autorità di regolamentazione o a un’organizzazione indipendente con competenze.
Le aziende dovrebbero promuovere una cultura di critica aperta che consenta ai dipendenti attuali ed ex di sollevare preoccupazioni sui rischi delle tecnologie al pubblico, al consiglio di amministrazione, alle autorità di regolamentazione o a un’organizzazione indipendente, proteggendo al contempo i segreti commerciali e gli interessi di proprietà intellettuale. Infine, le aziende non dovrebbero effettuare ritorsioni contro i dipendenti attuali ed ex che condividano informazioni riservate relative al rischio dopo che altri processi sono falliti.
Commento di OpenAI
Questa lettera arriva dopo che due dipendenti di OpenAI, il co-fondatore Ilya Sutskever e il ricercatore principale sulla sicurezza Jan Leike, si sono dimessi dall’azienda il mese scorso. Dopo la loro partenza, Leike ha affermato che OpenAI stava “abbandonando la cultura della sicurezza a favore di prodotti luccicanti”. Sutskever e Leike non hanno firmato la lettera aperta, ma la loro uscita ha invogliato altri ex dipendenti di OpenAI a parlare apertamente.
La lettera è stata firmata da 13 persone, tra cui sette ex dipendenti di OpenAI, quattro dipendenti attuali di OpenAI, un ex dipendente di Google DeepMind e un dipendente attuale di Google DeepMind. OpenAI ha minacciato i dipendenti di perdere i diritti acquisiti per aver parlato, costringendoli a firmare accordi di riservatezza (NDA) restrittivi che impediscono loro di esprimere critiche. “Ampi accordi di riservatezza impediscono di esprimere preoccupazioni, tranne che le aziende potrebbero non riuscire ad affrontare i problemi”, ha dichiarato un portavoce di OpenAI.
Google ha rifiutato di commentare, mentre Lindsey Held, portavoce di OpenAI, ha dichiarato che la società è “orgogliosa dell’esperienza nel fornire sistemi di intelligenza artificiale capaci e sicuri” e crede nell’approccio scientifico per affrontare il rischio. Held ha affermato che la società è d’accordo che “un dibattito rigoroso è fondamentale per l’importanza della tecnologia” e continuerà a impegnarsi “con governi, società civile e altre comunità nel mondo”.
Daniel Kokotajlo, ex ricercatore della divisione governance di OpenAI e uno degli organizzatori del gruppo che ha firmato la lettera, ha dichiarato: “Il mondo non è pronto, noi non siamo pronti, e sono preoccupato che stiamo andando avanti a prescindere, razionalizzando le nostre azioni”. Kokotajlo e il suo gruppo sono scettici sul fatto che l’autoregolamentazione da sola sia sufficiente per preparare il mondo ai potenti sistemi di intelligenza artificiale. Chiedono ai legislatori di regolamentare il settore. “È necessaria una struttura di governance trasparente e democraticamente responsabile nel processo. Invece di diverse società private che gareggiano e mantengono tutto segreto”.
Crescente Preoccupazione
Oltre alle aziende che hanno portato sul mercato soluzioni basate su AI, Apple si prepara ad annunciare funzionalità di intelligenza artificiale per iOS 18 e altri sistemi operativi. L’annuncio arriverà durante il keynote di apertura della WWDC il prossimo 10 giugno. Apple, secondo indiscrezioni, sta sviluppando la propria AI “on device” su server proprietari e ha firmato un accordo con OpenAI per integrare le funzionalità di ChatGPT in iOS 18.
La pubblicazione della lettera evidenzia la crescente preoccupazione tra i professionisti del settore sui rischi dell’intelligenza artificiale e la necessità di maggiore trasparenza e supervisione. La comunità globale dovrà affrontare sfide significative per garantire uno sviluppo dell’IA sicuro ed etico. Il Consiglio dell’Unione Europea ha dato il via libera all’AI Act, le prime norme mondiali sull’intelligenza artificiale che disciplinano lo sviluppo, l’immissione sul mercato e l’utilizzo in Europa.
Bullet Executive Summary
La lettera aperta dei dipendenti di OpenAI e Google DeepMind rappresenta un grido d’allarme sulla necessità di maggiore controllo e sicurezza nello sviluppo dell’intelligenza artificiale. La mancanza di supervisione e la cultura della segretezza nelle grandi aziende del settore sono preoccupazioni che non possono essere ignorate. Le richieste dei dipendenti per una maggiore trasparenza e per la creazione di processi anonimi per sollevare preoccupazioni sono passi fondamentali verso un futuro più sicuro.
Una nozione base di intelligenza artificiale correlata a questo tema è il concetto di bias algoritmico, che si riferisce alla possibilità che i modelli di IA possano perpetuare o amplificare pregiudizi esistenti nei dati di addestramento. Questo è particolarmente rilevante quando si parla di disuguaglianze e manipolazione della disinformazione.
Una nozione avanzata di intelligenza artificiale applicabile al tema dell’articolo è il concetto di allineamento dell’IA, che riguarda la progettazione di sistemi di intelligenza artificiale i cui obiettivi e comportamenti siano in linea con i valori umani. Questo è cruciale per evitare scenari in cui l’IA possa agire in modi imprevisti o dannosi.
In conclusione, è evidente che la comunità globale deve affrontare con urgenza le questioni sollevate dai dipendenti di OpenAI e Google DeepMind. La trasparenza, la supervisione e la regolamentazione sono elementi chiave per garantire che l’intelligenza artificiale possa essere sviluppata in modo sicuro ed etico, a beneficio di tutta l’umanità.
- Sito ufficiale di OpenAI, società di intelligenza artificiale che sviluppa tecnologie come ChatGPT, con informazioni sulla missione, la tecnologia e la ricerca.
- Il sito ufficiale di DeepMind, sezione sulla sicurezza dell'intelligenza artificiale, contiene informazioni utili sulla gestione dei rischi e della trasparenza nello sviluppo di tecnologie avanzate