E-Mail: [email protected]
- Jan Leike ha reso note le dimissioni tramite un post su X, citando la scarsa attenzione alla sicurezza in favore di prodotti commercializzabili.
- Il team Superalignment, costituito per affrontare le sfide della sicurezza dell'IA, è stato chiuso, nonostante gli fosse stato promesso il 20% delle risorse di calcolo.
- Ilya Sutskever, cofondatore di OpenAI, ha lasciato l'azienda sottolineando la necessità di creare un'IA sicura e vantaggiosa per l'umanità. Ha votato per l'uscita di Sam Altman, ma la situazione è mutata rapidamente.
Jan Leike, uno dei ricercatori chiave di OpenAI, ha rassegnato le sue dimissioni, seguendo l’uscita del co-fondatore Ilya Sutskever. Venerdì mattina, Leike ha pubblicato su X (ex Twitter) un messaggio allarmante: secondo Leike, nell’azienda dell’intelligenza artificiale ChatGPT, “la sicurezza è stata messa in secondo piano alla creazione di prodotti scintillanti da vendere”. Le dichiarazioni di Leike sono arrivate dopo un articolo di Wired che ha rivelato lo scioglimento del team interno di OpenAI per la gestione dei rischi a lungo termine dell’IA, il “Superalignment team”.
Leike, che era a capo di questo team formato lo scorso luglio con l’obiettivo di “risolvere le sfide tecniche fondamentali” nei protocolli di sicurezza, ha espresso preoccupazione per il fatto che OpenAI stava sviluppando intelligenze artificiali capaci di ragionare meglio degli esseri umani. “Costruire macchine più intelligenti degli esseri umani è un impegno enorme”, ha aggiunto Leike. “OpenAI ha una responsabilità gigantesca sulle spalle dell’umanità”.
OpenAI è nata con l’idea di rendere i modelli di intelligenza artificiale accessibili al pubblico. Tuttavia, i modelli sono diventati prodotti ad abbonamento, e l’azienda sostiene che permettere a chiunque di accedere a modelli potenti potrebbe essere potenzialmente distruttivo. “Siamo in ritardo nel prendere sul serio le implicazioni dell’intelligenza artificiale generativa. Dobbiamo dare priorità alla preparazione alle sfide nel miglior modo possibile”, ha scritto Leike nel suo post di dimissioni, aggiungendo: “Solo allora possiamo garantire che l’IA sia un beneficio per l’umanità”.
Il Caso Ilya Sutskever: Un Addio Turbolento
La storia di OpenAI non è solo una questione di algoritmi e traguardi tecnologici, ma ha anche le tinte di una telenovela. Dopo l’addio e il reintegro del CEO Sam Altman, uno dei co-fondatori, il russo Ilya Sutskever, ha annunciato le sue dimissioni. A settembre, Sutskever aveva votato per defenestrare l’amministratore delegato, ma la storia ha preso una piega inaspettata con il ritorno di Altman.
Ilya Sutskever ha annunciato la sua decisione di lasciare OpenAI dopo quasi un decennio, definendo la traiettoria dell’azienda “miracolosa” e esprimendo fiducia che OpenAI costruirà un’AGI (Intelligenza Artificiale Generativa) sicura e vantaggiosa. Tuttavia, il suo addio non è stato facile. Sutskever era nel gruppo che, in autunno, aveva votato per estromettere Altman, una vicenda che ha assunto contorni complessi.
Alcuni ingegneri di alto profilo hanno già lasciato OpenAI per mettersi in proprio, come Dario e Daniela Amodei, che hanno fondato la startup Anthropic. Sutskever, nel suo post su X, ha lasciato intendere che potrebbe avere in mente un nuovo progetto significativo, ma non ha condiviso dettagli specifici.
La Chiusura del Team Superalignment
Sam Altman ha recentemente spento le speranze dei fan riguardo l’integrazione di un browser con ChatGPT, ma le notizie più preoccupanti riguardano la chiusura di un team interno dedicato al controllo di un’IA “superintelligente”. Il 17 maggio 2024, portali come TechCrunch e Gizmodo hanno riportato le dichiarazioni di Jan Leike, che guidava il team Superalignment insieme a Ilya Sutskever.
Il team Superalignment, formato a luglio 2023, aveva l’obiettivo di “risolvere le principali sfide tecniche al controllo dell’intelligenza artificiale superintelligente nei prossimi quattro anni”. Tuttavia, Leike ha abbandonato il progetto, esprimendo preoccupazioni sulla gestione della sicurezza da parte di OpenAI. “Costruire macchine più intelligenti degli umani è un’impresa pericolosa. Negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto ai prodotti”, ha affermato l’ex dipendente di OpenAI.
Leike ha spiegato che al team Superalignment era stato promesso il 20% delle risorse di calcolo dell’azienda, ma le richieste per ottenere anche una piccola frazione di queste risorse sono state respinte. Questo ha impedito al team di svolgere il proprio lavoro. Nonostante il periodo di turbolenze ai vertici con Sam Altman, le “scosse” in casa OpenAI non sembrano essere terminate.
Chi è Ilya Sutskever?
Ilya Sutskever, nato in Russia nel 1985, è noto per il suo contributo agli studi sull’intelligenza artificiale presso OpenAI. Sutskever ha mostrato il suo talento con il lavoro sull’apprendimento profondo delle reti neurali, che ha portato allo sviluppo di algoritmi capaci di apprendere in modo simile agli esseri umani. Ha conseguito il dottorato di ricerca all’Università di Toronto sotto la supervisione di Geoffrey Hinton, uno dei padri fondatori dell’IA moderna.
Nel 2011, Sutskever si è unito a Google Brain, il team di ricerca di Google dedicato all’IA. In Google, ha contribuito a sviluppare un’architettura neurale rivoluzionaria che ha permesso alle macchine di elaborare il linguaggio naturale, con un impatto significativo su diverse aree dell’intelligenza artificiale, tra cui la traduzione automatica.
Sutskever ha co-fondato OpenAI nel 2015. Come Chief Scientist di OpenAI, ha guidato la ricerca e lo sviluppo di modelli di IA come GPT-3, noto per la sua capacità di generare testi che sembrano scritti da una persona in carne e ossa. Sutskever è anche un divulgatore appassionato dell’IA, avendo tenuto numerosi discorsi e scritto articoli che spiegano concetti complessi di tecnologia.
Bullet Executive Summary
In conclusione, le recenti dimissioni di Jan Leike e Ilya Sutskever da OpenAI sollevano preoccupazioni significative sulla sicurezza e la gestione dei rischi nell’ambito dell’intelligenza artificiale. Leike ha evidenziato come la sicurezza sia stata messa in secondo piano rispetto alla creazione di prodotti commerciali, mentre Sutskever ha espresso timori sui possibili rischi legati alla tecnologia. Questi eventi sottolineano l’importanza di un equilibrio tra innovazione rapida e responsabilità nella gestione dei rischi associati allo sviluppo di tecnologie potenti.
*Nozione base di intelligenza artificiale correlata: L’intelligenza artificiale generativa (AGI) è un tipo di IA che mira a replicare la capacità umana di comprendere, apprendere e applicare conoscenze in modo autonomo. Questo tipo di IA ha il potenziale di rivoluzionare molteplici settori, ma comporta anche rischi significativi se non gestito correttamente.
Nozione avanzata di intelligenza artificiale correlata:* Il concetto di “superintelligenza” si riferisce a un’IA che supera di gran lunga le capacità cognitive umane in tutti i domini. La gestione e il controllo di una superintelligenza rappresentano una delle sfide più complesse e pericolose nell’ambito dell’IA, richiedendo risorse significative e un approccio rigoroso alla sicurezza e all’etica.
Questi sviluppi ci invitano a riflettere profondamente sul futuro dell’intelligenza artificiale e sull’importanza di garantire che le tecnologie emergenti siano sviluppate e implementate in modo sicuro e responsabile.