E-Mail: [email protected]
- La legge entrerà pienamente in vigore il 2 agosto 2026, con divieti sui sistemi di AI a rischio inaccettabile attivi dal febbraio 2025.
- La legislazione classifica i sistemi di AI in quattro livelli di rischio: nessun rischio, rischio minimo, rischio elevato e sistemi vietati.
- Oltre 700 aziende hanno sottoscritto il Patto per l'AI, impegnandosi a conformarsi tempestivamente alla legge.
- Investimenti nell'AI aumenteranno da 1 miliardo di euro nel 2024 a 20 miliardi di euro entro il 2030.
Entra in vigore oggi la legislazione europea sull’intelligenza artificiale, la prima regolamentazione completa concepita per garantire che l’IA sviluppata nell’UE sia affidabile e con garanzie per la tutela dei diritti fondamentali dei cittadini. Il regolamento, emanato dalla Commissione europea, mira a stabilire un mercato interno armonizzato per l’IA nell’UE, incoraggiando l’adozione della tecnologia e creando un ambiente favorevole all’innovazione e agli investimenti.
Secondo Margrethe Vestager, vicepresidente dell’esecutivo comunitario, l’intelligenza artificiale ha il potenziale per cambiare profondamente la società e l’economia europea, promettendo benefici significativi per i cittadini. “L’approccio europeo alla tecnologia mette i cittadini al primo posto e garantisce che i diritti di tutti siano preservati,” ha dichiarato Vestager.
Thierry Breton, commissario al mercato interno, ha sottolineato che l’entrata in vigore della legislazione sull’IA rappresenta una pietra miliare nella leadership europea per un’IA affidabile. “Con questa legislazione, la democrazia europea ha messo in atto un quadro efficace, proporzionato e pionieristico a livello globale per l’IA, combattendo i rischi e creando un trampolino di lancio per le start-up europee dell’IA,” ha affermato Breton.
Le norme della legislazione sull’IA entreranno in vigore il 2 agosto 2026. I divieti sui sistemi di intelligenza artificiale a rischio inaccettabile entreranno in vigore dopo sei mesi, mentre le regole per i modelli di intelligenza artificiale per scopi generali saranno operative dopo 12 mesi. Durante il periodo transitorio prima della piena attuazione, la Commissione ha lanciato il Patto AI, invitando gli sviluppatori di IA ad adottare volontariamente gli obblighi chiave della legislazione prima delle scadenze legali.
La struttura della legge e i livelli di rischio
La legge europea sull’uso dell’Intelligenza Artificiale, entrata in vigore oggi, è considerata la prima legislazione a regolamentare l’IA in base ai rischi. I legislatori hanno approvato la legge a marzo, con la pubblicazione nella Gazzetta ufficiale della Commissione europea a luglio, avviando così il processo per la sua entrata in vigore.
“La legge guiderà lo sviluppo dell’IA in modo che i cittadini europei possano fidarsi di essa. Fornirà supporto alle PMI e alle startup europee per portare sul mercato soluzioni di intelligenza artificiale all’avanguardia,” ha scritto sui social la presidente della Commissione europea Ursula von der Leyen.
L’AI Act dell’UE assegna regole alle aziende e ai sistemi di intelligenza artificiale in base a quattro livelli di rischio, che determinano le scadenze applicabili. I quattro tipi di rischio sono: nessun rischio, rischio minimo, rischio elevato e sistemi di AI vietati. L’UE vieterà alcune pratiche a partire dal febbraio 2025, come quelle che manipolano il processo decisionale dell’utente o espandono i database di riconoscimento facciale attraverso lo scraping di Internet.
Altri sistemi di AI ad alto rischio, come quelli che raccolgono dati biometrici utilizzati per infrastrutture critiche o decisioni in ambito occupazionale, saranno soggetti a norme più severe. Le aziende dovranno mostrare i dati di addestramento dell’AI e fornire prova della supervisione umana, tra altri requisiti.
Secondo Thomas Regnier, portavoce della Commissione europea, l’85% delle aziende di AI rientra nella seconda categoria, del “rischio minimo”, che richiede una regolamentazione minima. Le aziende avranno tra 3 e 6 mesi per conformarsi alle nuove norme, a seconda delle dimensioni dell’azienda e del ruolo dell’AI nel loro flusso di lavoro.
- 🚀 Una grande opportunità per l'innovazione in Europa......
- ⚠️ Questa legge potrebbe rallentare lo sviluppo tecnologico......
- 🔍 Un'analisi alternativa del rischio nei droni con IA......
Il ruolo della Commissione e il Patto AI
La Commissione europea ha istituito un Ufficio AI per controllare il rispetto delle regole per i modelli di intelligenza artificiale. Sessanta membri del personale interno della Commissione sono stati trasferiti all’ufficio, e altri 80 candidati esterni saranno assunti entro il prossimo anno, secondo Regnier. Un comitato per l’AI, composto da delegati di alto livello dei 27 Stati membri dell’UE, ha gettato le basi per l’attuazione della legge durante la prima riunione di giugno.
Il consiglio lavorerà con l’Ufficio AI per garantire l’applicazione armonizzata della legge nell’UE. Oltre 700 aziende hanno sottoscritto il Patto per l’AI, impegnandosi a conformarsi tempestivamente alla legge. Gli Stati membri dell’UE hanno tempo fino al prossimo agosto per istituire autorità nazionali che supervisionino l’applicazione delle norme.
La Commissione europea sta preparando un aumento degli investimenti nell’AI, con un finanziamento che passerà da 1 miliardo di euro nel 2024 a 20 miliardi di euro entro il 2030. “Si dice che l’UE sia puramente normativa e blocchi l’innovazione. Questo non è corretto,” ha detto Regnier. “La legislazione non serve a dissuadere le aziende dal lanciare sistemi, anzi. Vogliamo che operino nell’UE e vogliamo proteggere i nostri cittadini e imprese.”
Per la Commissione, le sfide principali riguardano la regolamentazione delle future tecnologie di AI. Un sistema basato sul rischio permetterà di regolamentare rapidamente nuovi sistemi. Tuttavia, sono necessarie ulteriori revisioni. Risto Uuk, responsabile della ricerca europea presso il Future of Life Institute, ritiene che la Commissione europea debba fornire chiarimenti su determinate tecnologie rischiose. Ad esempio, l’uso di droni per fotografare la rete idrica che necessita di riparazioni “non sembra super rischioso”, nonostante la categoria ad alto rischio della legislazione.
Consultazione pubblica e inclusività
La Commissione europea ha deciso di avviare una consultazione pubblica per raccogliere pareri da vari stakeholder nella prossima bozza del codice di condotta per i modelli di intelligenza artificiale generica (GPAI), uno dei pilastri dell’AI Act. La consultazione, aperta fino al 10 settembre, verterà su settori critici come la trasparenza, le norme sul copyright, l’identificazione e la valutazione del rischio, la mitigazione del rischio e la gestione interna del rischio.
Un gruppo di europarlamentari, con il relatore dell’AI Act Brando Benifei, ha scritto alla Commissione per rendere più inclusivo il processo di stesura del codice di condotta, influenzando la governance globale dell’Intelligenza Artificiale. La Commissione sembrava inizialmente orientata a coinvolgere solo i fornitori di modelli GPAI interessati, rischiando di “consentire loro di definire le pratiche concrete”. Tuttavia, l’Ufficio europeo per l’IA ha chiesto di presentare contributi a un’ampia gamma di soggetti interessati, tra cui il mondo accademico, esperti indipendenti, rappresentanti del settore, fornitori di modelli di IA, organizzazioni della società civile, titolari di diritti e autorità pubbliche.
L’AI Act prevede un approccio a due livelli per i GPAI, con modelli a rischi sistemici soggetti a obblighi più stringenti.
Bullet Executive Summary
L’entrata in vigore della legge europea sull’intelligenza artificiale rappresenta un passo significativo verso la regolamentazione di una tecnologia che promette di trasformare la società e l’economia. Con un approccio basato sui rischi, la legislazione mira a garantire che l’IA sia sviluppata e utilizzata in modo sicuro e responsabile, proteggendo i diritti fondamentali dei cittadini. La Commissione europea ha istituito un Ufficio AI per monitorare l’applicazione delle norme e ha avviato una consultazione pubblica per rendere il processo di stesura del codice di condotta più inclusivo.
In un panorama in cui l’intelligenza artificiale sta diventando sempre più pervasiva, è fondamentale comprendere le basi di questa tecnologia. L’IA si basa su algoritmi che apprendono dai dati per fare previsioni o prendere decisioni. Tuttavia, l’implementazione di sistemi di IA richiede una supervisione umana e una regolamentazione adeguata per evitare abusi e garantire che i benefici siano equamente distribuiti.
Un aspetto avanzato dell’IA che merita attenzione è l’intelligenza artificiale generativa (GenAI), che può creare contenuti nuovi e originali. Questa tecnologia ha un potenziale enorme, ma solleva anche questioni etiche e legali, come il rispetto delle leggi sul copyright e la protezione della cybersecurity. La regolamentazione dell’IA generativa è quindi essenziale per garantire che venga utilizzata in modo responsabile e sicuro.
In conclusione, la nuova legislazione europea sull’IA rappresenta un passo avanti significativo verso un futuro in cui l’intelligenza artificiale può essere utilizzata in modo sicuro e responsabile, proteggendo i diritti dei cittadini e promuovendo l’innovazione.
- Comunicato stampa ufficiale della Commissione europea sull'accordo politico sull'AI Act
- Comunicato stampa ufficiale della Commissione Europea sull'approvazione dell'AI Act
- Sito ufficiale della Commissione europea sull'Artificial Intelligence Act, con informazioni dettagliate sulla legislazione e sull'implementazione
- Intervento della Commissione europea sulla regolamentazione dell'intelligenza artificiale in UE