E-Mail: [email protected]
- Il Consiglio dell'Unione Europea ha approvato l'AI Act, la prima legge al mondo dedicata alla regolamentazione dell'IA. La normativa diventa applicabile in un massimo di 36 mesi.
- I sistemi di IA ad alto rischio dovranno rispettare requisiti stringenti con valutazioni del modello e mitigazioni dei rischi, mentre quelli a rischio limitato avranno obblighi di trasparenza leggeri.
- Il riconoscimento facciale sarà limitato alle forze dell'ordine sotto condizioni rigorose, mentre tecniche manipolative e pratiche di polizia predittiva sono vietate.
- Le sanzioni per le violazioni saranno calcolate in percentuale del fatturato annuo globale dell'azienda o in base a un importo predeterminato, a seconda di quale sia maggiore.
Il Consiglio dell’Unione Europea ha dato il via libera definitivo all’AI Act, la prima legge al mondo dedicata alla regolamentazione dell’intelligenza artificiale (IA). Questa normativa storica, approvata all’unanimità, mira a disciplinare lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA all’interno dell’Unione Europea. La legge introduce obblighi specifici per fornitori e sviluppatori di sistemi IA, basati su diversi livelli di rischio.
Le nuove regole saranno applicabili a partire da due anni dall’entrata in vigore, con alcune eccezioni. I divieti scatteranno dopo sei mesi, i controlli sui sistemi IA per finalità generali e la governance saranno attuati entro 12 mesi, mentre gli obblighi per i sistemi ad alto rischio entreranno in vigore dopo 36 mesi.
Classificazione dei rischi e obblighi per i sistemi IA
L’AI Act classifica i tipi di IA in base al livello di rischio associato. I sistemi a rischio limitato saranno soggetti a obblighi di trasparenza leggeri, mentre quelli ad alto rischio dovranno rispettare requisiti stringenti per poter accedere al mercato dell’UE. Quando il rischio è considerato inaccettabile, scattano divieti specifici. Ad esempio, le tecniche manipolative, le pratiche di polizia predittiva e il riconoscimento delle emozioni sul posto di lavoro e nelle scuole saranno vietati.
Il riconoscimento facciale sarà consentito solo alle forze dell’ordine e soggetto a condizioni rigorose. La legge introduce anche un capitolo dedicato all’IA generativa, con l’obiettivo di rispondere alla diffusione di sistemi come ChatGPT. I modelli di IA per scopi generali (GPAI) non soggetti a rischi sistemici avranno requisiti limitati di trasparenza, mentre quelli con rischi sistemici dovranno rispettare regole severe, tra cui la valutazione del modello e la mitigazione dei rischi sistemici.
Promozione dell’innovazione e protezione dei diritti fondamentali
L’AI Act fa parte della strategia digitale dell’Unione Europea, che mira a promuovere l’innovazione e la competitività nel settore dell’IA, garantendo al contempo la protezione dei consumatori, dei lavoratori e dei cittadini. Presentata dalla Commissione Europea il 21 aprile 2021, la legge si basa sul principio che l’IA deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei.
La normativa segue un approccio basato sul rischio: maggiore è il rischio di danni, più severe saranno le regole. L’AI Act promuove lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE, stimolando gli investimenti e l’innovazione. La legge prevede esenzioni per i sistemi utilizzati esclusivamente per scopi militari, di difesa e di ricerca.
Organismi di governance e sanzioni
Per garantire la corretta applicazione della legge, sono stati istituiti diversi organi di governo. Tra questi, un ufficio per l’IA all’interno della Commissione Europea, un panel scientifico di esperti indipendenti e un comitato per l’IA con rappresentanti degli Stati membri. Questi organismi avranno il compito di consigliare e assistere la Commissione e i paesi membri nell’applicazione delle nuove norme. Un forum consultivo per le parti interessate fornirà competenze tecniche al comitato per l’IA della Commissione.
Le sanzioni per le violazioni della legge saranno calcolate in percentuale del fatturato annuo globale dell’azienda colpevole nell’anno finanziario precedente, oppure in base a un importo predeterminato, a seconda di quale sia maggiore. Le PMI e le start-up responsabili di violazioni saranno soggette a sanzioni amministrative proporzionali.
Bullet Executive Summary
L’adozione dell’AI Act rappresenta una svolta significativa nel panorama della regolamentazione dell’intelligenza artificiale. Questa legge storica non solo stabilisce norme rigorose per garantire la sicurezza e l’affidabilità dei sistemi di IA, ma promuove anche l’innovazione e la competitività nel mercato unico dell’UE. La classificazione dei rischi e gli obblighi specifici per i fornitori e gli sviluppatori di IA sono progettati per proteggere i diritti fondamentali dei cittadini europei, stimolando al contempo gli investimenti nel settore.
Una nozione base di intelligenza artificiale correlata al tema dell’articolo è il concetto di machine learning, che si riferisce alla capacità delle macchine di apprendere dai dati e migliorare le loro prestazioni nel tempo senza essere esplicitamente programmate. Un’applicazione avanzata correlata è il deep learning, una sottocategoria del machine learning che utilizza reti neurali profonde per analizzare grandi quantità di dati e fare previsioni o prendere decisioni complesse.
L’AI Act non solo stabilisce un quadro normativo per l’uso sicuro ed etico dell’IA, ma stimola anche una riflessione più ampia su come queste tecnologie possono essere integrate nella nostra società in modo responsabile. È un passo avanti verso un futuro in cui l’IA non solo migliora la nostra vita quotidiana, ma lo fa in modo che rispetti i nostri valori e diritti fondamentali.