E-Mail: [email protected]
- Il 21 maggio 2024, il Consiglio dell'Unione Europea ha approvato l'AI Act.
- L'AI Act classifica i sistemi di intelligenza artificiale in quattro gruppi di rischio, dal rischio inaccettabile al rischio basso.
- Previste sanzioni amministrative che devono essere effettive, proporzionate e dissuasive.
La Comunità Europea ha dimostrato un’attenzione crescente nel regolamentare l’uso dell’intelligenza artificiale (IA). Inizialmente, l’Unione Europea ha adottato atti di soft law per affrontare il tema, ma successivamente è stata la prima a introdurre una legge specifica sull’IA, l’AI Act. Questo atto normativo mira a individuare e regolare i rischi derivanti dall’uso dei sistemi di intelligenza artificiale, promuovendo un’innovazione responsabile in Europa. L’Unione ha sottolineato la necessità di una nuova posizione regolamentare in diversi ambiti, introducendo regole che rispondano alle nuove esigenze derivanti dall’avvento delle nuove tecnologie.
Responsabilità nella robotica per l’intelligenza artificiale ante AI Act in Unione Europea
Nel 2017, il Parlamento Europeo ha affrontato la materia della responsabilità civile nella robotica attraverso la Risoluzione del 16 febbraio. Questo documento proponeva di mantenere un approccio tradizionale, integrando le norme esistenti con novità come l’introduzione di un sistema di registrazione dei robot, un’assicurazione obbligatoria e un fondo di garanzia per i danni causati da robot non assicurati. Il Parlamento ha evidenziato che le norme tradizionali non erano sufficienti per attivare la responsabilità per danni causati da robot, poiché non consentivano di determinare il soggetto responsabile del risarcimento né di esigere la riparazione dei danni causati.
La Commissione Europea, nel 2020, ha pubblicato il Libro bianco sull’IA, proponendo di coniugare lo sviluppo della nuova tecnologia con i valori europei. Ha considerato potenzialmente applicabili ai sistemi IA emergenti le norme vigenti dell’UE in materia di sicurezza dei prodotti e responsabilità per danno da prodotti difettosi. Tuttavia, ha riconosciuto che nel caso di sistemi basati sull’IA, come le auto a guida autonoma, può essere difficile provare il difetto del prodotto e dimostrare il nesso di causalità tra difetto e danno.
Soluzione proposta dall’AI Act
Il 21 maggio 2024, dopo il via libera del Parlamento Europeo, il Consiglio dell’Unione Europea ha approvato l’Artificial Intelligence Act, la prima legge sull’intelligenza artificiale che potrebbe costituire uno standard globale per la regolamentazione dell’IA. L’AI Act propone un’ampia definizione di sistema di IA e segue un approccio basato sul rischio, dove maggiore è il rischio che i sistemi di IA causino danni, più severe sono le regole.
I sistemi di intelligenza artificiale sono suddivisi in quattro gruppi in base al livello di rischio:
1. *Rischio inaccettabile: riguarda quei sistemi che violano i valori europei e sono vietati all’interno dell’Unione, come i programmi di identificazione biometrica in luoghi pubblici.
2. Rischio alto: si riferisce a sistemi che rappresentano un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche e devono rispettare standard elevati di sicurezza, affidabilità e trasparenza.
3. Rischio limitato: include sistemi come i chatbot, per i quali sono previsti obblighi di trasparenza per garantire agli utenti consapevolezza del funzionamento del sistema di IA.
4. Rischio basso: riguarda sistemi per i quali non è prevista alcuna restrizione.
L’AI Act prevede che i fornitori, installatori, importatori, distributori e produttori dei suddetti sistemi siano responsabili per i danni derivanti dall’utilizzo e dal funzionamento dei sistemi di IA. Le sanzioni previste all’articolo 99 includono sanzioni amministrative pecuniarie che devono essere “effettive, proporzionate e dissuasive”, tenendo conto degli interessi delle PMI, delle start-up e della sostenibilità economica.
Responsabilità civile nell’uso dei sistemi di IA
La diffusione di dispositivi di intelligenza artificiale comporta rischi per gli utenti, dovuti a potenziali difetti di progettazione, acquisizione di dati e limiti del machine learning. Il tema della responsabilità civile per danni derivanti dall’uso e dalla produzione di device intelligenti è oggetto di ampio dibattito. Nel nostro ordinamento, il tema della responsabilità civile per danni derivanti dall’uso e dalla produzione dell’intelligenza artificiale non è disciplinato da regole specifiche, risultando oggetto di indagine tra gli studiosi di diritto.
Il Parlamento Europeo, con la Risoluzione del 20 ottobre 2020, ha raccomandato alla Commissione di elaborare un regolamento sulla responsabilità per il funzionamento dei sistemi di intelligenza artificiale. La proposta di regolamento del 21 aprile 2021, nota come “The Artificial Intelligence Act”, classifica i sistemi di intelligenza artificiale basati sul rischio e prevede due regimi di responsabilità: oggettiva per danni provocati da sistemi ad alto rischio e per colpa presunta per danni causati dagli altri sistemi di intelligenza artificiale.
Bullet Executive Summary
L’intelligenza artificiale sta rapidamente trasformando il nostro mondo, e con essa emergono nuove sfide e responsabilità. L’AI Act rappresenta un passo significativo verso una regolamentazione che bilancia innovazione e sicurezza, garantendo che i benefici dell’IA siano accessibili senza compromettere i valori fondamentali dell’Unione Europea. La responsabilità civile nell’uso dei sistemi di IA è un tema complesso che richiede un approccio equilibrato tra protezione dei consumatori e incentivazione dell’innovazione.
Una nozione base di intelligenza artificiale correlata al tema è il machine learning, che consente ai sistemi di IA di apprendere dai dati e migliorare le loro prestazioni nel tempo. Una nozione avanzata è il deep learning*, una sottocategoria del machine learning che utilizza reti neurali profonde per analizzare grandi quantità di dati e fare previsioni accurate. Questi concetti sono fondamentali per comprendere come i sistemi di IA possono evolvere e adattarsi, ma anche per riconoscere i rischi associati alla loro autonomia e complessità.
In conclusione, mentre l’IA continua a evolversi, è essenziale che le normative si adattino per garantire un uso responsabile e sicuro di queste tecnologie. Il futuro dell’IA dipende dalla nostra capacità di bilanciare innovazione e responsabilità, assicurando che la tecnologia serva l’umanità senza comprometterne i valori fondamentali.
- Sito ufficiale dell'Unione Europea sulla strategia europea per l'intelligenza artificiale, che fornisce informazioni sul regolamento sull'IA e sulla sua applicazione
- Pagina ufficiale del Parlamento Europeo sull'intelligenza artificiale, con informazioni sulla regolamentazione e sulle attività del Parlamento in questo settore.
- Sito ufficiale dell'Unione Europea che presenta il quadro normativo per l'intelligenza artificiale e l'AI Act