E-Mail: [email protected]
- Il parere della Commissione Europea evidenzia discrepanze tra il disegno di legge italiano e l'AI Act europeo.
- Richiesta di mantenere l'indipendenza delle autorità nazionali competenti, simile alla direttiva UE 2016/680.
- Sottolineata la necessità di limitare gli obblighi informativi in ambito sanitario solo all'impiego dell'IA.
La Commissione Europea ha recentemente emesso un parere circostanziato riguardante il disegno di legge italiano sull’intelligenza artificiale, attualmente in fase di esame al Senato. Questo parere mette in luce le discrepanze tra il disegno di legge italiano e l’AI Act europeo, suggerendo un allineamento per evitare restrizioni eccessive e garantire l’indipendenza delle autorità di verifica. La Commissione ha sottolineato l’importanza di non limitare l’uso di sistemi di IA non classificati come “ad alto rischio” nelle professioni intellettuali e ha invitato a un utilizzo più ampio nell’ambito giudiziario, anche per sistemi classificati come “ad alto rischio” purché non rappresentino un rischio significativo.
Inoltre, il parere richiama l’attenzione sulla necessità di mantenere un livello di indipendenza delle autorità nazionali competenti, simile a quello previsto dalla direttiva UE 2016/680. La Commissione ha anche espresso preoccupazioni riguardo agli obblighi informativi in ambito sanitario, suggerendo che dovrebbero essere limitati all’impiego dell’IA senza estenderli ai vantaggi diagnostici e terapeutici. Alla fine, la valutazione critica la richiesta di identificare i contenuti creati dall’intelligenza artificiale con marcatori visibili, giudicando che tale obbligo sia ridondante rispetto a quello già stabilito dalle normative europee.
Quadro Etico e Normativo dell’Intelligenza Artificiale nell’Unione Europea
Il Parlamento Europeo ha introdotto una nuova risoluzione che traccia un quadro etico per guidare l’intelligenza artificiale, la robotica e le tecnologie collegate. L’obiettivo è garantire uno sviluppo tecnologico rispettoso dei diritti umani fondamentali così come dei valori centrali dell’Unione Europea. La decisione mette in evidenza quanto sia vitale adottare un metodo armonioso per evitare incoerenze normative mentre si punta sull’affidabilità delle innovazioni legate all’intelligenza artificiale.
Il sistema normativo proposto poggia su pilastri quali trasparenza, spiegabilità, equità e responsabilità, con lo scopo principale di salvaguardare i cittadini dagli eventuali rischi correlati alle IA. In aggiunta, il Parlamento Europeo ha sottolineato la rilevanza della diffusione del sapere digitale nel sistema educativo per accrescere la conoscenza degli utenti riguardo ai vantaggi e alle sfide inerenti all’IA. Si riconosce inoltre nella risoluzione il contributo fondamentale dato dalle PMI e dalle start-up nell’ambito innovativo; essa spinge pertanto per una misura equilibrata che ne favorisca lo sviluppo creativo.
- 👍 Grande passo avanti per l'allineamento normativo europeo......
- 👎 Troppa burocrazia rallenta l'innovazione tecnologica in Italia......
- 🤔 Che impatto avrà davvero XAI sul quadro etico?......
Criticità del Sistema di Responsabilità per l’Intelligenza Artificiale
L’organo di vigilanza europeo per la protezione dei dati personali, noto come GEPD, ha manifestato allarme rispetto al sistema responsabilistico applicabile ai sistemi d’intelligenza artificiale non contrattuali. Le direttive europee proposte in quest’ambito mostrano carenze significative, specialmente nel coordinarsi con il GDPR e nel chiarire cosa costituisce un danno meritevole di risarcimento. Il GEPD sottolinea che le regole attualmente in vigore riguardanti la colpa potrebbero risultare inappropriate nell’affrontare i danni prodotti dagli algoritmi IA data la loro complessità e mancanza di trasparenza.
Il garante esorta affinché gli individui lesi dall’intelligenza artificiale creata o impiegata dalle istituzioni comunitarie godano dello stesso livello protezionistico riservato ai danneggiamenti provenienti da soggetti privati. A tal proposito, incoraggia un allargamento delle tutele procedurali a ogni caso coinvolgente l’intelligenza artificiale senza differenziarne il grado di rischio e si impegna affinché le informazioni condivise siano intellegibili.
Conclusioni e Riflessioni sull’Intelligenza Artificiale
La sfida complessa e coinvolgente dell’intelligenza artificiale segna il nostro tempo attuale. Normare questa tecnologia richiede equilibrio fra innovazione continua e protezione dei diritti basilari degli individui. La Commissione Europea assieme al Parlamento Europeo sta delineando una cornice legislativa volta a promuovere un impiego etico, prudente ed equo dell’IA, salvaguardando i diritti della cittadinanza.
Il principio centrale legato all’intelligenza artificiale è conosciuto come machine learning; attraverso esso, i sistemi possono apprendere dai dati migliorandosi con l’esperienza acquisita col trascorrere del tempo. Tale meccanismo risulta cruciale nell’elaborazione di applicazioni d’IA capaci d’adattarsi a circostanze impreviste o complesse.
Avanzato è invece il concetto di explainable AI (XAI), il quale concerne la facoltà delle macchine intelligenti nel fornire giustificazioni comprensibili sulle proprie scelte operative ed esecutive, particolarmente rilevante in quei contesti ove tali scelte potrebbero incidere sensibilmente sui diritti umani o sulla qualità della vita individuale. Esaminando questi fattori, risulta palese che l’intelligenza artificiale ha la capacità di rivoluzionare profondamente il nostro contesto sociale. Nonostante ciò, è fondamentale che il progresso e l’applicazione dell’IA seguano linee guida etiche e normative ben definite, per garantire un accesso equo ai suoi benefici e una gestione efficace dei pericoli connessi.