E-Mail: redazione@bullet-network.com
- Il DDL n. 2316 approvato al Senato il 20 marzo.
- Molteplicità di enti, con approccio diverso dall'AI Act europeo.
- Pena massima di 5 anni per l'illecita diffusione di contenuti IA.
L’Italia di fronte alla sfida dell’Intelligenza Artificiale: Un bilanciamento tra innovazione e regolamentazione
L’avvento dell’intelligenza artificiale (IA) rappresenta una trasformazione epocale per la società contemporanea. Come ha sottolineato Thierry Breton, Commissario europeo per il Mercato Interno, “L’IA non è solo tecnologia, è il futuro della nostra società: regolarla bene significa costruirlo bene”. In questo contesto, l’Italia si trova di fronte alla sfida di definire un quadro normativo che sappia bilanciare l’innovazione tecnologica con la tutela dei diritti e delle libertà fondamentali.
Mentre l’Europa si muove verso l’AI Act, l’Italia ha compiuto un passo significativo con il disegno di legge n. 2316, approvato dal Senato il 20 marzo. Questo testo, ora sotto esame da parte della Camera dei Deputati, intende definire un’impalcatura legislativa nazionale per l’introduzione dell’IA, pur presentando alcune problematiche che richiedono un’analisi più attenta. Il DDL si propone di aderire ai principi europei di centralità dell’uomo, trasparenza e garanzia di sicurezza. Tuttavia, la sua attuazione pratica potrebbe portare a un sistema frammentario e lasciare irrisolte questioni essenziali.
Governance frammentata e incertezze applicative
Uno dei punti critici del DDL è la governance, delegata a una molteplicità di enti: l’Agenzia per l’Italia Digitale (AgID), l’Agenzia per la Cybersicurezza Nazionale (ACN), il Garante per la protezione dei dati personali, la Banca d’Italia, l’Istituto per la vigilanza sulle assicurazioni (IVASS) e la Commissione nazionale per le società e la borsa (CONSOB). Il coordinamento tra questi enti è previsto tramite un Comitato interistituzionale. Questa struttura complessa contrasta con l’approccio europeo dell’AI Act, che prevede un unico punto di contatto per Stato membro. La molteplicità di attori potrebbe generare rallentamenti e incertezze applicative, soprattutto in settori sensibili come sanità, lavoro e giustizia.
Un problema fondamentale è altresì costituito dall’articolo che norma l’utilizzo dell’IA nell’ambito delle attività professionali di natura intellettuale. La priorità dell’operato umano appare un concetto accettabile, ma la sua declinazione tecnica risulta imprecisa. In una fase iniziale della regolamentazione dell’IA, sarebbe più opportuno introdurre un quadro operativo di riferimento, con linee guida, standard deontologici e protocolli settoriali, piuttosto che irrigidire i confini con formule numeriche. Gli ordini professionali potrebbero svolgere un ruolo attivo, definendo checklist operative o modelli di dichiarazione sull’uso dell’IA, da allegare agli atti o alle prestazioni.

Privacy, cybersicurezza e il ruolo delle agenzie
Il DDL dedica particolare attenzione alla privacy e alla cybersicurezza. L’articolo 4 stabilisce che l’utilizzo di sistemi di IA nell’informazione deve avvenire nel rispetto della libertà e del pluralismo dei mezzi di comunicazione, della libertà di espressione, dell’obiettività, completezza, imparzialità e lealtà dell’informazione. Si sancisce, infatti, che l’impiego dei sistemi di IA nel campo dell’informazione debba avvenire salvaguardando la libertà e la pluralità dei canali comunicativi, la libertà di manifestazione del pensiero, l’oggettività, la completezza, l’equità e la correttezza delle notizie. Viene inoltre garantito il trattamento lecito, corretto e trasparente dei dati personali, in conformità con il GDPR. Un aspetto interessante è la disciplina dell’accesso ai sistemi di IA da parte dei minori, che riprende in maniera speculare quella prevista per l’accesso ai social network.
L’articolo 6 affronta le questioni di sicurezza e difesa nazionale, sottolineando che le attività di ricerca, sperimentazione, sviluppo, adozione, applicazione e utilizzo di sistemi e modelli di IA, qualora svolte per scopi di sicurezza nazionale o di difesa nazionale dalle forze armate, devono avvenire nel rispetto dei principi generali di correttezza, attendibilità, sicurezza, qualità, appropriatezza e trasparenza. L’articolo 16, inoltre, concepisce l’IA come una risorsa per il rafforzamento della cybersicurezza nazionale.
Il sistema di governance delineato dal DDL prevede un ruolo centrale per l’ACN e l’AgID. L’ACN è incaricata di vigilare sull’applicazione dell’IA, con poteri ispettivi e sanzionatori, mentre l’AgID si occupa dell’esecuzione della strategia nazionale, della promozione dell’innovazione e dello sviluppo dell’IA, definendo procedure e quant’altro di utile per esercitare le funzioni di valutazione, accreditamento e monitoraggio. Le due agenzie dovranno garantire l’applicazione della normativa nazionale ed europea in materia di IA, istituendo e gestendo congiuntamente spazi di sperimentazione.
Verso una regolamentazione efficace: trasparenza, responsabilità e formazione
Il DDL introduce una serie di principi fondanti, tra cui trasparenza, proporzionalità, sicurezza, valorizzazione del dato, protezione dei dati personali, riservatezza, robustezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità. Si pone enfasi sul potere decisionale dell’essere umano, sulla protezione da eventuali danni e sull’accesso equo alle tecnologie per le persone con disabilità. Relativamente ai settori dell’informazione e del commercio, i sistemi di IA dovranno salvaguardare la libertà espressiva, la completezza e l’imparzialità delle informazioni.
Il DDL affronta anche il tema del diritto d’autore, prevedendo l’identificazione e il riconoscimento dei sistemi di IA nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici. A tal fine, viene introdotto un “bollino” identificativo, con l’acronimo “IA”, per i contenuti generati o modificati dall’IA. Sul fronte penale, il DDL introduce nuove fattispecie di reato, come l’illecita diffusione di contenuti generati o manipolati con IA, punita con una pena massima di cinque anni di reclusione.
Intelligenza Artificiale: Un Nuovo Umanesimo Digitale
Il DDL sull’intelligenza artificiale rappresenta un punto di partenza importante, ma necessita di ulteriori affinamenti per trasformare i principi in regole applicabili e stabili. È fondamentale garantire la trasparenza dei sistemi di IA, definendo standard chiari per l’accesso al codice, ai dati e alla logica decisionale. È necessario promuovere la responsabilità degli sviluppatori e degli utilizzatori di IA, prevedendo meccanismi di controllo e sanzioni efficaci. È indispensabile investire nella formazione e nell’alfabetizzazione digitale, per consentire ai cittadini di comprendere e utilizzare consapevolmente le nuove tecnologie.
L’intelligenza artificiale non è solo una questione tecnica, ma anche etica, sociale e politica. Regolamentare l’IA significa plasmare il futuro della nostra società, garantendo che l’innovazione tecnologica sia al servizio dell’uomo e del bene comune.
Nozione base di Intelligenza Artificiale correlata al tema principale dell’articolo:
Una nozione fondamentale da tenere a mente è quella di algoritmo. Un algoritmo è una sequenza finita di istruzioni che, a partire da un input, produce un output. Nel contesto dell’IA, gli algoritmi sono il cuore dei sistemi intelligenti, poiché definiscono le modalità con cui le macchine elaborano i dati e prendono decisioni. Comprendere come funzionano gli algoritmi è essenziale per valutare la trasparenza e l’affidabilità dei sistemi di IA.
Nozione avanzata di Intelligenza Artificiale applicabile al tema dell’articolo:
Un concetto più avanzato è quello di explainable AI (XAI), ovvero intelligenza artificiale spiegabile. L’XAI si propone di rendere comprensibili agli esseri umani le decisioni prese dai sistemi di IA, fornendo spiegazioni chiare e concise. Questo è particolarmente importante in settori sensibili come la sanità e la giustizia, dove è fondamentale che le decisioni siano trasparenti e giustificabili.
Riflessione personale correlata al tema dell’articolo:
In un’epoca di rapidi progressi tecnologici, è facile farsi sopraffare dall’entusiasmo per le nuove scoperte. Tuttavia, è importante ricordare che la tecnologia è solo uno strumento, e che il suo valore dipende dall’uso che ne facciamo. L’intelligenza artificiale ha il potenziale per migliorare la nostra vita in molti modi, ma è fondamentale che la sua adozione sia guidata da principi etici e da una visione chiara del futuro che vogliamo costruire. La sfida è quella di creare un nuovo umanesimo digitale, in cui la tecnologia sia al servizio dell’uomo e non viceversa.