E-Mail: [email protected]
- Il 1° agosto 2024 entrerà in vigore l'AI ACT, stabilendo nuove regole per l'uso dell'intelligenza artificiale.
- L'articolo 25 del Regolamento UE impone alle imprese di effettuare valutazioni di impatto e ottenere certificazioni per applicazioni AI.
- La Strategia Italiana per l’Intelligenza Artificiale 2024-2026 prevede supporto finanziario alle imprese e investimenti nella formazione.
- Il rischio di iper-regolamentazione potrebbe ostacolare l'innovazione, come sottolineato da Giuseppe Vaciago di 42 Law Firm.
Il 1° agosto 2024 entrerà in vigore l’AI ACT, la legge europea sull’intelligenza artificiale, che rappresenta un passo significativo verso la regolamentazione di questa tecnologia emergente. Parallelamente, l’Italia sta legiferando in materia con un disegno di legge approvato lo scorso aprile e la pubblicazione della Strategia Italiana per l’Intelligenza Artificiale 2024-2026. Questi tre provvedimenti tracciano un contesto operativo per le imprese italiane che desiderano sperimentare e adottare l’AI nei loro processi produttivi.
L’AI ACT europeo è impostato sul concetto di rischio e non stabilisce limiti alla ricerca e sviluppo delle applicazioni di intelligenza artificiale, ma stabilisce regole per il loro utilizzo. Ad esempio, tecnologie di riconoscimento basate sulla biometria non sono considerate pericolose, ma sono vietate se utilizzate in determinati contesti, come il riconoscimento da remoto in tempo reale o il riconoscimento delle emozioni sui luoghi di lavoro.
Nuovi obblighi per le PMI
L’articolo 25 del Regolamento UE chiarisce le nuove direttive che si applicano alle imprese che sviluppano nuove applicazioni o vendono prodotti basati sull’intelligenza artificiale con il proprio brand. Le regole valgono anche per chi utilizza l’AI con il proprio prodotto o marchio. Ad esempio, se un’azienda vende servizi basati su ChatGPT con elaborazioni ulteriori, ha gli stessi obblighi del produttore, inclusa la necessità di fare valutazioni di impatto relative al rischio e di ottenere certificazioni dall’autorità nazionale.
Il successivo articolo 26 dettaglia gli obblighi degli utilizzatori, che devono affidare la sorveglianza sulle applicazioni ad alto rischio a persone competenti e formate dall’autorità necessaria. L’AI ACT stabilisce regole e un impianto sanzionatorio, ma non disciplina la responsabilità civile dei danni causati dall’AI, per cui l’UE sta mettendo a punto una Direttiva per garantire regole uniformi.
- 🌟 Un passo avanti significativo per la regolamentazione......
- ⚠️ Rischio di over-regulation potrebbe soffocare l'innovazione......
- 🔄 Soft law invece di norme rigide potrebbe essere la chiave......
Strategia italiana sull’AI al 2026
Il documento degli esperti per la strategia per l’intelligenza artificiale 2026 segnala il rischio di iper-regolazione nazionale. La strategia prevede di fornire sostegno finanziario alle imprese per renderle compliant con la normativa e di investire nella formazione per ridurre il divario generazionale nel mondo del lavoro. La strategia italiana si focalizza su imprese e formazione, con priorità sui temi di upskilling e reskilling.
Giuseppe Vaciago, partner di 42 Law Firm, sottolinea che l’eccesso di regole rischia di creare confusione nell’applicazione. Le linee strategiche prevedono il sostegno alle imprese per utilizzare l’AI nel rispetto della legislazione, senza abbandonare il tessuto imprenditoriale italiano di fronte a un framework normativo complesso.
Il rischio della over-regulation nell’Unione europea
L’AI Act rappresenta l’ultima di numerose iniziative dell’Unione negli ultimi anni, tra cui il GDPR, il Data Governance Act, il DSA, il DMA, il Cybersecurity Act e il NIS 2. Tuttavia, il rischio di over-regulation è reale, con la possibilità di sovrapposizione di competenze e proliferazione di Organi, Agenzie e Autorità. L’Unione europea ha dimostrato di poter contribuire alla regolazione dei fenomeni digitali tramite fonti di soft law e strumenti di self-regulation, come le Linee Guida Etiche per un’intelligenza artificiale affidabile.
La regolazione tramite strumenti di soft law presenta vantaggi come maggiore velocità e capacità di adattamento, essenziali per tecnologie in rapida evoluzione. Questi strumenti possono aiutare gli addetti ai lavori a orientarsi nel complesso normativo vincolante, come dimostrato dall’Institute for Human-Centered AI dell’Università di Stanford e dalla recente costituzione di AIRIA in Italia.
Bullet Executive Summary
In conclusione, l’AI ACT e le normative italiane rappresentano un passo cruciale verso la regolamentazione dell’intelligenza artificiale, ma pongono anche il rischio di iper-regolamentazione che potrebbe ostacolare l’innovazione. La strategia italiana per l’AI al 2026 cerca di bilanciare questi aspetti, fornendo sostegno alle imprese e investendo nella formazione.
Nozione base di intelligenza artificiale: L’intelligenza artificiale si basa su algoritmi che permettono ai computer di eseguire compiti che normalmente richiederebbero intelligenza umana, come il riconoscimento vocale, la traduzione linguistica e la visione artificiale.
Nozione avanzata di intelligenza artificiale: I modelli di intelligenza artificiale generativa, come GPT-4, utilizzano reti neurali profonde per generare testo, immagini e altre forme di contenuto in modo autonomo, basandosi su grandi quantità di dati di addestramento.
Questa regolamentazione rappresenta una sfida e un’opportunità per l’Europa di diventare un leader globale nell’innovazione responsabile. La riflessione personale che emerge è la necessità di trovare un equilibrio tra sicurezza e innovazione, garantendo che le nuove tecnologie possano prosperare senza compromettere i diritti fondamentali e la competitività delle imprese.