Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Regolamento IA 2024: come cambierà il futuro della tecnologia in Europa

Scopri i dettagli del nuovo Regolamento sull'Intelligenza Artificiale, pubblicato il 12 luglio, che mira a regolamentare uno dei settori più complessi e in rapida evoluzione.
  • Il Regolamento sull'Intelligenza Artificiale (1689/2024) entrerà in vigore tra 6 e 36 mesi.
  • Il regolamento è collegato a leggi come il Digital Services Act e il Digital Markets Act, varati tra il 2022 e il 2023.
  • Un esempio di limite attuale dell'IA è Gato di DeepMind, che può eseguire 604 compiti differenti, ma con performance inferiori rispetto ai modelli specializzati.
  • Il Parlamento europeo propone un quadro giuridico per coprire i rischi e i danni derivanti dall'uso dell'IA, come incidenti con robot autonomi.

Lo scorso 12 luglio è stato pubblicato nella Gazzetta ufficiale dell’Unione Europea il testo elaborato del Regolamento sull’Intelligenza Artificiale (1689/2024). Questo complesso di norme e procedure attuative rappresenta un tentativo di regolamentare un argomento che sfugge alla cognizione tradizionale di spazio e tempo. Sebbene possa sembrare un’utopia, è un passo utile in un’ottica difensiva, a condizione che si coniughi con una ricerca creativa di paradigmi adeguati all’ambiente digitale.

Il nuovo testo, che ha richiesto anni di gestazione, entrerà in vigore in tempi variabili tra 6 e 36 mesi. Tuttavia, non sfugge al problema cruciale: quando l’articolato entrerà nel vivo, l’oggetto sarà già cambiato. L’Atto è connesso al Digital Services Act, al Digital Markets Act, al Data Act e al Digital Governance Act, varati tra il 2022 e il 2023. Questa ventata post-liberista ha preso il sopravvento in un territorio che negli anni Novanta era considerato il luogo di individui appagati, naviganti apparentemente liberi e privi di remore di controllo. L’illusione è durata poco con l’arrivo delle Big Tech, veri e propri oligarchi della rete e padroni dell’infosfera.

Gli algoritmi e l’intelligenza artificiale generativa stanno scardinando consolidate certezze e linee di condotta. Il dibattito sul rapporto tra stato e mercato è spiazzato dalla sovranazionalità dei fenomeni e dal rivolgimento del valore di scambio estrattivo: dati personali, profili delle persone e sensi dei corpi diventano materia primaria per la sorveglianza e la suddivisione in nuove nomenclature di classi e ceti. Il Regolamento IA è una fragile trincea contro l’invasione degli alieni, alla transizione tra umano e post-umano, dipendente dai contenuti che riforniscono l’apparato cognitivo dell’IA.

Intelligenza artificiale per un mondo migliore: come realizzare l’utopia

Il dibattito sull’intelligenza artificiale è polarizzato tra chi teme la sopraffazione della tecnologia sull’uomo e chi la vede come una chiave per un mondo più equo. La realizzazione di questa utopia è possibile solo attraverso una “via critica”, studiando attentamente le problematiche etico-sociali dietro i meccanismi di design e sviluppo delle tecniche di Intelligenza Artificiale.

Oggi, due visioni sull’Intelligenza Artificiale dominano il panorama. Da un lato, ci sono coloro che temono che l’uomo perderà il controllo, sopraffatto da macchine che prenderanno decisioni importanti, ruberanno lavoro, discrimineranno, violeranno la privacy e controlleranno di nascosto. Dall’altro lato, ci sono pensatori che sognano un mondo in cui, grazie all’Intelligenza Artificiale, i governanti saranno supportati da potenti strumenti di calcolo, i lavoratori saranno sollevati dai compiti gravosi, i prodotti e i servizi costeranno di meno, le aziende aumenteranno i profitti, gli apparati burocratici si snelliranno e i crimini diminuiranno.

La sfida che ci attende è: che tipo di razionalità vogliamo imporre all’Intelligenza Artificiale? Le “forme di conoscenza” che animano queste macchine sono frutto di basi di dati o di indagini statistiche, che possono rappresentare le storture della nostra società. Esiste un problema di bias che, se non identificati, possono perpetuarsi e acuirsi.

Il deep learning cosciente è ancora un’utopia

Tutti gli algoritmi di deep learning sono accomunati da una caratteristica: sanno fare una sola cosa per volta. Questi algoritmi sono delle “artificial narrow intelligence” (Ani), intelligenze artificiali limitate. Per esempio, possono sconfiggere il campione mondiale di scacchi, ma per imparare a giocare a dama devono cancellare la nozione del primo gioco e ricominciare l’addestramento da capo. Non possono conservare ciò che hanno appreso nell’addestramento per un compito specifico e impiegare quelle conoscenze per compiti futuri.

Questo limite delle attuali intelligenze artificiali è considerato uno dei principali ostacoli verso l’intelligenza artificiale “forte”, capace di competere con l’essere umano. Un esempio di questo limite è Gato di DeepMind, un modello di network neurale capace di eseguire 604 compiti differenti, ma con performance inferiori rispetto ai modelli specializzati in un singolo compito. Gato può passare da un compito all’altro senza cancellare le conoscenze pregresse, ma non può apprendere funzioni per le quali non ha ricevuto un addestramento specifico.

Tra gli scettici delle conquiste di Gato e della possibilità di conquistare una vera intelligenza artificiale usando il deep learning, il più critico è Gary Marcus, neuroscienziato della New York University. Marcus ha dimostrato che, sebbene questi strumenti possano ottenere risultati impressionanti, spesso commettono errori di logica grossolani. Per esempio, GPT-3 ha consigliato di tagliare orizzontalmente una porta in due per far passare un tavolo troppo largo, una pessima soluzione al problema.

Perché è importante regolamentare l’intelligenza artificiale in Europa?

L’intelligenza artificiale offre molte opportunità di utilizzo, ma solleva anche questioni etiche e legali. Diverse proposte di legge al Parlamento europeo mirano a sviluppare un quadro etico e giuridico per l’intelligenza artificiale. Il deputato tedesco Axel Voss, del Partito Popolare Europeo, ha sottolineato l’importanza di risolvere le incertezze legali legate all’uso dell’intelligenza artificiale. In caso di malfunzionamento dell’intelligenza artificiale, è difficile separare la condotta negligente da quella non negligente. Chi è responsabile se un robot autonomo colpisce un passante o se un robot medico commette un errore in sala operatoria?

Il Parlamento europeo vuole proporre un meccanismo che copra l’intero spettro dei rischi e dei possibili danni derivanti dall’uso dell’intelligenza artificiale. Regolamentare la tecnologia a livello europeo è vantaggioso perché i dati non si fermano ai confini nazionali. L’UE deve guidare la trasformazione digitale agendo in modo unito e deciso.

Bullet Executive Summary

In conclusione, la regolamentazione dell’intelligenza artificiale è un tema cruciale nel panorama moderno. La necessità di un quadro normativo che definisca principi etici nella concezione, sviluppo, applicazione e funzionamento dell’intelligenza artificiale è evidente. Questo quadro deve proteggere l’interesse pubblico e creare fiducia nei cittadini, assicurando che nessuno venga lasciato indietro.

Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il concetto di bias. I bias possono influenzare negativamente le decisioni prese dagli algoritmi, perpetuando ingiustizie e discriminazioni. È fondamentale identificare e mitigare questi bias per garantire che l’intelligenza artificiale operi in modo equo e trasparente.

Una nozione avanzata di intelligenza artificiale applicabile al tema dell’articolo è l’idea di modelli ibridi. Questi modelli combinano il deep learning con l’intelligenza artificiale simbolica, utilizzando regole fornite da programmatori umani insieme all’apprendimento autonomo da dati. Questo approccio può superare i limiti del deep learning puro e avvicinarci a una vera intelligenza artificiale generale.

La riflessione personale che emerge da questo articolo è la necessità di bilanciare l’innovazione tecnologica con considerazioni etiche e sociali. La regolamentazione dell’intelligenza artificiale non deve essere vista come un ostacolo, ma come un’opportunità per creare una società più giusta e inclusiva.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
1 Comment
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
1
0
Ci interessa la tua opinione, lascia un commento!x