E-Mail: [email protected]
- Microsoft ha annunciato i Copilot PC, promettendo un'esperienza d'uso migliorata.
- Il mercato dell'hardware ha visto un incremento delle funzionalità IA integrate nei nuovi dispositivi.
- Le tecnologie IA stanno diventando imprescindibili per un'esperienza d'uso ricca e completa, simile alla trasformazione degli smartphone negli ultimi 25 anni.
Da un anno a questa parte, il mercato dell’hardware ha visto un tema comune al centro della comunicazione delle aziende: l’intelligenza artificiale. Le nuove proposte hardware sono progettate per elaborare velocemente ed efficientemente i calcoli legati all’IA. Questo trend è stato spinto dall’annuncio di Microsoft riguardo ai Copilot PC e all’intero ecosistema di queste soluzioni, che promettono di offrire ai consumatori un’esperienza d’uso migliorata.
Tuttavia, è importante capire quanto l’implementazione di logiche di calcolo specifiche per l’intelligenza artificiale avrà ricadute dirette sull’esperienza d’uso dei PC e dei device nell’utilizzo abituale dei consumatori. L’impressione è che queste funzionalità siano indubbiamente utili ed efficienti, ma la loro ricaduta pratica potrebbe non essere così ampia come ci si aspetterebbe dai proclami dei produttori.
In Hardware Upgrade, con 25 anni di attività online, abbiamo visto tecnologie interessanti guadagnare spazio e trasformarsi da proposte di nicchia a elementi imprescindibili nell’utilizzo quotidiano. Un esempio semplice è quello degli smartphone, ma anche il mondo dei notebook, inizialmente riservato solo ai professionisti con ampio budget e specifiche necessità d’uso, oggi è accessibile a chiunque.
Non ci sono dubbi che questo avverrà anche per l’intelligenza artificiale, con una dicotomia tra le elaborazioni svolte nei grandi datacenter e quelle svolte nell’edge, ossia in ogni dispositivo nelle mani di un utente finale. Le aziende consumer stanno guardando con maggiore attenzione a queste tecnologie, rimarcando nei nomi dei prodotti la presenza di logiche dedicate all’intelligenza artificiale.
L’IA nel mondo consumer deve andare oltre il fornire funzioni automatizzate all’interno di specifici programmi o definite operazioni, diventando uno strumento a servizio delle differenti necessità del consumatore. Così come è avvenuto per tutte le periferiche e tecnologie che hanno caratterizzato il mercato dell’ICT negli ultimi 25 anni, l’intelligenza artificiale deve trasformarsi da feature utile per la comunicazione di marketing a elemento imprescindibile per assicurare un’esperienza d’uso ricca e completa per l’utilizzatore finale.
Intelligenza Artificiale e Pubblica Amministrazione: Riflessioni e Rischi
L’utilizzo dell’intelligenza artificiale nei processi decisionali della pubblica amministrazione impone una riflessione sulla tenuta delle garanzie individuali e sullo statuto costituzionale. L’adozione di algoritmi per decisioni amministrative solleva questioni riguardanti la tutela dei dati personali e il rischio di “bias” e discriminazioni derivanti da un uso distorto del potere di profilazione.
La dottrina e la giurisprudenza si interrogano su tali questioni con posizioni divergenti. Tuttavia, converge la tesi dell’insostituibilità dell’intelligenza umana rispetto a quella artificiale. Indagini sull’analisi predittiva automatizzata nei procedimenti amministrativi, come quelle denunciate da studiosi matematici americani come Cathy O’Neil, inducono a mettere in dubbio l’efficienza della decisione algoritmica, finché non intervenga una legislazione che regoli la materia e preveda tutele avverso possibili discriminazioni.
L’applicazione degli algoritmi ai processi decisionali amministrativi impone una riflessione sulla compatibilità di tali strumenti con le garanzie imposte dalla legge sul procedimento amministrativo a tutela delle situazioni soggettive incise dal potere pubblico. La giurisprudenza amministrativa ha fissato principi per preservare le garanzie procedimentali nell’esercizio del potere amministrativo, di fronte alla potenziale lesione di situazioni giuridiche soggettive tutelate dall’ordinamento.
Due principali orientamenti emergono: il primo nega la possibilità di applicare tecnologie in sostituzione dell’attività svolta dal funzionario umano, mentre il secondo circoscrive il ricorso agli strumenti algoritmici a limiti che consentano di correggere le storture e imperfezioni dei processi cognitivi umani.
L’integrazione degli strumenti di intelligenza artificiale nei processi valutativi delle pubbliche amministrazioni necessiterebbe di figure professionali in grado di definire le logiche adottate dall’algoritmo secondo comuni norme giuridiche e sociali. Tuttavia, la difficoltà di reperire tali professionalità all’interno delle amministrazioni, spesso a causa dell’età anagrafica dei funzionari prossima alla pensione, rende logico ritenere che la decisione amministrativa algoritmica possa essere legittimamente adoperata solo a fronte di un sistema di elaborazione dei dati trasparente e intellegibile.
Uno dei problemi più sentiti riguarda i “bias” e le possibili discriminazioni derivanti dalle decisioni pubbliche automatizzate. Cathy O’Neil, nel suo saggio “Weapons of Math Destruction”, dimostra come un utilizzo scorretto dei Big Data possa incrementare le disuguaglianze e minacciare la democrazia. Il documentario “Coded Bias” rivela come l’uso del riconoscimento facciale possa creare identikit di persone “pericolose” esponendole a gravi pregiudizi da parte delle autorità pubbliche.
Impatto dell’Intelligenza Artificiale sul Lavoro
L’intelligenza artificiale sta rapidamente cambiando il panorama lavorativo globale. Secondo uno studio del Fondo Monetario Internazionale (IMF) pubblicato all’inizio dell’anno, circa il 40% dell’occupazione globale è esposta all’IA. Questo include sia la sostituzione di lavori esistenti che il complemento al lavoro umano, con un impatto significativo sui lavori ad alta qualifica.
Le economie avanzate sono a rischio maggiore, con circa il 60% dei lavori potenzialmente influenzati dall’IA. Questo si traduce in opportunità di aumentare la produttività, ma anche in rischi di riduzione della domanda di lavoro, calo dei salari e scomparsa di posti di lavoro. Le economie emergenti e in via di sviluppo mostrano una minore esposizione all’IA, ma questo non è necessariamente un dato positivo per i lavoratori, poiché la mancanza di infrastrutture e competenze per sfruttarne i benefici potrebbe portare a un aumento delle disuguaglianze globali.
All’interno dei Paesi più sviluppati, l’IA potrebbe accentuare le disuguaglianze di reddito e ricchezza, polarizzando i guadagni tra chi utilizza l’IA e chi ne è escluso. La maggior parte delle posizioni lavorative nelle economie avanzate rientra nella categoria ad “alta esposizione ma bassa complementarietà”, indicante lavori altamente esposti all’IA con un potenziale per automatizzare o sostituire parti delle attività lavorative.
L’IMF mette in guardia che la polarizzazione del lavoro causata dall’IA porterà benefici di produttività e crescita per certi settori, ma questi rischiano di riguardare solo una piccola fetta della popolazione. I lavori complessi e creativi, che necessitano di giudizio critico e alta formazione, sono alla mercé dell’intelligenza artificiale. Se questi ruoli non vedranno sostituzione, il rischio è di essere ridotti a numeri minimi, “integrati” da una macchina che non può dare il livello richiesto di autenticità e correttezza che un umano darebbe.
L’altro rischio è l’aumento del gap salariale. Per i lavoratori di altissimo livello gerarchico, l’IA rappresenta un’occasione per aumentare il reddito e ridurre i tempi necessari per il lavoro, mentre per la fascia media il rischio è di una riduzione salariale dovuta al fatto che i compiti diventano meno intensivi in termini di tempo e diminuisce il valore percepito dei risultati umani.
Etica dell’Intelligenza Artificiale: Una Necessità o un Paradosso?
Il problema principale dell’etica dell’intelligenza artificiale è che non serve un’etica dell’intelligenza artificiale. Il rischio è di spostare sulle macchine un tema squisitamente umano. Parlare di etica dell’IA può diventare un processo di deresponsabilizzazione, dove il peso delle scelte viene spostato su un algoritmo, rendendo l’essere umano oggetto e non soggetto attivo.
L’etica deve fare un passo indietro o salire di un livello, accettando la realtà complessa. Ciò che pare etico oggi potrebbe non sembrarlo domani, e in una parte del mondo potrebbe non esserlo in un’altra. Non è possibile pensare a un’IA “etica by design”. Abbiamo bisogno di IA sostenibili, che dispongano di caratteristiche tecniche che rompano la “scatola nera” dell’algoritmo e consentano di controllarlo.
Non abbiamo bisogno di intelligenze artificiali che scelgano tra giusto o sbagliato, ma di strumenti che aiutino a capirlo. Il Manifesto per la Sostenibilità dell’IA della Fondazione per la Sostenibilità Digitale identifica fattori come trasparenza, privacy, sicurezza, revoca, riconoscibilità, portabilità e interoperabilità. In un contesto globale, è necessario applicare criteri di sostenibilità economica e sociale all’intelligenza artificiale, lavorando su princìpi codificati in Agenda 2030.
Bullet Executive Summary
In conclusione, l’intelligenza artificiale sta rapidamente trasformando il panorama tecnologico e lavorativo, con implicazioni significative per la società. La sua integrazione nei dispositivi consumer e nei processi decisionali della pubblica amministrazione solleva questioni di efficienza, equità e trasparenza. Mentre offre opportunità di produttività e crescita, l’IA presenta anche rischi di disuguaglianze e bias. La necessità di un quadro normativo robusto e di una riflessione etica è fondamentale per garantire che l’IA serva il bene comune.
Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il machine learning, che permette ai sistemi di IA di apprendere dai dati e migliorare le loro prestazioni nel tempo senza essere esplicitamente programmati. Un’applicazione avanzata correlata è il deep learning, una sottocategoria del machine learning che utilizza reti neurali profonde per analizzare grandi quantità di dati e riconoscere pattern complessi, rendendola particolarmente efficace in compiti come il riconoscimento facciale e la traduzione automatica.
L’intelligenza artificiale non è un male o un bene assoluto, ma uno strumento che prenderà la forma del mondo da cui attinge. In un mondo di crescenti diseguaglianze, disparità sociali e lavoro incerto, è fondamentale che l’IA venga sviluppata e utilizzata in modo responsabile e sostenibile. Servirà la collaborazione di tutti, basata sulla consapevolezza dei rischi e dei potenziali benefici, per creare un futuro del lavoro umano complementare a quello dell’IA.