E-Mail: [email protected]
- Le Big Five hanno guadagnato circa 197 miliardi di dollari su un fatturato superiore al trilione nel 2020, con una capitalizzazione di mercato di 7,5 trilioni.
- Progetti come Maven e Nimbus mostrano l'impiego dell'AI in ambito militare, con Google e Amazon che forniscono cloud computing e AI al governo israeliano.
- Nel conflitto di Gaza del 2024, l'AI ha portato a 34mila morti, con il 95% delle vittime tra i civili e una precisione reale degli algoritmi del 25%.
L’intelligenza artificiale (AI) rappresenta una delle più grandi rivoluzioni tecnologiche del nostro tempo. La sua capacità di trasformare settori come l’economia, il marketing, l’arte e la medicina è già evidente. Tuttavia, come sosteneva Fidel Castro, “la rivoluzione non è un letto di rose”. Nonostante il suo potenziale per garantire uno sviluppo senza pari e ridistribuire risorse e ricchezza, l’AI si sta concretizzando all’interno di sogni per pochi, sconvenienti per molti, con un unico e sempre più lampante obiettivo: garantire una supremazia basata su dati e algoritmi.
Sul palcoscenico globale, le macerie del conflitto in Ucraina, la polveriera esplosiva della striscia di Gaza e una tra le meno entusiasmanti campagne elettorali per la corsa alla presidenza degli Stati Uniti, ci ricordano che l’AI potrebbe essere la nuova atomica. Parlando di intelligenza artificiale, è necessario, prima di valutare la sua applicazione in ambito militare, dissezionare i suoi creatori: le big tech. Alle storiche cinque (Meta, Alphabet, Amazon, Apple e Microsoft) se ne aggiunge una sesta, grazie alla vertiginosa ascesa dell’AI: Nvidia Corporation.
Le Big Five hanno guadagnato circa 197 miliardi di dollari su un fatturato superiore al trilione nel 2020, mentre la loro capitalizzazione di mercato è salita a 7,5 trilioni alla fine dell’anno. Ci troviamo così a fare i conti con una nuova epoca, quella del tecno-feudalesimo. Questi giganti hanno sovvertito alcune logiche del capitalismo, rendendo l’economia simile al vecchio sistema feudale medievale europeo: le big tech sono i signori e tutti gli altri i contadini che lavorano le loro terre per poco in cambio.
AI e Sicurezza: Un Confine Labile
L’AI è diversa da ogni tecnologia che l’ha preceduta: impara e diventa autonoma, senza che l’operatore umano possa comprendere il perché alla base delle sue decisioni. Il confine tra sicurezza e sorveglianza diventa sempre più labile, mentre assistiamo al dilagare del deepfake, agevolato proprio dall’accesso gratuito ai sistemi di intelligenza artificiale generativa. Nell’anno in cui più di due miliardi di persone sono chiamate al voto, l’AI sta giocando un ruolo fondamentale nella disinformazione, strumentalizzata per intrattenere o confondere.
La questione etica risulta sempre più centrale, considerando anche l’applicazione in ambito militare. La prima volta che l’aggettivo “intelligente” viene associato al gergo bellico è nel 1991, durante l’operazione Desert Storm contro l’Iraq di Saddam Hussein. Si battezzano, in televisione e sul campo, le bombe intelligenti. La guerra è sempre la stessa cosa, è la sua narrazione che cambia. Il Segretario della Difesa americana afferma che gli Stati Uniti stiano, con la Guerra del Golfo, “guidando il mondo verso la tecnologia avanzata”, mentre la stampa celebra il prodigio tecnologico.
- 🌟 L'intelligenza artificiale sta davvero rivoluzionando il mondo......
- ⚠️ Le grandi aziende stanno abusando del potere dell'AI per......
- 🧐 È interessante vedere come l'AI stia cambiando le dinamiche di potere......
AI e Conflitti Moderni
Progetti come Maven, lanciato nel 2017, mirano a sviluppare e integrare algoritmi necessari alle operazioni contro il terrorismo. Le Big Five partecipano alla corsa agli armamenti nell’AI, tanto che il presidente esecutivo di Alphabet inizia a definire Google un’azienda di intelligenza artificiale e non una società di dati. Google, con Amazon, ha lanciato nel 2021 il progetto Nimbus, per fornire infrastrutture di cloud computing e AI al governo israeliano.
Ucraina, 2022. Il Ministro della Trasformazione Digitale afferma: “La nostra grande missione è fare dell’Ucraina il laboratorio mondiale per la ricerca e lo sviluppo tecnologico”. Palantir Technologies fornisce gratuitamente le proprie capacità, riconoscendo il ruolo salvifico e altruistico che l’AI giocherà contro l’aggressore russo. Gaza, 2024. L’impiego dell’intelligenza artificiale (Gospel e Lavender) ha portato a “danni collaterali” eccezionalmente elevati. Dall’inizio del conflitto, a ottobre 2023, a Gaza sono morte più di 34mila persone, di cui il 95% civili, più del 70% donne o bambini. L’accuratezza stimata al 90% si è attestata, in realtà, attorno al 25%.
AI e Armi Nucleari: Un Parallelo Inquietante
Nell’era dell’intelligenza artificiale, il problema non è tanto chi abbia il dito sul bottone quanto che non ci sia più né dito né bottone, e che gli algoritmi decidano chi deve morire, senza alcun intervento umano. Stati Uniti, Regno Unito e Francia hanno già assunto l’impegno formale di lasciare agli esseri umani l’ultima parola sull’impiego delle armi atomiche. Da oggi, l’invito a fare altrettanto è esteso anche a Russia e Cina.
Intrecciando etica e tecnologia, la questione è complessa. Da un lato c’è la presunzione che l’uomo legga i segnali meglio delle macchine; dall’altro la capacità dimostrata dei sistemi di intelligenza artificiale di catturare e valutare enormi quantità di dati disparati in tempi brevissimi. Forme di intelligenza artificiale note come decision-support systems sono da tempo in uso per collazionare le informazioni, valutarle e presentare ai decisori le soluzioni che meglio si attagliano.
Bullet Executive Summary
L’intelligenza artificiale sta ridefinendo il panorama globale, portando con sé opportunità senza precedenti ma anche rischi significativi. La sua applicazione in ambito militare e la crescente influenza delle big tech pongono questioni etiche e di sicurezza che non possono essere ignorate. La regolamentazione e la responsabilità sono cruciali per evitare che l’AI diventi la nuova atomica, una minaccia incontrollabile per l’umanità.
Nel contesto dell’AI, una nozione base è il machine learning, che permette ai sistemi di apprendere dai dati e migliorare nel tempo. Una nozione avanzata è il reinforcement learning, dove gli algoritmi imparano attraverso un sistema di ricompense e penalità, rendendoli capaci di prendere decisioni autonome in situazioni complesse.
Riflettendo su questi temi, è evidente che l’intelligenza artificiale non è solo una questione tecnologica, ma anche etica e sociale. La sfida sarà trovare un equilibrio tra innovazione e responsabilità, garantendo che i benefici dell’AI siano accessibili a tutti, senza compromettere la nostra sicurezza e i nostri valori fondamentali.
- Sito ufficiale di Meta AI, la divisione di ricerca sull'intelligenza artificiale di Meta, per approfondire sulle ricerche e sviluppi dell'AI
- Sito ufficiale di Alphabet, società madre di Google, per approfondire sulla strategia e sviluppo dell'intelligenza artificiale
- Approccio di Microsoft all'intelligenza artificiale responsabile