E-Mail: redazione@bullet-network.com
- OpenAI ha lanciato un allarme su DeepSeek, definendola "sussidiata e controllata dallo Stato", suggerendo il divieto dei suoi modelli AI, nell'ambito dell'"AI Action Plan" dell'amministrazione Trump, sollevando preoccupazioni su sicurezza dei dati, proprietà intellettuale e sviluppo dell'IA in contesti geopolitici differenti.
- DeepSeek è legalmente tenuta a fornire dati degli utenti al governo cinese su richiesta, sollevando preoccupazioni sulla privacy, specialmente con l'utilizzo globale dei suoi modelli. Inoltre, OpenAI aveva già accusato DeepSeek di "distillare" conoscenza dai propri modelli, violando i termini di servizio.
- Il modello R1 di DeepSeek è stato menzionato da OpenAI come intrinsecamente insicuro a causa del presunto controllo statale, sebbene non ci siano prove dirette di un controllo statale esplicito, nonostante l'incontro del fondatore Liang Wenfeng con il presidente Xi Jinping.
- Un divieto sui modelli AI cinesi potrebbe accentuare la competizione tecnologica tra Stati Uniti e Cina, creando un panorama dell'IA internazionale più scomposto. Le aziende che usano soluzioni AI cinesi potrebbero affrontare aumenti di spese o ritardi temporali.
Ecco l’articolo:
In un panorama tecnologico in rapida evoluzione, una proposta di OpenAI sta scuotendo le fondamenta dell’intelligenza artificiale globale. L’azienda americana, leader nel settore, ha lanciato un allarme riguardo alla società cinese DeepSeek, definendola “sussidiata e controllata dallo Stato” e suggerendo al governo statunitense di valutare il divieto dei suoi modelli di intelligenza artificiale. Questa mossa, presentata come parte dell'”AI Action Plan” dell’amministrazione Trump, solleva questioni cruciali sulla sicurezza dei dati, la proprietà intellettuale e la natura stessa dello sviluppo dell’IA in contesti geopolitici differenti.
Le Accuse di OpenAI e le Preoccupazioni Sollevate
OpenAI basa le sue preoccupazioni su diversi punti chiave. Innanzitutto, sottolinea come DeepSeek, operando sotto la giurisdizione cinese, sia legalmente tenuta a fornire dati degli utenti al governo su richiesta. Questo solleva serie preoccupazioni sulla privacy, specialmente quando i modelli di DeepSeek vengono utilizzati a livello globale. In secondo luogo, OpenAI evidenzia il rischio di furto di proprietà intellettuale derivante dall’utilizzo di modelli di IA prodotti nella Repubblica Popolare Cinese (RPC). Infine, la proposta suggerisce di estendere il divieto a tutti i paesi considerati “Tier 1” secondo le regole di esportazione dell’amministrazione Biden, creando una barriera contro potenziali vulnerabilità di sicurezza e rischi di proprietà intellettuale.
È importante notare che OpenAI aveva già accusato DeepSeek di “distillare” conoscenza dai propri modelli, violando i termini di servizio. Tuttavia, questa nuova proposta rappresenta un’escalation significativa, mettendo in discussione l’integrità e le implicazioni di sicurezza delle operazioni di DeepSeek a causa dei suoi presunti legami con lo Stato cinese.

TOREPLACE = “Create an iconic and metaphorical image representing the OpenAI proposal to ban DeepSeek AI models. The image should feature two stylized figures: one representing OpenAI, depicted as a radiant, open source of light, and the other representing DeepSeek, shown as a complex, interwoven network partially obscured by a shadow symbolizing state control. A stylized Great Wall of China should be visible in the background, subtly hinting at geopolitical tensions. The style should be inspired by naturalistic and impressionistic art, using a warm and desaturated color palette. The image should be simple, unitary, and easily understandable, avoiding any text. The OpenAI figure should emanate light, symbolizing transparency and innovation, while the DeepSeek figure should appear more opaque and structured, reflecting concerns about data security and state influence. The overall composition should convey a sense of tension and division in the global AI landscape.”
L’Analisi del Modello R1 di DeepSeek
Uno dei modelli specificamente menzionati nella proposta di OpenAI è l’R1 di DeepSeek, un modello di “ragionamento”. OpenAI sostiene che questo modello, insieme ad altri prodotti da DeepSeek, è intrinsecamente insicuro a causa del presunto controllo statale. Ma quanto è giustificata questa preoccupazione? È vero che DeepSeek è influenzata dal governo della RPC, come dimostrato dall’incontro del fondatore Liang Wenfeng con il presidente Xi Jinping. Tuttavia, non ci sono prove dirette di un controllo statale esplicito.
DeepSeek è nata come spin-off di un hedge fund quantitativo.
La legge cinese obbliga DeepSeek a fornire dati degli utenti al governo, una preoccupazione legale valida per qualsiasi azienda che operi in Cina.
I modelli open source di DeepSeek sono ospitati su piattaforme come Microsoft, Amazon e Perplexity, suggerendo che non dispongono di meccanismi integrati per l’estrazione diretta di dati governativi.
L’ambiguità nella proposta di OpenAI riguardo ai “modelli” è degna di nota. È pertinente chiedersi se ci si riferisca all’API di DeepSeek, ai suoi modelli open source o a una combinazione di entrambe le opzioni. Questa differenza, infatti, riveste un’importanza decisiva poiché i modelli open source presentano una naturale inclinazione verso la trasparenza, risultando pertanto meno vulnerabili a potenziali backdoor nascoste. L’aspetto rilevante è che il coinvolgimento delle maggiori aziende tecnologiche nell’hosting dei modelli AI aperti sviluppati da DeepSeek evidenzia un certo grado di controllo e fiducia, una realtà evidente nella comunità tech nonostante le diverse accuse circolanti.
Implicazioni Più Ampie di un Divieto
Qualora il governo degli Stati Uniti decidesse di accettare la proposta avanzata da OpenAI riguardo ai sacrifici sui modelli d’intelligenza artificiale provenienti dalla Repubblica Popolare Cinese, le implicazioni sarebbero estremamente significative.
Aumento della Rivalità Tecnologica: Tali provvedimenti potrebbero accentuare una nuova fase nella già intensa competizione tecnologica fra Americani e Cinesi, generando così un panorama dell’IA internazionale ancora più scomposto.
Diminuzione delle Opportunità Innovative? L’imposizione del divieto su specifiche tecnologie potrebbe ostacolare i progressi innovativi in ambiti dove cooperazioni oltreconfine risultano cruciali per i risultati positivi.
Sconvolgimento dei Mercati Aziendali: Le compagnie sviluppatrici che fanno riferimento alle soluzioni d’IA cinesi saranno obbligate a ricercare valide alternative – affrontando così possibili aumenti di spese economiche o ritardi temporali.
Domanda sulla Creazione di Precedenti: Questo passo non solo potrebbe stabilire convenzioni normative relative ad altre nazioni circa limitazioni analoghe basate su motivazioni geopolitiche, ma causerebbe anche una divisione ulteriore nel paesaggio tecnico globale.
Riflessioni Conclusive: Un Bivio per l’Intelligenza Artificiale Globale
La proposta di OpenAI rappresenta un momento cruciale per il futuro dell’intelligenza artificiale. Le preoccupazioni sollevate riguardo alla sicurezza dei dati e alla proprietà intellettuale sono legittime e meritano un’attenta considerazione. Tuttavia, la strada da seguire richiede una riflessione ponderata. Divieti unilaterali potrebbero avere conseguenze indesiderate, soffocando l’innovazione ed esacerbando le tensioni internazionali. È essenziale promuovere un dialogo aperto, una cooperazione internazionale e un approccio equilibrato tra sicurezza e progresso tecnologico.
*
Amici lettori, riflettiamo un attimo. Dietro a questa vicenda si cela un concetto fondamentale dell’intelligenza artificiale: il transfer learning*. DeepSeek, accusata di “distillare” conoscenza dai modelli di OpenAI, in realtà potrebbe aver utilizzato tecniche di transfer learning per adattare modelli esistenti a nuovi compiti. Questo processo, seppur controverso in questo caso specifico, è una pratica comune nell’IA e permette di accelerare lo sviluppo di nuove applicazioni. Vi è un ulteriore aspetto da considerare: l’importanza del termine adversarial training, che assume un ruolo cruciale in questa discussione. È plausibile ipotizzare che OpenAI possa avvertire la minaccia rappresentata da DeepSeek, la quale potrebbe implementare strategie basate su tale approccio per rendere i suoi sistemi maggiormente resilienti a determinati attacchi, approfittando eventualmente delle debolezze intrinseche nei propri algoritmi.
Questa situazione solleva interrogativi più ampi: quali strategie possiamo adottare per armonizzare rivalità e cooperazione nell’ambito dell’intelligenza artificiale? In che modo possiamo assicurarci che lo sviluppo tecnologico avvenga in un contesto di sicurezza, etica e trasparenza, a vantaggio collettivo? La risposta non si presenta affatto semplice; richiede una dedizione continua e condivisa tra tutti gli interessati.
- Risposta ufficiale di OpenAI all'AI Action Plan, con riferimenti a DeepSeek.
- Presentazione del modello DeepSeek Coder, utile per capire le sue capacità.
- Annuncio ufficiale del modello DeepSeek R1-V2, caratteristiche e specifiche tecniche.
- Invito a commenti pubblici sull'AI Action Plan dell'amministrazione Trump.