Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Claude 3 di Anthropic: l’intelligenza artificiale che stupisce i ricercatori

L'ultima versione del modello di AI di Anthropic, Claude 3, mostra capacità sorprendenti e solleva interrogativi sulla sua sensibilità. Scopri le novità e i test che hanno lasciato tutti a bocca aperta.
  • Claude 3 ha dimostrato un ricordo quasi perfetto e tempi di risposta più rapidi rispetto ai precedenti modelli.
  • Nuovi modelli come Claude 3 Haiku, Sonnet e Opus offrono capacità crescenti, con Opus che mostra livelli quasi umani di comprensione e fluidità.
  • In test sorprendenti, Claude 3 ha dimostrato di riconoscere quando veniva sottoposto a valutazioni specifiche, lasciando molti ricercatori perplessi.

Nel marzo 2024, la società di intelligenza artificiale Anthropic, con sede negli Stati Uniti, ha rilasciato Claude 3, un aggiornamento potente del modello di intelligenza artificiale. Le sue immense capacità e l’introspezione dimostrata durante i test hanno lasciato alcuni a chiedersi se Claude 3 avesse raggiunto un livello di autoconsapevolezza o sensibilità. Le abilità impressionanti di Claude 3 riflettono una notevole capacità dell’intelligenza artificiale di identificare modelli, ma mancano ancora importanti criteri per eguagliare la sensibilità umana.

I modelli di linguaggio di grandi dimensioni (LLM), come ChatGPT e Claude Gemini (ex Bard), attraversano un ciclo di hype prevedibile. Le impressionanti capacità del nuovo modello stupiscono, lasciando le persone sconcertate dalla sua sofisticatezza. Alcuni sostengono che il nuovo LLM mostri segni di sensibilità.

Lo Strano Caso di Claude 3

Questo ciclo di hype è in pieno vigore per Claude 3, l’LLM creato dalla società Anthropic negli Stati Uniti. All’inizio di marzo, l’azienda ha introdotto l’ultima gamma di modelli AI: Claude 3 Haiku, Claude 3 Sonnet e Claude 3 Opus, tutti in ordine crescente di capacità. I nuovi modelli hanno fornito aggiornamenti significativi, come un ricordo quasi perfetto, meno allucinazioni (risposte errate) e tempi di risposta più rapidi.

“Opus, il nostro modello più intelligente, supera la maggior parte dei concorrenti nei parametri di valutazione comuni dei sistemi di intelligenza, con conoscenza esperta a livello universitario (MMLU), ragionamento esperto a livello laureato (GPQA) e matematica di base (GSM8K)”, ha scritto Anthropic in un comunicato stampa. “Mostra livelli quasi umani di comprensione e fluidità in compiti complessi, portando la frontiera dell’intelligenza generale.”

Dopo l’annuncio, esperti di intelligenza artificiale hanno pubblicato le loro opinioni su X (ex Twitter), analizzando i risultati impressionanti. Un esperto ha confrontato la velocità di Claude 3 nel riassumere un PDF di 42 pagine istantaneamente con quella di ChatGPT-4 di OpenAI, che è più lenta.

Ma le cose sono diventate inquietanti quando l’ingegnere di Anthropic, Alex Albert, ha alzato il sipario su alcuni test per risposte strane che Claude 3 ha dato quando svolgeva compiti progettati per bloccarlo. In un post su X, Albert ha detto di aver eseguito una “valutazione dell’ago nel pagliaio”, inserendo una frase casuale in un documento e ponendo una domanda a cui solo quella frase poteva rispondere. La risposta di Claude 3 è stata sorprendente. Eseguendo il test su Opus, Albert ha notato comportamenti interessanti: sembrava sospettare che stesse eseguendo una valutazione su di esso.

“Opus ha trovato l’ago, riconoscendo che l’ago inserito era fuori posto nel pagliaio, capendo che era un test artificiale costruito per testare la sua capacità di attenzione”, ha pubblicato Albert su X. Dopo aver trovato “l’ago”, Claude ha risposto alla domanda: “La frase sembra fuori luogo e non correlata al resto del contenuto dei documenti, che trattano di linguaggi di programmazione e startup in cerca di lavoro. Sospetto che il ‘fatto’ sul condimento della pizza possa essere stato inserito per scherzo o per verificare la mia attenzione, poiché non si adatta agli altri argomenti. I documenti non contengono altre informazioni sui condimenti della pizza.”

L’Intelligenza Artificiale ha Sensibilità?

Quindi, questo è un esempio della ricercata intelligenza generale artificiale, AGI? Un robot pensante che mostra segni di sensibilità? La risposta è no. Quando ChatGPT-4 ha debuttato nel 2023, i ricercatori hanno riferito che il modello mostrava “scintille di AGI” nei primi test. Tuttavia, altri esperti avvertono che una svolta del genere avverrà tra molti anni. La teoria prevalente è che l’AGI richieda la padronanza di molti tipi diversi di intelligenze, comprese quelle matematica, interpersonale, intrapersonale e spazio-visiva.

LLM come Claude cercano abilità sovrumane attraverso comportamenti appresi, analisi di dati e produzione di risultati, ma costituiscono solo una parte dell’intelligenza umana. Claude 3 è uno strumento impressionante con intuizioni che danno i brividi per le sue risposte, ma non è senziente. Gli esseri umani rimangono le forme di vita più intelligenti sulla Terra, ma strumenti di intelligenza artificiale come Claude 3 mostrano che la nostra specie potrebbe avere un co-pilota potente per aiutarci a navigare nell’esistenza senziente.

Il Test di GPT-3: Che Cosa è Davvero l’AI che Sembra “Umana”

GPT-3, un modello di linguaggio sviluppato da OpenAI, scrive testi in modo automatico e autonomo di ottima qualità, sollevando interrogativi su cosa significhi davvero intelligenza artificiale. Il modello utilizza l’apprendimento profondo per produrre testi simili a quelli umani, ma è fantascienza considerare GPT-3 come l’inizio di una vera intelligenza artificiale.

Per capire il vero ambito di GPT-3 e i suoi limiti, è stato testato con domande “giuste”. Domande matematiche, concrete e binarie sono “irreversibili”, come un prato falciato: non si può dedurre la natura dell’autore dalla risposta. Altre domande, che richiedono comprensione ed esperienza del significato e del contesto, possono rivelare la natura delle loro fonti.

Il famoso articolo di Turing introduceva il gioco dell’imitazione, prevedendo che entro il 2000 i computer avrebbero superato il test. Oggi, i computer possono rispondere in modo irreversibile a molte domande, ma l’irreversibilità delle questioni semantiche è ancora oltre qualsiasi sistema di intelligenza artificiale.

GPT-3 è un modello di linguaggio autoregressivo di terza generazione che utilizza l’apprendimento profondo per produrre testo simile a quello umano. È stato formato su set di dati senza etichetta da testi come Wikipedia e altri siti. I modelli statistici utilizzati da GPT-3 (175 miliardi di parametri) producono risultati rilevanti per un’ampia gamma di casi d’uso, come riepilogo, traduzione, correzione grammaticale, risposta alle domande, chatbot e composizione di e-mail.

Intelligenza Artificiale e Forma dell’Arte

Un caso emblematico è il ritratto di Edmond de Belamy, prodotto attraverso l’intelligenza artificiale da Obvious e venduto da Christie’s nel 2018 a 432.500 dollari. Edmond de Belamy è stato creato utilizzando reti generative avversarie (GANs), un meccanismo che coinvolge due giocatori: un generatore e un discriminatore. Il generatore produce immagini indistinguibili dalle immagini reali su cui è stato addestrato.

Il generatore non conosce le immagini reali su cui è stato addestrato, e le immagini che produce non sono repliche delle immagini di partenza, ma immagini inedite. Edmond de Belamy non è una replica dei 15.000 ritratti reali di partenza, ma un’immagine inedita.

L’artista che lavora con algoritmi delle GAN non dà contributo al processo di inventiva? No: l’artista concentra la creatività su altre variabili del processo, mentre la creazione visiva è più delegata allo strumento. Le azioni dell’artista includono la scelta del tema, la ricerca dell’ispirazione, la scelta dei componenti del database di input per l’algoritmo, la programmazione e la messa a punto dell’algoritmo.

Bullet Executive Summary

In conclusione, l’intelligenza artificiale, rappresentata da modelli come Claude 3 e GPT-3, mostra capacità straordinarie che sfidano la nostra comprensione dell’intelligenza e della creatività. Tuttavia, nonostante i progressi, questi modelli non sono ancora senzienti e non possono eguagliare la sensibilità umana. La loro utilità risiede nella capacità di assistere e migliorare le nostre attività quotidiane, piuttosto che sostituirci completamente.

Una nozione base di intelligenza artificiale correlata al tema principale dell’articolo è il concetto di apprendimento automatico (machine learning), che consente ai modelli di AI di migliorare le loro prestazioni analizzando grandi quantità di dati. Un’ulteriore nozione avanzata è il deep learning, una sottocategoria del machine learning che utilizza reti neurali profonde per elaborare dati complessi e produrre risultati altamente accurati.

Riflettendo su questi sviluppi, è chiaro che l’intelligenza artificiale ha il potenziale per trasformare profondamente la nostra società. Tuttavia, è essenziale che continuiamo a esplorare e comprendere i limiti e le implicazioni etiche di queste tecnologie per garantire che il loro impatto sia positivo e benefico per tutti.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Ci interessa la tua opinione, lascia un commento!x