E-Mail: [email protected]
- 64.000 token: GPT-4o Long Output quadruplica la capacità di risposta, consentendo output dettagliati come 200 pagine di un romanzo.
- Il costo per milione di token di input è di 6 dollari, mentre per i token di output sale a 18 dollari.
- GPT-4o mini offre un costo ridotto del 60% rispetto ai modelli precedenti, con un prezzo di 15 centesimi per milione di token di input e 60 centesimi per milione di token di output.
- GPT-4o mini supera GPT-3.5 Turbo con un punteggio dell'82% su MMLU rispetto al 70% del predecessore.
OpenAI ha recentemente annunciato un significativo miglioramento del suo modello linguistico GPT-4o, introducendo una versione sperimentale denominata GPT-4o Long Output. Questa nuova versione è in grado di generare risposte fino a 64.000 token, quadruplicando la capacità precedente. Gli sviluppatori che partecipano al programma alpha possono accedere a questa versione potenziata utilizzando il modello “gpt-4o-64k-output-alpha”. L’aumento della capacità di output si riflette anche nel prezzo: il costo per milione di token di input è di 6 dollari, mentre per i token di output sale a 18 dollari.
L’espansione della capacità di output di GPT-4o rappresenta un significativo passo avanti nel settore dell’intelligenza artificiale. Le nuove funzionalità permettono ai chatbot di generare risposte molto più lunghe, fino a circa 200 pagine di un romanzo, rendendole particolarmente vantaggiose per applicazioni che richiedono output dettagliati e articolati, come la modifica del codice o il miglioramento della scrittura. OpenAI ha mantenuto la finestra di contesto massima di 128.000 token per GPT-4o Long Output, la stessa del modello originale, offrendo una flessibilità maggiore nel decidere quanti token utilizzare per l’input e quanti per l’output.
GPT-4o mini: costi ridotti e buone prestazioni
Il 19 luglio, OpenAI ha annunciato il lancio di GPT-4o mini, un modello più piccolo ma estremamente capace ed economico. Questo nuovo modello è più intelligente di GPT-3.5 Turbo, con un punteggio dell’82% su MMLU rispetto al 70% del suo predecessore. Il vero punto di forza di GPT-4o mini è il costo, che è inferiore del 60% rispetto ai modelli precedenti. Il prezzo è di 15 centesimi per milione di token di input e 60 centesimi per milione di token di output, l’equivalente di circa 2.500 pagine di un libro standard.
GPT-4o mini è stato progettato per ampliare la gamma di applicazioni dell’intelligenza artificiale, rendendola più accessibile e conveniente. Questo modello supporta testo e visione nell’API, e in futuro avrà un supporto multimodale completo, includendo input e output di testo, immagini, video e audio. Gli utenti di ChatGPT, sia Free che Plus, possono accedere a GPT-4o mini a partire da oggi, sostituendo GPT-3.5 Turbo, mentre l’accesso per gli utenti Enterprise è previsto per la prossima settimana.
- 🎉 Gli sviluppi di GPT-4o sono rivoluzionari......
- 💸 Il costo per token di output è davvero eccessivo......
- 🤔 La possibilità di 64.000 token apre scenari inaspettati......
Confronto tra GPT-4o mini e GPT-3.5
Il lancio di GPT-4o mini ha suscitato grande clamore, soprattutto per il suo annuncio di pensionamento del modello GPT-3.5, che aveva dato il via alla diffusione dell’AI generativa a fine 2022. GPT-4o mini si comporta meglio di GPT-3.5 Turbo nei benchmark, aggiungendo la possibilità di analizzare immagini a un costo inferiore rispetto al modello grande GPT-4o. Il costo dei modelli è calato del 99% rispetto al 2022, rendendo l’intelligenza artificiale più pervasiva nei servizi.
In una prova pratica per testare la differenza nella capacità di ragionamento, GPT-4o mini ha dimostrato di rispondere sempre correttamente, mentre GPT-3.5 ha risposto spesso in modo differente e talvolta sbagliato. Anche su problemi logici complessi, la qualità della risposta di GPT-4o mini è risultata superiore. La latenza nella risposta dei due modelli è paragonabile, ma GPT-4o mini offre risposte più veloci e accurate. Inoltre, l’ultimo modello consente l’analisi di immagini a un prezzo più basso rispetto a GPT-4o, con risultati di buona qualità.
GPT-4o Long Output: un salto di qualità
Con la capacità di output fino a 64.000 token, GPT-4o Long Output apre nuove possibilità per sviluppatori e terze parti di OpenAI. I chatbot possono generare risposte più lunghe, fino a circa 200 pagine di un romanzo. Questa capacità di output esteso è vantaggiosa per applicazioni che richiedono output dettagliati e articolati, come la modifica del codice o il miglioramento della scrittura. OpenAI ha mantenuto la finestra di contesto massima di 128.000 token per GPT-4o Long Output, offrendo una flessibilità maggiore nel decidere quanti token utilizzare per l’input e quanti per l’output.
GPT-4o Long Output è attualmente in fase di test, con un prezzo aggressivo di 6 USD per 1 milione di token di input e 18 USD per 1 milione di token di output. L’accesso è limitato a un piccolo gruppo di partner fidati per la fase di test alfa, che durerà alcune settimane. OpenAI raccoglierà feedback sull’efficacia dell’output esteso e sulle esigenze degli utenti. Se i risultati saranno positivi, potrebbe considerare di espandere l’accesso a una base di clienti più ampia.
Bullet Executive Summary
In conclusione, le recenti innovazioni di OpenAI con GPT-4o Long Output e GPT-4o mini rappresentano un significativo passo avanti nel campo dell’intelligenza artificiale. La capacità di generare risposte fino a 64.000 token e l’introduzione di un modello più economico e performante come GPT-4o mini offrono nuove opportunità per sviluppatori e aziende. Questi sviluppi non solo migliorano l’accessibilità e la convenienza dell’IA, ma aprono anche nuove possibilità per applicazioni avanzate e dettagliate.
La nozione base di intelligenza artificiale correlata a questi sviluppi è il concetto di token, che rappresentano le unità fondamentali che permettono ai modelli di linguaggio di comprendere e generare linguaggio umano. Una nozione avanzata correlata è il Reinforcement Learning from Human Feedback (RLHF), un meccanismo utilizzato per addestrare i modelli a comportarsi in modo sicuro e ridurre la necessità di grandi moli di dati per l’addestramento.
Questi progressi stimolano una riflessione personale sul futuro dell’intelligenza artificiale e sulle sue potenzialità. La capacità di generare risposte più lunghe e dettagliate, insieme a costi ridotti e prestazioni migliorate, potrebbe rivoluzionare molti settori, dalla creazione di contenuti all’assistenza clienti. Tuttavia, è importante considerare anche le sfide etiche e di sostenibilità associate a questi sviluppi, per creare soluzioni responsabili e accessibili a tutti.
- Pagina ufficiale del forum degli sviluppatori OpenAI per approfondire sul programma alpha di GPT-4o Long Output
- Sito ufficiale di OpenAI per approfondire sul modello GPT-4o mini e sul suo prezzo
- Sito ufficiale di OpenAI con documentazione sui modelli, compresi GPT-4o e GPT-4o mini, per approfondire le funzionalità e caratteristiche dei modelli