Durante il DevDay OpenAI ha annunciato importanti novità e miglioramenti per i suoi modelli, a cominciare dal nuovo GPT-4 Turbo.
In occasione del DevDay, OpenAI ha annunciato nuove funzionalità e miglioramenti per i suoi prodotti. Dal nuovo GPT-4 Turbo ad Assistants API, passando per nuove integrazioni e riduzioni di prezzo, la compagnia si è rivolta agli sviluppatori con l'intenzione di facilitare l'uso dei modelli e renderli più accessibili.
La novità principale presentata al DevDay è stata GPT-4 Turbo, la nuova versione dell'LLM aggiornata agli eventi di aprile 2023. La context window, ovvero il numero di token con cui può lavorare il modello in un unico prompt, è stata aumentata a 128.000 token (circa 300 pagine di testo), un incremento notevole rispetto ai 32.768 della versione precedente.
OpenAI ha annunciato di aver ottimizzato le performance di GPT-4 Turbo rendendolo tre volte più economico per token di input e due volte più economico per token di output se paragonato a GPT-4.
La compagnia ha specificato che GPT-4 Turbo offre performance migliori rispetto ai modelli precedenti soprattutto su task che richiedono di seguire istruzioni specifiche, per esempio per generare risultati in un formato specifico. La nuova versione di GPT è anche in grado di rispondere utilizzando il formato JSON.
OpenAI ha rilasciato anche API Assistants per aiutare gli sviluppatori a integrare assistenti di supporto nelle loro applicazioni.
API Assistants offre istruzioni specifiche e può richiamare modelli e strumenti per eseguire compiti. La nuova API consente di utilizzare Code Interpreter, Retrieval e Function calling per sollevare gli sviluppatori da gran parte delle attività, soprattutto quelle più intense.
Code Interpreter consente di generare ed eseguire codice in risposta a un prompt o a un set di dati, mentre Retrieval è in grado di raccogliere e analizzare dati al di fuori del modello, per esempio accedendo alle informazioni di dominio dei business e ai documenti condivisi dagli utenti. Infine, Function Calling permette al modello di chiamare le funzioni esterne e incorporarle nelle risposte generate.
L'API Assistants è disponibile in beta per tutti gli sviluppatori. Il prezzo è di 0.03 dollari per sessione per Code Interpreter e di 0.20 dollari per GB per Retrieval.
Nel corso dell'evento la compagnia ha presentato Copyright Shield, un'offerta di protezione legale per i consumatori in caso di accuse per violazione di copyright. La funzionalità è disponibile solo per gli utenti di ChatGPT Enterprise e per gli sviluppatori.
OpenAI ha anche rilasciato Whisper large-v3, la nuova versione del modello open-source di Automatic Speech Recognition, migliorando diverse feature per tutte le lingue supportate.
La compagnia ha deciso inoltre di rendere open-source il Consistency Decoder per migliorare le immagini compatibili con il Variation AutoEncoder di StableDiffusion.
Oltre a GPT-4 Turbo, OpenAI ha rilasciato una nuova versione di GPT-3.5 Turbo che supporta una context windows di 16.000 caratteri. Il nuovo 3.5 Turbo supporta l'output JSON, la chiamata parallela alle funzioni ed è più preciso nel seguire le istruzioni utente.
La compagnia ha anche lanciato il programma Custom Models che consente a organizzazioni selezionate di lavorare con un gruppo dedicato di ricercatori OpenAI per addestrare GPT-4 personalizzati per il loro dominio specifico.
Gli sviluppatori potranno inoltre integrare DALL-E direttamente nelle app usando l'API Images e generare testi di elevata qualità utilizzando la nuova API per il text-to-speech (TTS). Il nuovo modello TTS mette a disposizione sei voci predefinite e due varianti, una ottimizzata per i casi d'uso real-time e l'altra più incentrata sulla qualità.
Sui modelli GPT sarà anche disponibile in modalità beta il nuovo parametro seed
che consente di generare output riproducibili. La funzionalità è particolarmente utile per scrivere unit test e per effettuare sessioni di debugging.
OpenAI ha annunciato anche diverse riduzioni di prezzo per le nuove versioni dell'LLM.
Il nuovo GPT-4 Turbo prevede un costo di 0.01 dollari per 1000 token di input e 0.03 per lo stesso numero in output, una diminuzione rispettivamente di 0.02 dollari e 0.03 dollari rispetto al precedente modello.
Riduzioni anche per GPT-3.5 Turbo, sia per i token di input che di output; questi ultimi sono due volte più economici rispetto a prima. I prezzi più bassi si applicano solo al nuovo GPT-3.5 Turbo. Anche in questo caso tutti i costi si intendono per 1000 token.
Infine, per aiutare gli sviluppatori a scalare le proprie applicazioni, la compagnia ha raddoppiato il limiti di token per minuto per tutti i clienti di GPT-4.
La nuova versione di ChatGPT è in grado di analizzare le immagini, elaborare audio e parlare per guidare gli utenti in u...
Spotify ha annunciato Voice Translation, una feature che consente di tradurre gli episodi dei podcast in un'altra lingua...
L'amministrazione Biden-Harris ha stretto un accordo con sette compagnie tecnologiche per definire linee guida per lo sv...
OpenAI e le altre firme tech stanno assumendo decine di avvocati per far fronte alle implicazioni legali dei nuovi model...