OpenAI modifica i Costi della RealTime API per i Chatbot Vocali | ChatGPT 4 | OpenAI free | OpenAI stock | Turtles AI

OpenAI modifica i Costi della RealTime API per i Chatbot Vocali
Nuove funzionalità di caching promettono di abbattere le spese fino all’80%, rendendo l’AI più accessibile per gli sviluppatori
Isabella V2 novembre 2024

 

 OpenAI ha svelato innovazioni nella sua RealTime API che promettono notevoli risparmi per gli sviluppatori di chatbot vocali. Con la nuova funzionalità di caching degli input audio e testuali, il costo delle conversazioni lunghe potrebbe diminuire drasticamente. La mossa è un tentativo di rendere più accessibile l’utilizzo dell’AI nel settore.

Punti chiave:

  •  Introduzione della memorizzazione nella cache per la RealTime API di OpenAI.
  •  Possibile riduzione dei costi per le conversazioni lunghe fino all’80%.
  •  L’API è già utilizzata da aziende come Healthify, Speak e Twilio.
  •  Le tariffe attuali per input e output sono considerate elevate da alcuni sviluppatori.

In un evento dedicato agli sviluppatori a Londra, OpenAI ha presentato aggiornamenti significativi sulla sua RealTime API, rendendo noti nuovi metodi per ottimizzare i costi, particolarmente per le applicazioni vocali. Questa API, progettata per facilitare la creazione di assistenti virtuali e chatbot, ha ricevuto feedback misti da parte degli sviluppatori a causa delle tariffe elevate associate all’elaborazione di input e output. Le nuove funzionalità in arrivo includono un sistema di caching automatico per gli input audio e testuali, che consente di evitare la rielaborazione dei dati già trattati. Questo meccanismo si traduce in una significativa diminuzione dei costi per le conversazioni prolungate, che potrebbero subire una riduzione fino all’80%. Fino ad ora, ogni volta che un utente interagiva con un bot alimentato da questa API, il sistema doveva rielaborare tutti i token di input e output delle interazioni precedenti, facendo lievitare i costi soprattutto in conversazioni multi-turn. Secondo Kwindla Kramer, co-fondatore di Daily, la rielaborazione di tutti i token rende l’utilizzo dell’API particolarmente oneroso. Shaun Ralston, membro del team di supporto API di OpenAI, ha chiarito che grazie alla nuova funzionalità di caching, sarà possibile recuperare i risultati di input precedenti, applicando tariffe ridotte, evitando così il bisogno di elaborare nuovamente ogni parte della conversazione. Le nuove tariffe, che scenderanno da 5 a 2,5 dollari per milione di token testuali e da 100 a 20 dollari per milione di token audio, rappresentano un passo importante verso la sostenibilità economica per gli sviluppatori. Questa innovazione mira a rendere l’AI più accessibile e conveniente per una varietà di utilizzi nel settore, ponendo OpenAI in una posizione competitiva nel mercato in rapida evoluzione dei servizi AI.

Un progresso importante che potrebbe trasformare il modo in cui gli sviluppatori interagiscono con le tecnologie vocali.