En su primer gran evento para desarrolladores, OpenAI ha anunciado este lunes ChatGPT Turbo. Se trata de un nuevo modelo grande de lenguaje (LLM, por sus siglas en inglés) que promete abordar algunos de los puntos débiles de los modelos anteriores, GPT-3.5 y GPT-4.
Sam Altman, el máximo responsable de la compañía, asegura que GPT-4 Turbo supera la longitud de contexto de 32K que era capaz de soportar su modelo disponible más avanzado hasta hoy. GPT-4 en su versión Turbo tiene una enorme longitud de contexto de 128K.
GPT-4 ahora es más capaz, ahora es “Turbo”
Cuando hablamos de longitud de contexto estamos hablando de tokens y cada token puede equivaler a una palabra o frase. Por lo tanto, mientras mayor sea la longitud de contexto, mayor es el prompt que puede interpretar el modelo para darnos una respuesta.

Sam Altman en el primer gran evento de desarrolladores de OpenAI
En líneas generales, porque el cálculo puede variar según el prompt, 1.000 tokens equivalen a unas 750 palabras. Así que cuando hablamos de una longitud de contexto de 128K estamos hablando de más de 300 palabras de un libro estándar, según ha explicado OpenAI.
OpenAI también ha mejorado la forma en la que el modelo interactúa a través de su API con elementos JSON. Se trata de características avanzadas que pueden ser de gran utilidad para los usuarios avanzados que pagan a nivel de tokens para utilizar la herramienta.
En desarrollo
Imágenes: ilgmyzin | OpenAI
–
La noticia
OpenAI anuncia GPT-4 Turbo: la compañía de Sam Altman quiere seguir dominando con puño de hierro el mundo de la IA
fue publicada originalmente en
Xataka
por
Javier Marquez
.