OpenAI anuncia GPT-4 Turbo

Dendritic pattern of the Succinonitrile-Camphor alloy grown in microgravity

El pasado 17 de noviembre, OpenAI publicó en su blog un artículo titulado “New models and developer products announced at DevDay”. En lo que sigue, resumo lo más destacado del contenido del artículo.

El artículo anuncia una serie de nuevos modelos y productos para desarrolladores que OpenAI presentó en su evento DevDay, que tuvo lugar el 16 de noviembre de 2023. Estos son los principales anuncios:

  • GPT-4 Turbo con 128K de contexto: GPT-4 Turbo es una versión mejorada de GPT-4, el modelo de lenguaje natural más avanzado de OpenAI. GPT-4 Turbo tiene un conocimiento más actualizado de los eventos mundiales acaecidos hasta abril de 2023 y una ventana de contexto de 128K, lo que significa que puede procesar el equivalente a más de 300 páginas de texto en una sola entrada. Además, su rendimiento ha sido optimizado, por lo que se ofrece a un precio más bajo que GPT-4. Se espera que se lance el modelo estable y listo para producción en las próximas semanas.
  • Probabilidades logarítmicas: se espera que se lancen las probabilidades logarítmicas para los tokens de salida más probables generados por GPT-4 Turbo y GPT-3.5 Turbo en las próximas semanas, lo que será útil para construir características como el autocompletado en una experiencia de búsqueda.
  • GPT-3.5 Turbo con 16K de contexto: además de GPT-4 Turbo, OpenAI también ha lanzado una nueva versión de GPT-3.5 Turbo que soporta una ventana de contexto de 16K por defecto. El nuevo 3.5 Turbo soporta el seguimiento mejorado de instrucciones, el modo JSON y la llamada a funciones paralelas.
  • API de Asistentes: OpenAI ha lanzado una nueva API de Asistentes que permite crear asistentes virtuales personalizados con GPT-4 Turbo y ChatGPT. La API de Asistentes ofrece una interfaz de alto nivel para definir las funciones, los datos y los comportamientos de los asistentes, así como herramientas para entrenar, probar y desplegar los asistentes en diferentes plataformas. La API de Asistentes está diseñada para facilitar el desarrollo de asistentes que puedan realizar tareas complejas y conversar de forma natural con los usuarios.
  • GPT-4 Turbo con Visión: OpenAI ha anunciado que está trabajando en una versión de GPT-4 Turbo que integra capacidades de visión artificial, lo que permitirá al modelo procesar imágenes y texto de forma conjunta. GPT-4 Turbo con Visión se espera que esté disponible a principios de 2024 y que ofrezca una experiencia multimodal sin precedentes para los desarrolladores.
  • DALL·E 3 API: OpenAI ha anunciado que está trabajando en una nueva versión de DALL·E, el modelo de generación de imágenes a partir de texto. DALL·E 3 tendrá una mayor resolución, una mayor diversidad y una mayor fidelidad que DALL·E 2, y se espera que esté disponible a mediados de 2024. La API de DALL·E 3 permitirá a los desarrolladores crear aplicaciones que generen imágenes realistas y creativas a partir de descripciones textuales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.