GPT-4o 2024-08-06 y Azure Open AI
OpenAI anunció el lunes 13 de mayo de 2024 un nuevo modelo de IA generativa insignia al que denominaron GPT-4o (la “o” significa “omni”, en referencia a la capacidad del modelo para manejar texto, voz y video) 1.
GPT-4o, la última versión de OpenAI, destaca por su capacidad para ofrecer respuestas en 320 milisegundos, superando a GPT-4 que tardaba 5 segundos. Este modelo mejora la interacción al incorporar procesamiento de voz y emociones, permitiendo respuestas más naturales y expresivas. También puede interpretar expresiones faciales y realizar traducciones en tiempo real, manteniendo el tono original. Integrado en Azure, GPT-4o amplía sus funcionalidades, optimizando procesos de negocio, asistencia virtual, análisis de sentimientos, generación de contenido, traducción y desarrollo de aplicaciones inteligentes.
GPT-4 Vs. GPT-4o
La API de GPT-4o ofrece respuestas en un tiempo similar al tiempo humano en una conversación, su media es de 320 milisegundos, mientras que la de GPT-4 es de 5 segundos. GPT-4o permitirá que los usuarios interactúen con ChatGPT más como un asistente. Por ejemplo, los usuarios pueden hacerle una pregunta a ChatGPT impulsado por GPT-4o e interrumpirlo mientras responde.
GPT-4o agrega procesamiento de voz a la versión de predecesor GPT-4 Turbo. GPT-4 Turbo se entrenó en una combinación de imágenes y texto y podía analizar imágenes y texto para realizar tareas como extraer texto de imágenes o incluso describir el contenido de esas imágenes. GPT-4o, es un salto evolutivo que destaca por ser multimodal de forma nativa, es decir, es capaz de procesar y generar datos en múltiples modalidades (tipos de información) de manera integrada y eficiente. Por ejemplo, puede procesar un texto y generar una imagen basada en él. GPT-4o razona en voz, texto y visión
En las demostraciones realizadas por OpenAI, se ha evidenciado que el modelo no solo proporciona respuestas instantáneas, sino que también es capaz de modular su tono de voz y expresar una variedad de emociones.
GPT-4o será integrado en la aplicación de ChatGPT. En primera instancia, cuando el modelo responda, incorpora elementos emocionales en su respuesta en voz, lo que potenciará la simulación de una interacción con un ser humano real.
Además, GPT-4o contará con la capacidad de interpretar expresiones faciales, permitiéndole identificar y describir estados emocionales como tristeza o felicidad. Asimismo, el modelo será capaz de realizar traducciones en tiempo real, preservando el tono y la emoción del mensaje original. GPT-4o tendrá un rendimiento mejorado en alrededor de 50 idiomas.
El API de OpenAI y el servicio Azure OpenAI de Microsoft, GPT-4o es el doble de rápido, cuesta la mitad y tiene límites de velocidad más altos que GPT-4 Turbo.
Recomendado por LinkedIn
Azure Open AI
El 6 de agosto de 2024, OpenAI anunció la última versión de su modelo GPT-4o insignia 2024-08-06 2. GPT-4o 2024-08-06 tiene todas las funcionalidades de la versión anterior, pero agrega las siguientes:
Los clientes de Azure pueden probar GPT-4o 2024-08-06 hoy en Azure AI Studio (versión preliminar) 3. Con Azure OpenAI, los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI. Azure OpenAI proporciona redes privadas, disponibilidad regional y filtrado de contenido de IA responsable. Azure OpenAI ofrece una gama versátil de aplicaciones e integraciones al combinarse con otros servicios de Azure, lo que potencia la creación de soluciones avanzadas en diversos sectores:
Azure OpenAI proporciona una amplia gama de aplicaciones innovadoras que podrán ser implementada por empresas de diferentes sectores.