OpenAI lanza un GPT-4o mejorado: ¿Qué cambia con esta nueva versión?

OpenAI ha hecho algo que ya se está volviendo una costumbre en la industria de la inteligencia artificial: lanzar actualizaciones importantes sin hacer mucho ruido. La semana pasada, la compañía presentó su nueva versión del modelo GPT-4o, una evolución del conocido GPT-4, y las reacciones no se hicieron esperar. Aunque en primera instancia puede parecer una actualización más, hay varias razones por las que deberíamos prestarle atención, especialmente si somos usuarios habituales de ChatGPT o desarrolladores que dependen de la API de OpenAI.

¿Qué es GPT-4o y por qué es relevante?

GPT-4o, anunciado originalmente en mayo de 2024, es un modelo multimodal que no solo maneja texto, sino también imágenes, audio y video, lo que lo hace más versátil que sus predecesores. En lugar de depender de modelos separados para diferentes tipos de datos, GPT-4o procesa todo dentro de una única red neuronal, lo que mejora la coherencia y eficiencia de sus respuestas.



Lo interesante es que, con la última actualización, OpenAI ha introducido mejoras significativas basadas en el feedback de los usuarios. Uno de los cambios más notables es la capacidad del modelo para generar outputs estructurados, algo que facilita enormemente la vida de los desarrolladores. Ahora, es posible dirigir al modelo para que genere datos en formatos específicos como JSON, lo cual es especialmente útil en aplicaciones donde la consistencia de los datos es clave.

Mejora en la generación de imágenes

Otro aspecto que ha captado la atención es la activación de la generación de imágenes de manera nativa dentro de ChatGPT, algo que, aunque ya era posible, ahora se realiza de forma más fluida y con una comprensión más profunda de las instrucciones de los usuarios. Anteriormente, el modelo dependía de DALL-E 3 para generar imágenes, pero GPT-4o ha sido entrenado para manejar estas tareas directamente, lo que resulta en imágenes de mayor calidad y generadas más rápidamente.

=> Recibir por Whatsapp las noticias destacadas

En WWWhat’s new, hemos hablado frecuentemente sobre las capacidades visuales de los modelos de IA, y es emocionante ver cómo OpenAI sigue empujando los límites en esta área. La capacidad de generar imágenes con mayor precisión y realismo abre un abanico de posibilidades, desde la creación de contenido hasta aplicaciones en diseño y publicidad.

La respuesta de la comunidad y críticas

Sin embargo, no todo el mundo está encantado con la actualización. Algunos usuarios han señalado que OpenAI debería ser más transparente con los cambios que introduce en sus modelos, especialmente cuando estos afectan la forma en que se utiliza el producto. La falta de notas de versión detalladas ha sido una crítica recurrente, y en esta ocasión no ha sido diferente. En mi opinión, esta falta de claridad puede generar frustración, especialmente en usuarios que dependen de ChatGPT para tareas críticas.

Por otro lado, algunos creen que los cambios no son tan revolucionarios como se esperaba. Hay quienes sienten que, aunque hay mejoras, estas no son suficientemente significativas como para alterar su experiencia de uso diario. Claro, es difícil hacer una evaluación justa cuando los cambios son sutiles y se integran progresivamente.

Diferencias entre la versión de ChatGPT y la API

Una de las revelaciones más interesantes es que la versión de GPT-4o que impulsa ChatGPT podría ser diferente de la que está disponible a través de la API para desarrolladores. OpenAI ha admitido que realiza optimizaciones distintas en cada una, ajustando los modelos para adaptarse mejor a las necesidades específicas de los usuarios de ChatGPT frente a los desarrolladores que utilizan la API. Esta distinción podría explicar por qué algunos usuarios han notado un comportamiento diferente del modelo en ChatGPT en comparación con sus aplicaciones personalizadas.

Personalmente, yo creo que esta actualización es una muestra del enfoque de OpenAI en refinar y mejorar constantemente sus productos basándose en la retroalimentación directa de los usuarios. Aunque es posible que los cambios no sean visibles de inmediato para todos, a largo plazo, estas optimizaciones podrían tener un impacto significativo en la eficiencia y usabilidad de los modelos.

Sin embargo, me gustaría ver más transparencia en cómo se comunican estos cambios. La inteligencia artificial está jugando un papel cada vez más importante en nuestras vidas, y es fundamental que los usuarios comprendan cómo funcionan las herramientas que utilizan, especialmente cuando estas herramientas se están convirtiendo en parte integral de tareas profesionales y creativas.

En WWWhat’s new, seguiremos de cerca estas actualizaciones y compartiremos nuestras impresiones sobre cómo estos cambios impactan a los usuarios y desarrolladores. Si aún no has explorado las nuevas capacidades de GPT-4o, te invito a hacerlo y a compartir tu experiencia con nosotros.

Fuente: Link