Ultimas Noticias

OpenAI pisa el acelerador: presenta GPT-4.1 junto a otros dos modelos de lenguaje para seguir marcando el ritmo de la IA

Comienza la semana con movimiento en el mundo de la inteligencia artificial (IA). OpenAI ha presentado una nueva familia de modelos de lenguaje: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Tres versiones diseñadas para cubrir distintas necesidades, desde cargas de trabajo intensivas hasta tareas más simples, y pensadas especialmente para integrarlos en aplicaciones.

Estamos hablando de tres alternativas que, al menos por ahora, estarán disponibles únicamente a través de la API de OpenAI. Esto implica que su uso estará limitado al ámbito del desarrollo. En otras palabras, no estarán disponibles en ChatGPT para uso general. 

Así son los nuevos modelos de OpenAI

La llegada de estos nuevos modelos plantea una pregunta inevitable: ¿en qué lugar quedan frente a las demás propuestas de OpenAI? La compañía asegura que superan a GPT-4o y GPT-4o mini, presentados el año pasado “en casi todas las dimensiones”. De hecho, afirma que incluso mejoran en algunos aspectos a GPT-4.5, lanzado a principios de este año.

Entre sus puntos fuertes destaca una ventana de contexto de hasta un millón de tokens. Dicho de forma sencilla: es la cantidad de texto que el modelo puede tener en cuenta de una sola vez para generar una respuesta. Además, OpenAI ha actualizado la base de conocimiento del modelo hasta junio de 2024, lo que significa que trabaja con información más reciente.

La firma liderada por Sam Altman asegura que esta nueva familia de modelos ha sido diseñada para ser útil en escenarios reales, con un enfoque claro en los resultados que pueden ofrecer y en su rendimiento. Es un detalle interesante, porque no se limitan a presumir de benchmarks, marco de referencia no necesariamente indica qué tan buenos son los modelos.

En cualquier caso, GPT-4.1 destaca en benchmarks en tres ámbitos:

Puntos De Referencia Gpt 4 1

  • Programación. GPT-4.1 logra una puntuación del 54,6% en SWE-bench Verified, mejorando en 21,4 puntos a GPT-4o y en 26,6 puntos a GPT-4.5.
  • Capacidad de seguir instrucciones. En el benchmark MultiChallenge de Scale, una prueba que evalúa cómo de bien un modelo sigue instrucciones, GPT-4.1 alcanza un 38,3%, con una mejora de 10,5 puntos respecto a GPT-4o.
  • Contexto largo. En Video-MME, un test centrado en la comprensión de contextos largos y multimodales, GPT-4.1 marca un nuevo máximo: 72,0% en la categoría “larga sin subtítulos”, superando a GPT-4o en 6,7 puntos.

En líneas generales, cuanto más grandes y potentes son los modelos, más recursos necesitan para funcionar y, en consecuencia, más caros resultan. Pero el precio no es el único factor a tener en cuenta: también suelen ser más lentos. Ahí es donde entran en juego los modelos “mini”, pensados para como el análisis rápido de texto o los chatbots de atención al cliente.

GPT-4.1 tiene un coste de 2 dólares por cada millón de tokens de entrada y 8 dólares por cada millón de tokens generados. GPT-4.1 mini reduce esa cifra a 0,40 dólares por millón de tokens de entrada y 1,60 por millón de salida. Por su parte, GPT-4.1 nano es la opción más económica: 0,10 dólares por millón de tokens de entrada y 0,40 por millón de salida.

Modelos Comparativa

GPT-4.1, GPT-4o y GPT-4o mini ya están disponibles para su integración a través de la API de OpenAI. Cada modelo ofrece un equilibrio distinto entre coste, velocidad e inteligencia, por lo que los desarrolladores tendrán que elegir en función de sus necesidades y, algo no menor, del presupuesto disponible.

Todos estos movimientos llegan en un momento en que la competencia para OpenAI es cada vez más intensa. Entre los rivales más destacados está Google, que ha sabido reenfocar su estrategia y presentar productos de IA realmente potentes. En el caso de OpenAI, todavía quedan varios movimientos por concretar en los próximos meses.

Sam Altman ya ha adelantado que este año presentarán dos nuevos modelos: o3 y o4-mini. En un principio, o3 no iba a lanzarse como modelo independiente, sino que sus capacidades se integrarían en modelos futuros. Sin embargo, ese plan de reorganización, pensado para simplificar una nomenclatura cada vez más confusa, ha quedado en pausa por el momento.

Un ejemplo claro de esta confusión lo encontramos en el selector de modelos, donde no siempre resulta evidente cuál elegir. También hay otros factores que no ayudan, como el hecho de que GPT-4.1 haya llegado después de GPT-4.5, a pesar de ofrecer mejores capacidades.

Imágenes | OpenAI + Photoshop

En Xataka | La industria de la IA solo es sostenible vulnerando las leyes de copyright. Así que está intentando erradicarlas

source

Mostrar más
Botón volver arriba