Ultimas Noticias

El modelo o1-pro de ChatGPT Pro es 140 veces más caro que el o3-mini de ChatGPT. Lo que no está claro es que sea mucho mejor

Lo de pagar 20 dólares al mes por acceder a ChatGPT Plus no parecía demasiado grave. La cosa se comenzó a poner interesante cuando OpenAI lanzó su suscripción ChatGPT Pro a 200 dólares al mes. Pero es que ahora hay una versión aún más cara de estos modelos, y esto vuelve a demostrar que estamos al principio de una pendiente preocupante: la de los precios de la IA.

Qué ha pasado. OpenAI acaba de anunciar que o1-pro, la versión más potente de su modelo de razonamiento, ya está disponible a través de su API. Hasta ahora solo era posible disfrutarla de forma limitada a través de la suscripción a ChatGPT Pro, pero ahora también los desarrolladores podrán crear servicios con ella. Lo llamativo no es en realidad que la empresa ofrezca esta versión, sino el precio al que está disponible.

140 veces más caro que o3-mini. Como decíamos, o1-pro solo está disponible de forma limitada para los usuarios de ChatGPT Pro. Si alguien quiere usarla de forma intensiva a través de la API, los precios son realmente elevados:

o3-mini

o1

o1-pro

Precio por 1M tokens entrada (dólares)

1,10

15

150

Precio por 1M tokens salida (dólares)

4,40

60

600

Como se puede apreciar, o1-pro es 10 veces más caro que o1, y unas 135 veces más caro que o3-mini, que es la versión del modelo de razonamiento que por ejemplo podemos usar (de forma limitada) en la versión gratuita de ChatGPT.

Tokens a precio de oro. Ese coste impone una barrera importante para quienes quieran usar este modelo de IA para proyectos en los que introducimos mucho texto y queremos obtener también mucho texto. Por ejemplo, si queremos analizar una gran cantidad de documentos y saturamos la ventana de contexto de entrada (200.000 tokens) y la de salida (100.000 tokens), tendremos un coste de 90 dólares… para una sola pregunta y una respuesta (una petición de la API).

¿Pero es realmente tan bueno? Las impresiones preliminares de o1-pro en ChatGPT Pro no fueron especialmente llamativas según quienes lo han probado, que además han protestado por una caída de su calidad. Según OpenAI o1-pro ofrece «respuestas que son mejores de forma consistente», y destacan que es una versión de o1 que utiliza más potencia de cálculo para «pensar más y ofrecer incluso mejores respuestas a los problemas más complejos».

Por pedir que no quede. Las empresas de IA están perdiendo un dineral entrenando sus modelos, pero esperan recuperarlo con una técnica sencilla: suscripciones cada vez más caras. Datos filtrados en The Information también señalaban recientemente cómo en OpenAI estaban planteando ya cómo un agente de IA que pudiese sustituir a un «doctorado humano» para investigar, el coste sería de 20.000 dólares al mes.

Parecen caras, pero quizás no lo sean. Por supuesto, el precio de estas suscripciones y estos accesos a la API pueden parecer caros, pero también pueden ser un verdadero chollo. Lo que importa aquí es la rentabilidad que podemos llegar a sacar de estos modelos de IA: si nos ayudan a generar muchos más ingresos, acabaremos teniendo «empleados robóticos» que trabajen 24 horas al día, siete días a la semana y lo hagan además con una productividad y calidad del trabajo teóricamente extraordinarios. Pero claro, primero tendremos que lograr usarlos así… y garantizar que esos resultados son efectivamente válidos, algo que por ahora no parece tan claro.

En Xataka | Los agentes de IA son prometedores. Pero como en el FSD de Tesla, mejor no quitar las manos del volante

source

Mostrar más
Botón volver arriba