Ultimas Noticias

La IA siempre quiso que pagáramos para acceder a sus versiones avanzadas. Su plan ahora es que paguemos… Por usarla mucho

Está todo inventado, dicen. El modelo freemium es una buena prueba de ello: desde hace tiempo es habitual que podamos jugar a videojuegos o utilizar aplicaciones software gratis. Pero claro, no son las versiones completas, sino ediciones básicas y capadas. Así que puedes seguir aprovechándolas gratis si no necesitas más, pero si pasa lo contrario empieza el problema, porque toca pasar por caja.

Eso es justo lo que estamos viviendo con el mundo de la IA. Casi todos los modelos permitieron que los usáramos gratuitamente. Fue lo que pasó con ChatGPT, Gemini, Copilot o Claude.

Con el tiempo las empresas responsables de desarrollar esos modelos fueron lanzando versiones más potentes y de mayor calidad, pero si querías usarlas tocaba pagar. ChatGPT Plus, Claude Pro o Copilot Pro marcaron la pauta con suscripciones de 20 dólares al mes que daban acceso a usos más intensivos y también a esos modelos y características más avanzadas.

Pero aquello no era suficiente, y OpenAI anunció el lanzamiento de ChatGPT Pro en diciembre de 2024. Era una alternativa aún más avanzada y perfecta para los usuarios intensivos, pero su precio también planteaba una barrera importante, porque no todo el mundo está dispuesto a pagar 200 dólares al mes por usar modelos de IA.

Ese plan puede parecer caro si no lo aprovechas, pero, ¿qué pasa si le sacas todo el jugo? Puede que entonces se convierta en una ayuda que te permita hacer más en menos tiempo, y si es así puede que esos 200 dólares te parezcan hasta un chollo: depende de cada situación, y OpenAI lo sabe. Tanto es así que plantea que en el futuro habrá chatbots hiperspecializados que costarán 20.000 euros al mes. Que parece una cifra absurda, pero, ¿y si al usarlos generas 40.000, 50.000 o 100.000 euros al mes? Ahí está la clave: en si aprovechas esos modelos de forma intensiva y si compensan realmente.

Y ahí es donde las empresas se han dado cuenta de que pueden cobrar ya no solo por la calidad, sino por la cantidad.

Claude

Es lo que propone también Anthropic, que estos días anunciaba sus nuevos planes Claude Max con dos variantes. La primera, de 90 euros al mes, que permite límites de uso cinco veces superiores a los de Claude Pro (el ChatGPT Plus de Anthropic, que cuesta 15 euros mes). La segunda, de 180 euros al mes, que va más allá y permite usar este chatbot con límites 20 veces más amplios.

¿Qué significa eso? Básicamente que incluso siendo un usuario intensivo será muy difícil que aparezca el temido mensaje del tipo «has agotado el límite de peticiones, espera unas horas para volver a usarlo». No es que el modelo sea mejor ni más rápido —al menos, de momento—. Simplemente podrás usarlo mucho más.

Y si quieres más, no pasa nada: está la API

La estrategia de Anthropic, como la de OpenAI antes, es lógica y razonable: si quieres «abusar» de las ventajas de la IA y hacer un uso intensivo de su capacidad, tendrás que pagar un extra.

Captura De Pantalla 2025 04 10 A Las 17 05 34

Hay una alternativa más en estos ámbitos, y esa es la de pagar por el uso de la API: aquí podemos consumir tanto como queramos, y el pago por uso se mide en coste por millón de tokens de entrada o de salida. Si el modelo es más moderno y capaz, pagas más. Si es más antiguo y modesto, menos.

En Anthropic, por ejemplo, Claude 3.7 Sonnet (su mejor modelo actualmente) cuesta tres dólares por millón de tokens de entrada y 15 dólares por cada millón de tokens de salida. La versión anterior, Claude 3.5 Haiku, cuesta 0,8 dólares por millón de tokens de entrada y 4 dólares por millón de tokens de salida.

Con el modelo de pago por uso que plantean las APIs, muy dirigido a desarrolladores y empresas —y especialmente útil para programadores— hay también grandes diferencias entre unos proveedores y otros. El modelo o1-pro de ChatGPT Pro es por ejemplo 140 veces más caro en su coste de API que el o3-mini que está disponible en ChatGPT.

Lo que está claro es que las empresas ya tienen perfilado cómo vamos a pagar por usar la inteligencia artificial. No solo pagaremos por aquella que es más avanzada; si queremos usarla mucho, tocará pagar más.

Aquí por supuesto existe el peligro de que las empresas jueguen con esos límites y los «reduflaccionen», pero ya cruzaremos ese puente cuando lleguemos a él. De momento una cosa está clara: usar la IA podrá salir gratis, pero si quieres usarla mucho y bien, ve preparando la cartera.

Imagen | Solen Feyissa

En Xataka | La paradoja Ghibli: el éxito más viral de la IA es al mismo tiempo un síntoma de sus problemas como producto diario

source

Mostrar más
Botón volver arriba