Ultimas Noticias

ChatGPT cuesta 700.000 dólares al día, DeepSeek 83.000. Una clave es Huawei y la otra jugar sus cartas de otra forma

2025 comenzó con un tsunami en el segmento de la inteligencia artificial. Tras meses y meses hablando de diferentes modelos y de empresas como Google, Microsoft, Apple, Meta y, claro, OpenAI, una empresa china se sacó de la manga DeekSeek, una IA que sacudió los cimientos de la industria.

Más allá de sus posibilidades o lo bien que funcionara, lo que revolvió las aguas fueron cuestiones económicas y de hardware. Casi desde el principio se puso sobre la mesa la pregunta de cómo China había sacado de la nada una IA como DeepSeek con la limitación de hardware que tienen debido a la guerra comercial con Estados Unidos y la imposibilidad de comprar las gráficas más potentes de NVIDIA (aunque con polémica).

Para ello, la empresa defendió que había tenido que tirar de ingenio gracias a una infraestructura de chips H800 de Nvidia y un entrenamiento de más de 2,788 millones de horas con un costo ridículo: 5,6 millones de dólares. Y se antoja escaso porque OpenAI invirtió unos 100 millones de dólares para entrenar GPT-4. Otro melón es lo que cuesta mantenerlo.

Como apunta Reuters, Si ChatGPT cuesta unos 700.000 dólares al día, DeepSeek baja hasta los 87.000 dólares. Y aquí algunas cosas que se han de tener en cuenta.

DeepSeek es 10 veces más barato de mantener que ChatGPT, según DeepSeek

El pasado sábado, y como apunta Reuters, DeepSeek reveló algunos datos sobre los costos e ingresos relacionados con sus modelos V3 y R1. El primero es un chatbot tradicional, más conversacional, resultando ideal para la redacción y creación de contenidos. R1, sin embargo, es un modelo de razonamiento. Destaca resolviendo problemas, empleando la lógica y es capaz de mostrar un razonamiento paso a paso, valiéndose además de un aprendizaje continuo.

Por comparar con modelos más conocidos, DeepSeek V3 sería como GPT-4 y R1 algo similar al o1 de OpenAI. En el informe, Reuters destaca que la relación teórica de costos-beneficio de DeepSeek es de hasta un 545% al día.

Eso sí, la propia empresa advierte de que los ingresos reales son significativamente menores, pero otra perla que han dejado desde DeepSeek es el costo del mantenimiento. Mantener ChatGPT funcionando le cuesta unos 700.000 dólares al día a OpenAI (al menos hace dos años). El motivo es que hay que mantener la infraestructura de servidores Azure de Microsoft, tiene un costo energético considerable, hay que pagar salarios y, evidentemente, toda la potencia en hardware para procesar las consultas que recibe cada segundo.

Cost And Theoretical Income

En amarillo, los costos. En azul, los ingresos teóricos

DeepSeek “sólo” 87.072 dólares, un precio ridículo en comparación. Hace unos días afirmó que, alquilar las H800 le cuesta menos de dos dólares por hora y los ingresos teóricos estimados son de algo más de 560.000 dólares, lo que en un año sumaría algo más de 200 millones de dólares. En el gráfico superior, DeepSeek muestra el costo de mantener R1 y los ingresos teóricos gracias a los tokens que se generan, cuyo precio depende del momento del día, siendo más baratos por la noche. También aclaran que DeepSeek V3 es «significativamente más barato».

Esto abre más cuestiones. Una es cómo resulta tan barato porque entrenar una IA, desde luego, no lo es. Pasando por alto la acusación de robo por parte de OpenAI, si DeepSeek no ha desinflado los números, pone sobre la mesa una situación en la que no se necesita tantísima potencia gráfica para entrenar una inteligencia artificial.

Aquí la clave es el ‘reinforcement learning’, el modo que ha encontrado DeepSeek de hacer más con mucho menos, pero también hay que destacar que, aunque durante el entrenamiento se usan los chips de Nvidia para el modelo R1, en la inferencia está empleando los Ascend 910B de Huawei.

Los chips de Huawei son más económicos y, supuestamente, más eficientes, y esta decisión de DeepSeek es casi más relevante que lo que pueda costar mantener el sistema. El motivo es que puede enseñar al resto de empresas de inteligencia artificial que, quizá, no vale la pena utilizar las GPU de última generación para todo, sino sólo para un entrenamiento que se da en ocasiones contadas, antes de la implementación de la IA, y luego emplear otras GPU más eficientes y baratas para la inferencia. Esta inferencia es la que se realiza después, en un uso que podríamos llamar “real”.

El entrenamiento sería el equivalente a tragarse manuales técnicos en una carrera de cinco años y la inferencia algo como poner en práctica esos conocimientos y razonar partiendo de la base que tienes y sin tener que volver a aprenderlos. Al final, la polémica de los cinco millones de dólares de DeepSeek va a estar ahí durante un tiempo, sobre todo cuando comparamos con los números de OpenAI, pero es evidente que DeepSeek está haciendo cosas desde otro enfoque y puede ser un buen espejo para empresas que vengan detrás.

Y, con una China muy volcada en el desarrollo tanto de IA como de hardware para la IA, puede ser el modelo ‘punta de lanza’ perfecto.

Imágenes | GitHub (DeepSeek), Xataka

En Xataka | DeepSeek ha creado otra fortuna milmillonaria: Liang Wenfeng se ha hecho popular pero su riqueza sigue siendo un misterio

source

Mostrar más
Botón volver arriba