Ya sabemos cuántos chips han comprado Microsoft, Meta o Tesla a NVIDIA en 2024. Una absoluta burrada
NVIDIA se ha forrado en 2024. La empresa de Jensen Huang domina de forma imperial el sector de los chips de inteligencia artificial, y ha logrado que todas los gigantes de la tecnología dependan de ella. Al menos por ahora, porque la cosa podría cambiar en 2025.
Microsoft compra el doble que sus rivales. Datos de la consultora tecnológica Omdia citados en Financial Times revelan que Microsoft es de largo el mayor cliente de NVIDIA en Estados Unidos. En 2024 ha comprado 485.000 de sus chips con arquitectura Hopper (H100, GH200), más del doble de los que por ejemplo compró Meta con 224.000.
Pero claro, OpenAI es OpenAI. Es muy probable que la inversión de Microsoft está debida en buena parte a su propia inversión de 13.000 millones de dólares en OpenAI. La creadora de ChatGPT es el gran referente en modelos de IA, y eso hace que también necesite muchos recursos que «Microsoft le presta». La compra masiva de chips de los de Redmond responde no solo a la voracidad de OpenAI, sino también a que necesitan dichos recursos para Copilot en todas sus versiones.
Ojito a las Big Tech chinas. Aunque la guerra comercial impide que los gigantes tecnológicos chinos puedan adquirir los chips más avanzados de NVIDIA —al menos en grandes cantidades—, empresas como ByteDance y Tencent han sido también clientes importantísimos en 2024, y han adquirido unos 230.000 chips de IA, incluyendo el modelo H20, algo menos potente que las H100. Amazon ha comprado 196.000 de esos chips, mientras que Google ha comprado 169.000 según los datos de Omdia. Para estimar esos cifras, Omdia analiza gastos de capital de esas empresas, envíos de servidores y datos del canal y proveedores.
Centros de datos al poder. El otro dato revelante del estudio de Omdia está en el gasto en servidores. En 2024 las empresas tecnológicas se gastaron en todo el mundo 229.000 millones de dólares, con Microsoft (31.000) y Amazon (26.000) como grandes protagonistas. Las 10 empresas que más gastaron en este ámbito representan el 60% de la inversión en centros de datos en 2024. Aquí hay dos empresas recientes que también han invertido a lo bestia. La primera es xAI, de Elon Musk. La segunda, CoreWeave que «alquila» GPUs a desarrolladores de IA, aunque se inició ofreciendo GPUs para mineros de criptodivisas.
NVIDIA por todos lados. Y atención, porque según Vlad Galabov, director de investigación de cloud y centros de datos en Omdia, el 43% de gasto en servidores en 2024 fue a parar a una misma compañía: NVIDIA. La empresa de Jensen Huang ha sido sin duda la gran ganadora de la IA… pero eso podría cambiar.
AMD crece poco a poco. Aunque a mucha distancia, los chips de IA de AMD también comienzan a tener relevancia. Meta de hecho compró 173.000 de sus MI300, mientras que Microsoft adquirió 96.000. La firma dirigida por Lisa Su presentó sus Instinct MI325X en octubre, y tiene un prometedor roadmap para 2025.
Y las Big Tech desarrollan chips propios. Pero aun más importante que ese despegue de AMD es la creciente inversión y uso de chips propios por parte de las Big Tech para sus centros de datos y sus modelos de IA.
- Google lleva una década desarrollando sus propias TPUs o «Tensor Processing Units» y las usa masivamente en sus centros de datos, aunque no hay cifras concretas sobre su despliegue.
- Meta lanzó sus primeros chips de entrenamiento e inferencia a finales del año pasado, y ya ha desplegado 1,5 millones de esos chips para sus modelos de IA.
- Amazon está invirtiendo mucho dinero en sus chips Trainium e Inferentia y de hecho ha desplegado 1,3 millones de esos chips en sus centros de datos. Su inversión en Anthropic incluye la creación de un nuevo cluster con cientos de miles de sus chips Trainium de última generación.
- Apple también eligió a Amazon como socio en lugar de NVIDIA, dando una agradable sorpresa a la empresa de Andy Jassy.
- Microsoft sigue también trabajando en «independizarse» de NVIDIA, aunque por ahora solo ha desplegado 200.000 chips de IA Maia propios.
En Xataka | Microsoft es la gran beneficiada de una OpenAI débil. El problema es que también la necesita fuerte