La IA plantea un cambio enorme en nuestros móviles. Uno que hará que tengan (al menos) 32 GB de RAM
Hace un año que nuestros móviles cuentan con funciones de IA. Google las ofrece con Gemini y Apple (más o menos) con Apple Intelligence, pero por ahora esas funciones son limitadas y se reducen a tareas algo modestas.
Sin embargo estamos viendo cómo nuestros PCs cada vez tienen acceso a modelos más llamativos. La comparativa reciente que realizamos de DeepSeek R1-14b con modelos como Llama 3.1-8b o Phi 4-14b demostró que estos desarrollos podían correr realmente bien en un Mac mini M4 con 16 GB de RAM.
Sin embargo, lo que ocurre por ejemplo en los Pixel es que Google ofrece su modelo Gemini Nano, que cuenta con dos versiones: una 1.8B y otra 3.25B. Son modelos decentes, pero aun así están claramente por debajo de las prestaciones de modelos como DeepSeek-R1-14B y otros como los citados.
El problema es que esos modelos, sobre todo cuando comenzamos a subir el tamaño y el número de parámetros (14B, por ejemplo), necesitan memoria. Y bastante. Un LLM de siete mil millones de parámetros (7B) suele necesitar unos 8 GB de memoria, aunque aquí disponer de algo más de margen de maniobra (por ejemplo, 12 GB) es recomendable.
Los fabricantes lo saben, y de hecho hasta Apple ha hecho ahí un pequeño esfuerzo. En los iPhone 16 se ha dado el salto de los 6 a los 8 GB en gran parte por esto, y los Pixel 9 de Google ofrecen hasta 16 GB de RAM precisamente por la misma razón: eso da margen de maniobra para que las funciones de IA ejecutadas en local puedan funcionar de forma fluida.
Pero puede que ese salto en memoria pronto vaya a más. No parece descabellado pensar que más pronto que tarde veamos móviles con al menos 32 GB de RAM precisamente para poder ejecutar modelos de IA de mayor tamaño y así ofrecer a los usuarios opciones más potentes en este sentido.
Por supuesto, no solo importa la cantidad de memoria. Nuestros móviles no tienen una GPU dedicada que pueda acelerar estas tareas, pero se está avanzando mucho en el desarrollo de NPU cada vez más potentes. La combinación de ambos elementos parece hacer posible un cambio importante a la hora de ofrecer modelos locales de IA cada vez más versátiles.
A estas mejoras hardware en nuestros móviles también se unen posibles técnicas de optimización y «compresión» de los modelos de IA. La cuantización, una especie de «redondeo», permite que grandes modelos de lenguaje (LLM) vean reducido su tamaño a costa, eso sí, de la pérdida de cierto nivel de precisión.
La cuantización es un proceso ya muy popular a la hora de poder usar modelos de IA grandes en máquinas más modestas, y además de reducir los requisitos hardware permite también ganar en eficiencia.
Todo ello hace pensar en un futuro no muy lejano en el que tendremos modelos de IA mucho más potente en nuestro bolsillo. Modelos que podremos ejecutar en local, que podremos usar incluso sin conexión a internet y que además mantendrán toda la conversación en privado.
Son muchas ventajas interesantes. Demasiadas para no pensar en que puede que pronto veamos cómo los fabricantes de móviles presumen de móviles de 32 GB. O quién sabe si incluso de más.
En Xataka | El nuevo Gemini demuestra una ambición de Google: que hablemos sin parar con nuestro móvil