Así funciona Apple Intelligence en español. Ha sido como pillar a un alumno con los deberes a medio hacer

La función estrella de iOS para 2025, Apple Intelligence, ya se puede probar en la beta para desarrolladores de iOS 18.4. Basta con instalar esta última versión para que se activen las funciones, y no he querido perder la oportunidad de probar esta IA a fondo en el iPhone 16 Pro. Debido al marco regulatorio de la UE, Apple ha tardado algo más en traer estas funciones a España, que ya estaban presentes en EEUU.
Pese a esta circunstancia, el resto de rivales llevan implementando funciones de inteligencia artificial de forma profunda desde hace más de un año. Apple llega tarde, sí. La pregunta ahora es si merece o no la pena la espera.
En este análisis tenemos en consideración que Apple Intelligence está dando sus primeros pasos y que lo que hemos probado es una beta. Pese a ello, llevamos estos años recientes probando versiones beta de otros servicios (Gemini, ChatGPT), y tenemos claro el mínimo exigible.
«Oye, aquí tienes IA»

El sistema nos irá guiando a través de las nuevas funciones.
El primer punto que merece la pena destacar es uno que llevo criticando desde hace bastante tiempo en alternativas de la competencia (salvo en Samsung, que lo hace genial). De nada sirve la IA si el usuario medio no sabe dónde y cómo puede usarla. Aquí Apple lo hace bastante bien ya que, desde el minuto uno, nos envía notificaciones indicando que Apple Intelligence ya está disponible.
No tengo la menor duda duda de que, al igual que Samsung, cuando iniciemos por primera vez nuestros próximos iPhone el asistente de configuración nos explicará todo este proceso que ahora se explica con notificaciones. Al ser una beta, algunos de estos banners explicativos están en inglés. Un detalle menor, ya que todo sigue funcionando en español.
Dados los avisos y leído todo, toca empezar a probar Apple Intelligence. Las funciones que llegan a España son prácticamente todas, a excepción del mirroring a Mac y la transcripción de llamadas.
Probando Apple Intelligence
Apple Intelligence es un conjunto de funciones de inteligencia artificial que llegan de forma nativa al iPhone. Su principal diferencia respecto a rivales directos es que la mayoría del procesado se realiza en el propio teléfono, razón principal por la que el modelo no puede ejecutarse con menos de 8 GB de RAM (y gracias a lo cual el iPhone 16e cuenta con esta capacidad).
Entre sus funciones encontramos nuevas herramientas de escritura, generación de imágenes, integración de ChatGPT en Siri, Genmojis, y mejoras en apps nativas como Fotos o Mail.
Herramientas de escritura

Apple destaca en su página web las funciones que considera clave en Apple Intelligence. La primera de ellas tiene que ver con las herramientas inteligentes de escritura. Estas nos permiten reescribir textos, hacer resúmenes, mejorar la gramática y tono de lo que hemos escrito, etc. La integración es genial, ya que estas herramientas funcionan en cualquier app. Basta con seleccionar el texto para que aparezcan.
Aquí tendremos dos caminos: describir el cambio preciso que queremos hacer mediante un prompt personalizado, o bien dejar que Apple lo haga de forma automática mediante ajustes predefinidos bastante concretos.
- Revisar
- Reescribir
- Estilo informal
- Estilo profesional
- Estilo conciso
- Resumen
- Puntos clave
- Lista
- Tabla
El funcionamiento de estas funciones de escritura es bastante bueno. He llegado a ponerlo a prueba lanzándole una review entera para que analice puntos clave y, si bien no es perfecto, lo hace de forma más que notable.
Este tipo de herramientas son especialmente útiles en entornos profesionales en los que queremos mejorar ese correo que vamos a mandar.
Mejoras en Siri

Siri es uno de los grandes cambios en Apple Intelligence, con una interfaz mucho más agradable, integración con ChatGPT y la promesa de que podrá leer todo lo que tenemos en la pantalla para analizar su contexto y brindarnos información. Esta última función, la más espectacular, aún no está disponible (ni siquiera en EEUU).
En mi caso, he tenido que forzar desde los ajustes «preferir respuestas de voz» ya que, en el modo automático, jamás me hablaba (solo aparecía la respuesta escrita). El funcionamiento de esta nueva Siri, al menos en su fase beta, es decepcionante. Destaca, en principio, por comprender mejor el lenguaje natural, pero está muy lejos de la memoria que hemos visto en IAs como GPT.
Por ejemplo, le he pedido que añada un evento de 17 a 18h. Posteriormente, le he indicado que me recuerde cuál es el último evento que ha añadido. Su respuesta ha sido añadir a recordatorios «el último evento que has creado hoy». Indicándole qué evento era, le he pedido que modifique la hora. Su respuesta ha sido que no lo ha encontrado.
Siri está muy lejos de entender lenguaje natural como GPT. Al menos en esta primera beta en español
En otras ocasiones, ni siquiera ha respondido a mis preguntas o se ha quedado congelada. El potencial está ahí pero, al menos por ahora, es una herramienta muy alejada de lo que se espera.
Respecto a la integración con ChatGPT, funciona como una extensión de Siri. Podemos iniciar sesión o no y, en caso de que detecte que GPT puede atender a nuestra petición, nos invitará a usarlo. Esta es la clave aquí, solo usará GPT si le damos permiso.
Si le damos permiso a GPT, las peticiones las realizará a través del modelo de OpenAI, pero con la voz de Siri. En otras palabras, tendremos las respuestas de GPT leídas por Siri. Esta integración me parece bastante buena, ya que permitirá mezclar lo mejor de Siri y sus posibilidades a nivel de sistema (poner alarmas, recordatorios, añadir eventos, mandar correos, etc.) con el potencial de GPT.
Las apps nativas
Fotos. Apple ha querido añadir algunas funciones en sus apps nativas, empezando con Fotos. Una de las funciones estrella es clean up, su rival para el borrador mágico de Google. Y puedo adelantar que ni se le acerca.

Fotografía de la galería. Clean Up | Borrador Mágico de Google Fotos.
En primer lugar, la detección automática de sujeto solo me ha funcionado una vez. El resto, he tenido que seleccionar manualmente lo que quería borrar. En cuanto al resultado, si lo comparamos con el borrador mágico de Google Fotos (al cual puedes acceder de forma gratuita desde tu iPhone), no hay punto de comparación. Google lleva años refinando esta función y funciona de forma prácticamente perfecta (aunque necesita hacer copia de seguridad en la nube y ejecutar online, todo sea dicho). El de Apple… está dando sus primeros pasos.
Es una función útil en casos donde se lo ponemos mu fácil (sujetos muy separados, elementos de fondo sencillos, etc.). Pero si la IA generativa tiene que rellenar el hueco de forma compleja, mucho mejor usar el de Google. De hecho, no sé por qué, en algunas escenas (como la que muestro arriba), Clean Up ha roto el HDR de la fotografía.
Otra integración es la que supuestamente añade compresión natural de texto en Fotos y, al menos en mi experiencia, tampoco funciona. Apple indica que podemos hacer descripciones para que busque fotografías en la fototeca. Le he indicado, ya que tengo guardado un viaje a Ámsterdam, que me muestre fotos «sentado en Ámsterdam». Me ha mostrado un popurrí bastante impreciso. Por cierto, Siri (por el momento) tampoco es capaz de encontrar imágenes de nuestra galería.

Mail. Mail también se ha refinado mediante IA, y ahora muestra los mensajes prioritarios en la bandeja principal, reservando apartados de Transacciones, Novedades y Promociones para el resto de apartados. Literalmente el apartado de «Transacciones» indica que «todos los mensajes relacionados con mis pedidos, incluidos avisos de envío y entrega, se agrupan por remitente».
Es algo que estaría genial, pero que no sucede, ya que por alguna razón en mi apartado de «Principal» hay decenas de mensajes sin agrupar de Amazon. Sí que me ha funcionado bien el apartado de resumir correos, pero esta app necesita trabajo, mucho trabajo.
Notas. La app de notas ahora es capaz de transcribir texto. Funciona relativamente bien, aunque comete algunas faltas de ortografía importantes que se evitarían si el modelo estuviese mejor afinado.
Esta app podrá mostrarnos también las transcripciones de texto de las llamadas que grabemos. Por el momento, no me ha sido posible hacerlo.

Image Playground. Por último, apuntar que Image Playground es la nueva app de Apple para generar imágenes mediante IA. Me ha recordado más a una app gratuita de terceros que a una herramienta nativa y de calidad. Es bastante limitada y, aunque permite combinar fotografías para generar posteriormente nuevas mediante un prompt, está bastante lejos de lo que logran los teléfonos Android con los generadores actuales.
Respecto a la creación de Genmojis. Sí, molan, pero algo me dice que sucederá lo mismo que con los Memojis. Los usaremos la primera semana para hacer pruebas divertidas, luego es probable que caigan en el olvido.
Apple llega tarde, pero no llega mejor

Apple nunca ha sido de llegar la primera. Pero si algo ha demostrado con los años es que, a veces, llegar antes no significa llegar mejor. La compañía tiene por filosofía traer al mercado tecnologías maduras, aunque ello conlleve lanzar soluciones con retraso respecto a la competencia.
Con Apple Intelligence la sensación no es esa. La sensación es la que han llegado tarde, y han llegado con lo que han podido. Ese alumno que llega tarde a clase con el workbook a medio rellenar y quiere completarlo en la propia clase. Si la clase viene sin los deberes hecho, brillará. Si todos han hecho bien sus deberes, tendrá un problema.
La nueva etapa es ilusionante: los iPhone están dando sus primeros pasos con la IA y algunas de las funciones son realmente útiles. El problema es llegar tan, tan verde. Cuando probé ChatGPT en beta, quedé absolutamente fascinado. Era un software con el potencial de cambiar el mundo. Que un software no esté en su versión final no se traduce en que no pueda sorprender. Pero Apple Intelligence no lo hace.
En su presentación, se nos prometió una comprensión del lenguaje natural nunca antes vista, integración nativa con todas las apps y, en definitiva, una IA con la que tendríamos una interacción completamente natural. Por el momento, todo son promesas pendientes de cumplir.
Imagen | Xataka
En Xataka | Cómo probar Apple Intelligence en España bajando la beta para desarrolladores de iOS 18.4