Las armas y las aplicaciones militares han dejado de ser el gran tabú de la IA. Hay demasiado dinero en juego
«Estos son mis principios. Si no le gustan, tengo otros». La célebre frase de Groucho Marx parece ser ahora el mantra de las compañías de IA, que hasta no hace mucho se mostraban contrarias a la aplicación de la IA con fines militares y bélicos. Eso ha cambiado por una sencilla razón: el dinero.
Google. Como explicábamos hace tan solo unas horas, Google ya no se muestra contraria al uso de IA con fines bélicos. Lo demuestra el hecho de que ha eliminado de sus «principios para la IA» el párrafo que precisamente indicaba que no aplicarían dicha tecnología » a tecnologías que causen o puedan causar daño».
Eran otros tiempos. En abril de 2018 se desató la polémica cuando se descubrió que Google estaba colaborando con el Pentágono en EEUU para el desarrollo de un programa de Defensa llamado Project Maven. Más de 3.000 empleados de Google protestaron abiertamente con una carta abierta, lo que acabó provocando una reacción llamativa por parte de la firma: se echaron atrás y cancelaron el proyecto.
Don’t be evil. Aquel suceso pareció devolvernos al mantra original de Google con su famoso «Don’t be evil» («No seas malvado»). Aquel mensaje acabó siendo muy criticado por la clara transición de Google de startup llamativa y prometedora a una empresa tradicional en la que la hoja de cuentas es la prioridad absoluta.
Las grandes de la IA quieren aprovechar el filón. Google no es la primera ni será la última en plantearse el desarrollo de sistemas de IA con fines bélicos. Antes que ella vimos varios casos. Anthropic se ha asociado con Palantir —como Microsoft— y AWS para ofrecer su modelo Claude a agencias de inteligencia y defensa de EEUU, y Meta anunció nuevos términos con el mismo objetivo. OpenAI también ha modificado sus términos de uso y ya negocia contratos con el DoD,
![Caza](https://i0.wp.com/i.blogs.es/4f93f1/caza/450_1000.jpeg?resize=1200%2C800&ssl=1)
Mucho dinero en juego (pero podría ser mucho más). El gasto militar sigue siendo extraordinario, y los contratos de las agencias gubernamentales de EEUU relacionados con los sistemas de IA creció en EEUU un 1.200% entre 2022 y 2023. Se espera que en 2025 el gasto (estimado en 1.800 millones de dólares) sea como mínimo igual, y la prioridad de usar este tipo de tecnología es alta. Es una cifra casi residual, sobre todo teniendo en cuenta que desde 2023 el presupuesto militar de EEUU ronda los 830.000 millones de dólares.
Cuidado con el botón rojo. En septiembre de 2024 se celebró en Corea del Sur la cumbre REAIM sobre el uso potencial de sistemas de IA con fines bélicos. La pregunta fundamental que se plantearon los países asistens fue si deberían las máquinas tomar decisiones sobre el uso de armas nucleares. Salvo por China, el resto de países tuvieron claro que el botón rojo solo debería poder pulsarlo un ser humano. Rusia tampoco participó en la cumbre: estaba vetada por la Guerra de Ucrania.
Por un uso ético de la IA en conflictos bélicos. Los países que participaron en la cumbre también firmaron un acuerdo bajo el cual las capacidades de IA en el ámbito militar «deben aplicarse de conformidad con el derecho nacional e internacional aplicable. Las aplicaciones de IA deben ser éticas y centradas en el ser humano».
Pero las armas con IA llevan tiempo en el campo de batalla. Lo demuestra el hecho de que la tecnología es parte integral de la Guerra de Ucrania. Más allá de la sorpresa de encontrarnos con Steam Decks controlando potentes ametralladoras, en el conflicto se usan por ejemplo drones autónomos con IA que son capaces de fijar el objetivo para luego atacarlo.
¿Y la regulación, qué? La conocida Ley de la IA de la Unión Europea precisamente exime (artículo 2, sección 3) de esas obligaciones a los sistemas de IA que se utilicen exclusivamente con fines militares, de defensa o seguridad nacional, independientemente de si desarrollan o usan por entidades públicas o privadas.
Qué dice el Ministerio de Defensa de España. En un comunicado reciente del Ministerio de Defensa español se habla precisamente de la carrera de la IA militar y «el maratón de las normas humanas para regularla». Allí se reafirman las conclusiones de la cumbre REAIM: la IA puede usarse con fines militares, pero siempre garantizando «que la IA no amenace la paz, seguridad y la estabilidad mundial, no viole los derechos humanos, no eluda el control humano y no obstaculice otras iniciativas relacionadas con la tecnología militar».
Imagen | Airman Magazine | Fuerza Aérea de Estados Unidos
En Xataka | China es el país que más ha aumentado su arsenal nuclear. Ahora pide contención a EEUU y sus aliados