Ultimas Noticias

Las empresas que violen la ley de la IA tendrán un problema muy gordo: uno llamado 7% de sus ingresos

La Ley de IA de la Unión Europea entró en vigor el pasado 1 de agosto de 2024, y ayer la Comisión Europea publicó un comunicado en el que se revelaban los usos y prácticas prohibidas de IA.

Dichas «prácticas de IA prohibidas»  están detalladas en el propio texto de la Ley de IA. En concreto, en su artículo 5. El objetivo es tratar de cubrir una serie de casos en los que la IA puede intentar interactuar con las personas, tanto a través de aplicaciones para consumidores como a través de entornos físicos.

La regulación europea definió cuatro niveles de riesgo para los sistemas de IA que van desde el riesgo mínimo (filtros de spam) al riesgo inaceptable, considerados como sistemas como una amenaza para la seguridad. Entre las actividades inaceptables están las siguientes: 

  • IA para puntuación social, lo que permite crear perfiles de riesgo basadas en el comportamiento de las personas.
  • IA manipuladoras capaces de afectar las decisiones de las personas de forma subliminal o mediante engaños.
  • IA que explota vulnerabilidades como la edad, la discapacidad o el nivel socioeconómico de los usuarios.
  • IA que intenta predecir si la gente cometerá crímenes basándose en su apariencia
  • IA que usa la biometría para inferir las características de una persona, como su orientación sexual
  • IA que recolecta datos biométricos en tiempo real en sitios públicos con fines de seguridad policial
  • IA que registra y trata de inferir las emociones de los usuarios tanto en el lugar de trabajo como en las instituciones académicas
  • IA que crea o amplía las bases de datos de reconocimiento facial recolectando imágenes online o a través de cámaras de seguridad

Las empresas que violen esa normativa se enfrentarán a multas de hasta 35 millones de euros o de hasta el 7% de sus ingresos anuales el año fiscal anterior, la cifra que sea mayor. Y esas multas afectan a cualquier empresa, sin importar dónde tenga instalada su sede.

El pasado mes de septiembre 100 empresas firmaron el Pacto de IA de la UE, una iniciativa voluntaria para impulsar la aplicación de los principios de la Ley de IA. Entre los firmantes estaban gigantes como Amazon, Google y OpenAI, y todos se comprometieron a identificar sistemas de IA potencialmente calificados como de alto riesgo.

Hay no obstante algunas excepciones a esos usos prohibidos de la IA. Así, por ejemplo la Ley de la IA permite que las agencias de seguridad puedan usar ciertos sistemas de recolección de datos biométricos —como nuestra cara— si esos sistemas ayudan a realizar «búsquedas dirigidas» para por ejemplo víctimas de secuestros o a evitar amenazas inminentes a las personas. Eso validaría usos como el que recientemente conocimos en Madrid.

Los países de la Unión Europea tienen hasta el 2 de agosto para designar qué autoridades vigilarán este mercado y garantizarán el cumplimiento de las reglas de la ley de IA. La pregunta, es el impacto que esto tendrá en la disponibilidad de funciones de IA en la UE.

Dado que se habla de sistemas de alto riesgo, ese impacto debería ser mínimo, pero el resto del marco regulatorio —con la DMA como protagonista— sí plantea un obstáculo importante para que en la UE disfrutemos de los últimos avances en este campo.

En Xataka | La ley de inteligencia artificial de la UE ha nacido obsoleta. Así que ya está preparando la siguiente

source

Mostrar más
Botón volver arriba