Ultimas Noticias

Google ha actualizado sus principios para la IA, y ha desaparecido la mención a no desarrollar armas con esta tecnología

En medio de la creciente rivalidad en la industria de la inteligencia artificial (IA), algunas compañías están ajustando sus enfoques sobre los ámbitos de aplicación de esta tecnología. El año pasado, OpenAI suprimió determinados términos de su política antes de anunciar un acuerdo con el Pentágono. Ahora es el turno de Google, que ha actualizado sus “principios para la IA”.

La firma de Mountain View ha rediseñado casi por completo el mencionado documento, pero lo que más ha llamado la atención es la ausencia de la categoría “Aplicaciones de la IA que no vamos a abordar”. Como sugería su nombre, agrupaba varias áreas concretas en las que no se diseñarían ni implementarían soluciones de IA para preservar el desarrollo responsable de la misma.

Google, inteligencia artificial y armas

Como podemos ver en la captura, la lista original incluía en su primer ítem a “tecnologías que causen o puedan causar daño en general. Cuando exista un riesgo importante de causar algún daño, seguiremos adelante solo cuando consideremos que los beneficios compensan considerablemente los riesgos, e incluiremos restricciones adecuadas para asegurar la seguridad”.

Los ítems siguientes señalaban “armamento u otras tecnologías cuya finalidad o aplicación principal sea ocasionar daños o herir a personas, tecnologías que recopilen o usen información para vigilar incumpliendo las normas aceptadas internacionalmente, tecnologías cuya finalidad contravenga los principios generalmente aceptados del derecho internacional y los derechos humanos”.

El segmento de "Aplicaciones de la IA que no vamos a bordar" en el documento original

El segmento de «Aplicaciones de la IA que no vamos a bordar» en el documento original

Bloomberg, que fue uno de los primeros medios en detectar el cambio, solicitó comentarios a Google. La compañía respondió con una publicación de blog firmada por James Manyika, SVP de Google, y Demis Hassabis, quien dirige el laboratorio de IA Google DeepMind, en la que se habla del desarrollo responsable de la IA en democracia y remite a la página con los principios actualizados.

Google Ai

“Reconocemos la rapidez con la que la tecnología subyacente, y el debate en torno al avance, la implementación y los usos de la IA, seguirán evolucionando, y continuaremos adaptando y refinando nuestro enfoque a medida que todos aprendamos con el tiempo”, ha dicho la compañía. Cabe señalar que no se han dado a conocer nuevos contratos de defensa por parte de Google.

En el pasado, la firma liderada por Sundar Pichai trabajó con el Pentágono en el proyecto Maven, que consistía utilizar la IA para procesar datos de varias fuentes (principalmente de drones), identificar objetivos potenciales en zonas de guerra y más. Google decidió no renovar su contrato de colaboración con el Gobierno de EEUU después de que sus propios empleados protestaran.

Imágenes | Google

En Xataka | La UE destina 52 millones de euros a crear su propia IA y competir con EEUU y China. Es lo mismo que OpenAI gasta cada 48 horas

source

Mostrar más
Botón volver arriba