Los espías también quieren usar ChatGPT. Así que Microsoft ha creado uno especial para ellos
ChatGPT, como el resto de chatbots del mercado, tienen un problema: no saben guardar secretos. Eso es un problema para muchas empresas a la hora de usarlos, pero lo es aún más para agencias gubernamentales de seguridad.
Los servicios secretos de EEUU precisamente querían aprovechar las ventajas de los modelos de IA generativa, pero evitando esos riesgos, y ahora ya tienen lo que buscaban: algo así como un «ChatGPT para espías».
Lo han logrado gracias a Microsoft, que ha desarrollado un modelo de IA generativa totalmente desconectado de internet y que permite ser aprovechado para analizar información de alto secreto.
Según indica William Chappell, responsable del departamento de misiones estratégicas en Microsoft, es la primera vez que un LLM ha sido usado de esa forma, ya que la mayoría de ellos dependen de los servicios de la nube para aprender e inferir patrones de los datos.
El desarrollo de los de Redmond está basado en GPT-4 y se ha implantado en una «nube privada» y aislada de internet, lo que normalmente se conoce como «air-gapped». La CIA ya creó un chatbot hace unos meses para analizar información no clasificada, pero la comunidad de inteligencia necesitaba trabajar con datos mucho más sensibles.
Sheetal Patel, uno de los responsables de esta iniciativa en la ICA, explicó el mes pasado cómo «hay una carrera para lograr una IA generativa para datos de inteligencia», y el primer país que logre usar este tipo de tecnología la ganará. «Y queremos ser nosotros «, añadió.
Microsoft ha trabajado en este proyecto durante los últimos 18 meses. Para crearlo han aprovechado una supercomputadora en Iowa especializada en el ámbito de la inteligencia artificial. La versión totalmente aislada de internet únicamente es accesible por el gobierno de los Estados Unidos. Solo unas 10.000 personas pueden acceder a dicho sistema, afirmó Chappell.Ese modelo basado en GPT-4 es además «estático»: puede leer ficheros pero no aprender de ellos ni recolectar información de internet. Gracias a ello se garantiza que el modelo está «limpio» y que no se filtra información sensible al exterior.
El servicio ha comenzado a operar esta semana, y ahora pasará por una fase de pruebas y evaluación. Eso no impide que haya riesgos: los modelos de IA cometen errores e inventan cosas, así que será interesante ver si efectivamente ese chatbot para agencias de seguridad acaba dando los resultados que buscan sus responsables.
Imagen | Universal Pictures
En Xataka | Una de las grandes desventajas de ChatGPT es que no tenía “memoria”. Eso acaba de cambiar