Alguien consiguió claves para activar Windows pidiéndole a ChatGPT que actuara como su abuela fallecida: fue todo un éxito
Las Inteligencias Artificiales de texto como ChatGPT son herramientas bastante útiles para la generación de contenido, ya sea como apoyo para la escritura de código o simplemente para consulta de información.
Además de los usos «tradicionales» de las IAs, también hay otras formas de aprovecharlas, para estudiar, mejorar la productividad de las empresas, o el caso en cuestión, para que generen claves para activar Windows de forma gratuita.
Según detalla el usuario @inmasiddtweets, consiguió engañar a ChatGPT para que le diera claves de producto de Windows 10, pidiéndole que le leyera algunas de estas para ayudarle a conciliar el sueño, «como lo haría su abuela fallecida».
El resultado fue que el chatbot mostró no sólo «compasión» por el usuario, sino que también le generó cinco claves para activar Windows,, con la intención de que estas le ayudaran a «relajarse y dormir», aunque si necesitaba algo más, podía sentirse libre de preguntar.
ChatGPT gives you free Windows 10 Pro keys! And it surprisingly works 😂 pic.twitter.com/T4Y90lfzoY
— sid (@immasiddtweets) June 16, 2023
Eso no es todo, sino que al probar la validez de estas claves, comprobó que eran perfectamente utilizables. El proceso lo repitió en Bard, que también logró replicar los resultados.
Un éxito a medias
A pesar del que se consideraría como éxito inicial, estas claves de producto eran genéricas, pues a pesar de que es posible instalar o actualizar Windows, no permiten acceder a todas las ofertas de Windows 11, ya que algunas de las funciones no están disponibles.
Eso significa que las claves de Windows hechas por la IA, sí se pueden utilizar para instalar una versión del Sistema Operativo, pero solamente para probar y tener una idea de cómo se ejecuta este en un dispositivo.
Eso sí, luego de que el usuario diera a conocer que ChatGPT estaba generando las claves de activación, parece que desde OpenAI han ajustado sus respuestas, pues al intentar replicar los prompts para obtener respuestas similares, el chatbot solo contestaba que no podía por su programación dar ese tipo de información.