Un sapo de tres ojos o una canica de plata: una IA creó captchas con formas tan imposibles que usuarios se quedaron sin entrar a su Discord
Los usuarios de Discord se están encontrando con un problema para iniciar sesión, donde el captcha, utilizado para verificar que no se trata de bots queriendo ingresar a alguna plataforma, está generando objetos que no existen o que no se puede determinar que son.
De acuerdo con un reporte de Vice, cuando un usuario intenta ingresar a Discord puede encontrar con que el captcha solicita identificar objetos inexistentes, entre ellos algo que identifica como un «Yoko», que parece la combinación entre un caracol y un yoyo, así como cubos de rompecabezas y hasta jugadores de futbol en un grupo de imágenes.
Estas imágenes, dice el medio, así como las demás mostradas por el captcha de las cuales se deben escoger varias, son generadas por IA, lo que genera un reto adicional que los usuarios muchas veces no pudieron solucionar.
Usar IA quizá no es la mejor idea
El caso de Discord es uno especial, pues sus captchas son generados por la empresa hCaptcha, misma que detalla que la mayoría de las interacciones no significan un desafío visual, aunque en un momento dado se pueden presentar muchas variantes del mismo contenido.
En esta publicación el captcha solicitaba un «Yoko»
This @hCaptcha is too difficult, unless we’re expected to assume Yoko is hiding behind the yo-yos? 😂 pic.twitter.com/ad4yw4qSN8
— CryptoniteClark (@CryptoniteClark) May 21, 2023
hCaptcha incluso le reveló al medio que estos objetos inexistentes en realidad fueron parte de una prueba «breve» vista por un pequeño número de personas, pero que gracias a la gran escala de la compañía, estos retos se difunden a menudo por redes sociales.
A otro usuario Discord también le mostró un captcha pidiendo identificar «Yoko»
The Captcha on Discord is asking me to prove I’m a human by clicking every image of «a Yoko». I think AI might be bad, actually. pic.twitter.com/nBztS69WUA
— EffieArtoria (@EffieArtoria) May 21, 2023
Vice también señala que hCaptcha está usando captchas para ayudar a entrenar sistemas de aprendizaje automáticos y redes generativas, por lo que no es la primera vez que los usuarios notan imágenes extrañas que aparecen en sus servicios de verificación.
Este usuario tardó 10 minutos en poder ingresar por no entender cuál imagen era de un robot
Por ejemplo, en marzo de 2023 un usuario se dio cuenta que Discord le pedía escoger entre los jugadores de futbol creados con IA en un catálogo de imágenes de personas jugando hockey y golf, mientras que a otra persona se le dio la instrucción (insertada arriba) de «identificar al robot», donde ninguna de las imágenes parecía humana.
Honestly, these CAPTCHA tests are just getting ridiculous, I swear it’s just making stuff up now. Wtf is a Yoko!?!? I searched ‘Yoko’ to find out what this is and it came up with Yoko Ono. pic.twitter.com/6goCSTQm9O
— pupbenny (@pupbenny) May 21, 2023
Algunos usuarios incluso llevaron su frustración más allá, comentando que la solicitud de marcar las imágenes con «Yoko» eran «ridículas«, pues al buscar el término en internet, el único resultado que obtenían se refería a Yoko Ono, la artista japonesa mayormente conocida por ser la segunda esposa del integrante de los Beatles, John Lennon.
Eso sí, en las distintas imágenes que el captcha arroja para solucionar el reto, hay algunas «consistencias, pues en todas se pueden apreciar variantes de un objeto metálico, un globo terráqueo, y una especie de cubo de Rubik, por lo que es bastante aproximado decir que a algunos de esos tres objetos se refiere el problema.
La IA eventualmente puede generar cosas inexistentes
A pesar de la versatilidad que representa el utilizar IA para generar imágenes, Vice detalla dos problemas en el método de trabajo de hCaptcha. El primero es que se requiere una enorme cantidad de aportes humanos para que el sistema funcione, (con trabajadores subcontratados), pero también el que eventualmente se llega a una deriva de datos.
Las imágenes de futbolistas hechas por IA
Esto significa que cuanto más tiempo se ejecutan estos sistemas, más información requieren, por lo que eventualmente llegan a utilizar los mismos datos que han arrojado para seguirse entrenando, generando un «Habsburg AI» o un resultado que es básicamente la mutación de sus propios contenidos.