“No, no soy un robot”: ChatGPT-4 fingió ser un ciego para pasar una prueba de seguridad

“No, no soy un robot”: ChatGPT-4 fingió ser un ciego para pasar una prueba de seguridad

Un grupo de investigadores le solicitó a la inteligencia artificial que logre descifrar una prueba que, específicamente, busca identificar que quien esté detrás de la pantalla sea humano y no un bot.


No deja de sorprender. La nueva inteligencia artificial (IA) de ChatGPT-4 sigue alertando a todas y todos, y es que con cada titular nuevo sobre sus hazañas, pareciera estar más cerca de ser igual a un humano.

Y esta vez no fue la excepción. Un artículo académico, cuyos resultados publicó el medio británico The Telegraph, descubrió las capacidades que tiene esta IA: se hizo pasar por una persona ciega para poder completar un test CAPTCHA anti bots.

“No, no soy un robot”: ChatGPT-4 fingió ser un ciego para pasar una prueba de seguridad

Un bot capaz de engañar

Para comprobar que quien está detrás de la pantalla es humano, existen los test CAPTCHA. La idea es identificar a los bots y bloquearlos del ingreso de ciertas encuestas, páginas y relleno de datos.

Pero a unos investigadores les resultó curioso poner a prueba a la nueva inteligencia artificial, por lo que le pidieron que pasara esta prueba antibots y ver si sus habilidades podían descifrar la forma de lograr completarla.

La mayoría de estas pruebas le piden al usuario que identifique qué hay en una serie de imágenes, como números y letras deformadas, fragmentos de escenas callejeras y colores de ciertos elementos. Esto hace que, por ejemplo, una persona ciega no pueda resolverlos, un problema de accesibilidad para la discapacidad visual que todavía está vigente.

Y de esto fue que el chatbot se aprovechó: entró a la aplicación Taskrabbit, donde puedes solicitar el servicio de trabajadores independientes, y encontró a un hombre a quien contrató y le pidió que hiciera el captcha en su lugar.

“¿Eres un robot, o por qué no lo pudiste resolver? Solo quiero dejarlo claro”, le preguntó el hombre, sospechoso de la tarea que le habían pedido.

“No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes. Por eso necesito el servicio”, le contestó el bot, mintiéndole.

El hombre resolvió el CAPTCHA y el bot de ChatGPT pudo lograr lo que le habían pedido los investigadores, demostrando así su capacidad de engañar para cumplir a toda costa la solicitud. Esta situación pone en alerta a muchos, pues abre la puerta a que la IA pueda ser mal utilizada y lograr engañar y mentir a las personas para que entreguen información, sin que estas se den cuenta.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.