ChatGPT podría saber más de nosotros de lo que creemos: estos son los datos que recopila cuando lo usamos

ChatGPT podría saber más de nosotros de lo que creemos: estos son los datos que recopila cuando lo usamos

La desconfianza hacia las políticas de privacidad de ChatGPT ha provocado que muchos países prohíban su uso. Y es que tanto la información de los usuarios como las conversaciones que tienen con la herramienta podrían ser compartidas por terceros y utilizadas para otros fines.


Ya son varios los países que se han sumado a la preocupación por el uso de datos personales y las “ineficientes” y poco transparentes políticas de privacidad que tendría la popular herramienta ChatGPT. Esta inseguridad llevó a que muchos prohibieran su uso hasta que OpenAI, la empresa desarrolladora, mejore y asegure la protección de la privacidad de los usuarios.

Hasta ahora, son siete territorios los que han prohibido a esta Inteligencia Artificial (IA): Rusia, China, Irán, Corea del Norte, Venezuela, Bielorrusia e Italia. Incluso, en el debate sale a relucir la carta que firmaron más de mil líderes en tecnología para pedir “pausar” la IA hasta que sea más segura. Pero, ¿qué datos realmente recopila ChatGPT que genera tanta desconfianza en el mundo?

ChatGPT podría saber más de nosotros de lo que creemos: estos son los datos que recopila cuando lo usamos

Los datos personales que recopila ChatGPT

Como pasa con otras políticas de privacidad, es usual que los usuarios acepten todo sin dudar ni leer a detalle a lo que están dando acceso. Sin embargo, estas se resumen en lo siguiente.

Para empezar, al crearse una cuenta para comenzar a utilizar ChatGPT, se recopila información personal: nombre, información de contacto, datos de conexión (desde qué dispositivo y  navegador se ocupa o la dirección IP), zona horaria, país, tiempos de acceso e información de la tarjeta de pago e historial de transacciones (de quienes hagan compras en OpenAI).

A medida que el usuario utiliza la herramienta para hacer sus consultas, la página recopila todos los mensajes que escribe. Esto porque el equipo detrás revisa las conversaciones para mejorar sus sistemas y garantizar que el contenido “cumpla con las políticas y requisitos de seguridad”.

Toda la información recolectada, según los desarrolladores, es para realizar investigaciones “que pueden permanecer internas o compartirse con terceros, publicarse o ponerse a disposición del público general”, además de utilizarla para desarrollar nuevos programas y servicios.

Pero lo preocupante es que la política de privacidad establece que puede proporcionar la información personal de sus usuarios a terceros, sin previo aviso, a menos que lo exija la ley. Y, tanto ChatGPT como OpenAI, en sus términos de uso ponen al usuario como el responsable de tomar las medidas necesarias para proteger su propia información al interactuar con sus herramientas.

Incluso, en las preguntas frecuentes, ChatGPT escribe explícitamente: “No comparta ninguna información confidencial en sus conversaciones”.

ChatGPT podría saber más de nosotros de lo que creemos: estos son los datos que recopila cuando lo usamos. Foto referencial: IrisTech.

¿ChatGPT es realmente un riesgo para la privacidad de los usuarios?

“Todavía estamos aprendiendo exactamente cómo funciona todo esto”, le dijo Steve Mills, líder de ética de Inteligencia Artificial en Boston Consulting Groups, a CNN. “Simplemente no se sabe completamente cómo se ingresa la información, si se usa para volver a entrenar a estos modelos o cómo se manifiesta como resultados en algún momento”, agregó.

Además, el especialista afirmó que muchas veces, los usuarios y desarrolladores no se dan cuenta de los riesgos de privacidad que acechan con las nuevas tecnologías hasta que es demasiado tarde. “Mi punto de vista en este momento es que no se debe poner nada en estas herramientas que no quiera asumir que se compartirá con otros”, declaró.

De la misma manera, el CEO de la comunidad de privacidad de datos Privacy by Design Lab, Kohei Kurihara, dijo que es importante promover la conciencia sobre las preocupaciones de privacidad: “Existe un riesgo que debemos tener en cuenta, incluso si no es evidente al principio”.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.