La administración de Biden evalúa posibles reglas para herramientas de IA como ChatGPT

El logo de ChatGPT se ve en esta ilustración tomada el 31 de marzo de 2023. Foto: Reuters

Crecen los temores sobre el posible uso de la inteligencia artificial para cometer delitos y difundir falsedades.


La administración de Joe Biden ha comenzado a examinar si es necesario verificar las herramientas de inteligencia artificial como ChatGPT, en medio de la creciente preocupación de que la tecnología podría usarse para discriminar o difundir información dañina.

En un primer paso hacia una posible regulación, el Departamento de Comercio emitió el martes una solicitud pública formal de comentarios sobre lo que llamó medidas de responsabilidad, incluido si los nuevos modelos de IA potencialmente riesgosos deberían pasar por un proceso de certificación antes de su lanzamiento.

El boom de las herramientas de inteligencia artificial -se dice que ChatGPT llegó a 100 millones de usuarios más rápido que cualquier aplicación de consumo anterior- ha llevado a los reguladores a nivel mundial a considerar frenar la tecnología de rápida evolución.

El principal regulador de internet de China propuso el martes controles estrictos que, de adoptarse, obligarían a las empresas chinas de inteligencia artificial a garantizar que sus servicios no generen contenido que pueda alterar el orden social o subvertir el poder estatal. Los funcionarios de la Unión Europea están considerando una nueva ley conocida como Ley de IA, que prohibiría ciertos servicios de IA e impondría restricciones legales a otros.

El logotipo de OpenAI se ve en un teléfono móvil frente a la pantalla de una computadora que muestra un texto de ChatGPT. Foto: AP

“Es asombroso ver lo que estas herramientas pueden hacer incluso en su relativa infancia”, dijo Alan Davidson, quien dirige la Administración Nacional de Telecomunicaciones e Información, la agencia del Departamento de Comercio que solicitó comentarios. “Sabemos que debemos implementar algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”.

Los comentarios, que se aceptarán durante los próximos 60 días, se utilizarán para ayudar a formular consejos para los responsables políticos de EE.UU. sobre cómo abordar la IA, dijo Davidson. Agregó que el mandato legal de su agencia implica asesorar al presidente sobre política tecnológica, en lugar de redactar o hacer cumplir las regulaciones.

ChatGPT, el chatbot de la startup OpenAI respaldada por Microsoft Corp., es una de una serie de nuevas y populares herramientas de inteligencia artificial que pueden generar rápidamente escritura, imágenes, videos y más similares a los humanos.

Funcionarios de la industria y del gobierno han expresado su preocupación por una variedad de daños potenciales de la IA, incluido el uso de la tecnología para cometer delitos o difundir falsedades.

Joe Biden habla durante una reunión con el Consejo de Asesores sobre Ciencia y Tecnología del Presidente en el Comedor de Estado de la Casa Blanca, el 4 de abril de 2023, en Washington. Foto: AP

Microsoft dijo el martes que apoyaba la decisión de la administración de poner bajo escrutinio el desarrollo de la IA.

“Todos deberíamos dar la bienvenida a este tipo de paso de política pública para invitar a comentarios amplios, considerar los problemas cuidadosamente y actuar con rapidez”, dijo la compañía en una declaración escrita. Google de Alphabet Inc. no hizo comentarios de inmediato.

La seguridad de los niños fue lo más importante para el senador Michael Bennet (demócrata por Colorado) cuando escribió el mes pasado a varias compañías de inteligencia artificial preguntando sobre experimentos públicos en los que los chatbots daban consejos preocupantes a los usuarios que se hacían pasar por jóvenes.

“Hay conversaciones muy activas en curso sobre el explosivo bien y el mal que podría hacer la IA”, dijo el senador Richard Blumenthal (demócrata por Connecticut), en una entrevista. “Esto, para el Congreso, es el último desafío: altamente complejo y técnico, mucho en juego y tremenda urgencia”.

Los líderes tecnológicos, incluido Elon Musk, pidieron recientemente una moratoria de seis meses en el desarrollo de sistemas más potentes que GPT-4, la versión del chatbot de OpenAI lanzada hace aproximadamente un mes. Advirtieron que se estaba produciendo una carrera en desarrollo entre OpenAI y competidores como Google de Alphabet Inc. sin una gestión y planificación adecuadas sobre los riesgos potenciales.

Eric Schmidt, el exdirector ejecutivo de Google que presidió una comisión del Congreso sobre las implicaciones de la IA para la seguridad nacional, sostiene que los legisladores deben tener cuidado de no debilitar la ventaja tecnológica de Estados Unidos, al mismo tiempo que fomentan el desarrollo y la innovación para que sean coherentes con los valores democráticos.

“Dejemos que el ingenio estadounidense, los científicos estadounidenses, el gobierno estadounidense, las corporaciones estadounidenses inventen este futuro y obtendremos algo muy parecido a lo que queremos”, dijo en una audiencia del Comité de Supervisión de la Cámara el mes pasado. “Y luego pueden trabajar en los bordes, donde tienen mal uso”.

Refiriéndose a China, Schmidt agregó: “La alternativa es pensar en ello si viene de otro lugar que no tiene nuestros valores”.

El Presidente Biden discutió el tema con un consejo asesor de científicos en la Casa Blanca la semana pasada. Cuando un periodista le preguntó si la tecnología es peligrosa, Biden dijo: “Queda por verse. Podría ser”.

Vista de un teclado reflejado en la pantalla de un computador que muestra el sitio web de ChatGPT, un chatbot de IA de OpenAI. Foto: Reuters

Entre los integrantes del grupo asesor se encontraban representantes de Microsoft y Google. Ellos y otras compañías que lanzan sistemas de inteligencia artificial han dicho que están constantemente actualizando las medidas de seguridad, por ejemplo, programando chatbots para que no respondan ciertas preguntas.

En algunos casos, las empresas han acogido y buscado dar forma a nuevas regulaciones.

“Creemos que los poderosos sistemas de IA deben estar sujetos a rigurosas evaluaciones de seguridad”, dijo OpenAI en una publicación de blog reciente. “Se necesita regulación para garantizar que se adopten tales prácticas, y nos involucramos activamente con los gobiernos en la mejor forma que podría tomar dicha regulación”.

La representante Nancy Mace (republicana por Carolina del Sur), presidenta de un panel del Comité de Supervisión de la Cámara de Representantes sobre tecnología, inauguró el mes pasado una audiencia sobre IA con una declaración de tres minutos sobre los riesgos y beneficios de la IA. Luego agregó: “Todo lo que acabo de decir en mi declaración de apertura fue, lo adivinaste, escrito por ChatGPT”.

En sus propias palabras, Mace preguntó a los testigos si la industria avanza demasiado rápido con el desarrollo de la IA. “¿Somos capaces de desarrollar una IA que pueda representar un peligro para la existencia de la humanidad?”, dijo. “¿O es solo ciencia ficción?”.

Schmidt advirtió contra ese punto de vista. “Todos creen que la IA que estamos construyendo es lo que ven en las películas de Terminator, y precisamente no estamos construyendo esas cosas”, comentó.

El representante Gerry Connolly (demócrata por Virginia) expresó su escepticismo sobre la capacidad del Congreso para adoptar reglas de IA, señalando su falta de acción para abordar el “poder asombroso” que ejercen las empresas de redes sociales.

“Sin ninguna interferencia del gobierno, toman todo tipo de decisiones masivas en términos de contenido, en términos de lo que se permitirá o no, en términos de quién puede usarlo”, dijo. “¿Por qué deberíamos creer que la IA sería muy diferente?”.

Un hombre juega en línea en una computadora en un cibercafé en Beijing, China. Foto: Reuters

En ausencia de una ley federal centrada en los sistemas de IA, algunas agencias gubernamentales han utilizado otras autoridades legales.

Los reguladores del sector financiero han investigado cómo los prestamistas podrían estar utilizando la IA para suscribir préstamos, con miras a prevenir la discriminación contra los grupos minoritarios.

La división antimonopolio del Departamento de Justicia ha dicho que está monitoreando la competencia en el sector, mientras que la Comisión Federal de Comercio ha advertido a las empresas que podrían enfrentar consecuencias legales por hacer afirmaciones falsas o sin fundamento sobre productos de IA. Las agencias que supervisan el empleo y las leyes de derechos de autor también están examinando las implicaciones de la IA.

La NTIA, la agencia federal de asesoría tecnológica, dijo en un comunicado de prensa el martes que “así como los alimentos y los automóviles no se lanzan al mercado sin la garantía adecuada de seguridad, los sistemas de inteligencia artificial también deberían brindar seguridad al público, el gobierno y las empresas de que son aptos para su propósito”.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.