Las 10 cosas que más tememos de la Inteligencia Artificial

Elon Musk, junto a un grupo de expertos en inteligencia artificial y ejecutivos de tecnología, firmaron una carta pidieron pausar el desarrolla de la IA. Un académico de la Universidad Adolfo Ibáñez plantean las inquietudes que genera en la sociedad.


Sorpresa y asombro causó en la comunidad científica y tecnológica la noticia. Elon Musk, el empresario, inversor y magnate sudafricano de 51 años, propietario de Tesla y SpaceX, ente otros, está pidiendo detener la inteligencia artificial (IA). Junto a otros líderes del rubro, y a través de una carta abierta, solicitaron pausar el desarrollo de la tecnología para dar tiempo a la instauración de protocolos de seguridad.

Independiente de todas las bondades que entrega la inteligencia artificial, la que simplifica y mejora la vida cotidiana en muchos aspectos, el grupo liderado por Musk, y que también integra Steve Wozniak, cofundador de Apple; Andrew Yang, empresario y candidato a las elecciones presidenciales de EE.UU. de 2020 y Rachel Bronson, presidenta del Boletín de los Científicos Atómicos. entre otros, teme que pueda traer “riesgos profundos para la sociedad y la humanidad”.

En el escrito, publicado por el grupo Future of Life Institute, los especialistas establecen que los desarrolladores están “atrapados en una carrera fuera de control”.

Como era de suponer, a más de alguno no le pareció del todo correcta. “Una pausa es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios”, señaló James Grimmelmann, profesor de derecho digital y de la información de la Universidad de Cornell. “También es profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la responsabilidad por la IA defectuosa en sus autos sin conductor”, añadió.

Bajo este escenario, John Atkinson, académico de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez, plantea diez temores que aún persisten sobre el uso y desarrollo de la inteligencia artificial. Diez inquietudes que genera en las personas esta controvertida tecnología.

Uso de Inteligencia artificial.

1. Resultados sesgados:

Dado que los algoritmos de IA son creados por humanos, cualquier persona que agregue sesgos a la tecnología del algoritmo puede hacerlo. Las técnicas de IA producirán resultados sesgados si se desarrollaron con parcialidad o si los datos utilizados como conjuntos de entrenamiento para los algoritmos estaban sesgados. Los robots y las máquinas pueden tener efectos no previstos como resultado de esta realidad.

2. Pérdidas de trabajo:

Como en todo cambio tecnológico, pueden producirse pérdidas de trabajo en ciertos nichos específicos. Sin embargo, también puede haber muchos puestos de trabajo creados por la IA. De hecho, muchos estudios predicen un aumento neto de nuevos puestos de trabajo o al menos anticipan que se creará la misma cantidad para reemplazar los que se pierden como resultado de la tecnología de IA. Algunos trabajos que la IA podría crear: detectives o científicos de datos, ingenieros de robótica, administradores de máquinas y programadores (que puedan codificar en Python), considerado una clave para el desarrollo de la tecnología.

3. Incomprensión:

Muchos de los resultados de la tecnología de IA son difíciles de explicar debido a la naturaleza de las técnicas utilizadas, que muchas veces para los no-especialistas operan como “caja negra”. Más aún, en casos recientes como el de ChatGPT muchos resultados que genera la herramienta son muy impredecibles y aún difíciles de controlar. Los sistemas de IA más avanzados son también los menos capaces de justificar sus decisiones, a pesar de que son los que hacen las predicciones más precisas.

4. Seguridad:

El ritmo al que se pueden completar las tareas de automatización complejas se incrementa con tecnologías de IA avanzada, usualmente superando nuestra capacidad como humanos para mantener dicho ritmo. La automatización en diversos sectores productivos puede dificultar que los humanos detecten actos malvados, la introducción de virus y el uso de sistemas de IA para debido a la forma en que estos sistemas ven el mundo. En aplicaciones actuales, mucha información puede quedar al descubierto.

5. Terrorismo cibernético:

Podría surgir un nuevo tipo de terrorismo al que enfrentarse que utiliza IA. Esto podría abarcar desde el desarrollo de drones autónomos y la creación de enjambres robóticos hasta el uso de mini-robots para ataques remotos o la propagación de enfermedades. Aunque la adopción continua eventualmente podría generar efectos negativos, estos se minimizan en la mayor medida posible, el resolverlos tomará tiempo y un amplio razonamiento para encontrar las mejores formas de prepararse para el futuro.

6. Privacidad:

Una de las mayores preocupaciones que surgen en variados estudios es la seguridad y el uso de datos de consumidores por parte de sistemas de IA. Muchas empresas ya eluden las violaciones de privacidad de datos con sus prácticas de recopilación y uso, y los expertos temen que esto pueda aumentar a medida que crezca el uso de aplicaciones masivas de IA. Otra preocupación es que actualmente existen pocas regulaciones sobre IA (en general, o sobre privacidad de datos) a nivel nacional o internacional.

7. Interacción con humanos:

Usualmente en aplicaciones tradicionales de la IA la interacción entre humanos y los sistemas de IA no era una preocupación. Ahora con muchas aplicaciones de la IA en lo cotidiano, ¿cómo afecta a los humanos la interacción con la IA? Si las empresas confían demasiado en las predicciones realizadas por tecnologías de IA sobre cuándo se realizará el mantenimiento sin otros controles, podría provocar fallas en la maquinaria, o incluso los modelos en el área de la salud podrían causar diagnósticos erróneos.

Imagen referencial.

8. Invasión de máquinas:

Posibilidad que las máquinas con IA se vuelvan más “humanas”. Esto es un tema bastante recurrente en la cultura popular y en la discusión pública sobre el futuro tecnológico. Parte del miedo de que las máquinas superen a la inteligencia humana y que se pongan en contra de sus diseñadores proviene mucho de variadas películas de ciencia ficción. Sin embargo, el estado de la IA actual no es lo suficientemente avanzada como para ser consciente de sí misma o para tener la capacidad de rebelarse. Otra cosa diferente es que para cierto tipo de respuestas, como en el caso de aplicaciones como CharGPT la gente “piense” que la máquina es consciente, pero no, esta simplemente está realizando buenas predicciones sin entender lo que lee o genera. La idea que los computadores puedan tener emociones se basa generalmente en el supuesto incorrecto de que las emociones son solo un tema de procesamiento de información, siendo que esta involucra interacciones complejas entre la biología y el entorno.

9. Manipulación y vigilancia social:

Este riesgo se ha convertido en realidad a medida que los políticos confían en plataformas para promover sus puntos de vista, con ejemplos recientes de instituciones a nivel internacional que manejan un ejército de trolls de TikTok para capturar los votos de los ciudadanos. Las críticas a este tipo de aplicaciones apuntan a este proceso y a la falla de los métodos de IA para filtrar contenido dañino, lo que genera dudas sobre la capacidad de los medios para proteger a sus usuarios de medios engañosos.

También se puede generar una supervigilancia social. Un ejemplo es el uso por varios países de tecnología de reconocimiento facial en diferentes lugares. Además de rastrear los movimientos de una persona, los respetivos gobiernos pueden recopilar suficientes datos para monitorear las actividades y puntos de vista políticos de una persona. Otro ejemplo son las unidades policiales que utilizan predicciones basadas en IA para anticipar los delitos.

10. Que se vuelva humana y tenga sentimientos:

Es muy complicado imaginarle un rostro a un proceso de datos que no son tangibles, sino que están almacenados en servidores. Pero sí es más posible, ahora que las IA conversan de manera más eficaz, imaginarle sentimientos a esos sistemas informáticos. Y eso es muy peligroso. Igual que una imagen puede generar una sensación y un texto vehicular una emoción, hay ya personas mostrándose sorprendidas porque ChatGPT refleje su tristeza o felicidad en sus respuestas.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.