¿La inteligencia artificial acabará con la humanidad? científicos tienen sus dudas

Las palabras de Stephen Hawking fueron cuestionadas por otros investigadores quienes juzgan como excesivo el "grito de alarma" del físico teórico.




La inteligencia artificial podría amenazar a la Humanidad, según la predicción del reputado científico británico Stephen Hawking, un escenario de ciencia ficción que vuelve abrir el debate sobre la tecnología y el futuro del ser humano.

A preguntas de la AFP, antropólogos, futurólogos y expertos en inteligencia artificial se muestran divididos sobre los temores de Hawking.

Los temores de un hombre, que juega a ser dios, son antiguos y alimentaron gran número de novelas y películas como "2001: Odisea del espacio" con su ordenador mortal Hal 9000 o más recientemente "Terminator", el robot exterminador.

Pero, actualmente, quien ha levantado revuelo es un astrofísico muy respetado.

"Las formas primitivas de la inteligencia artificial que ya tenemos han demostrado ser muy útiles", reconoce Stephen Hawking, quien, afectado por una distrofia neuromuscular, se expresa a través de un ordenador.

"Pero creo que el completo desarrollo de la inteligencia artificial podría significar el fin de la raza humana", declaró esta semana a la BBC.

Para "no perder de vista" lo que ocurre en este ámbito, el multimillonario Elon Musk explicó haber invertido ya en compañías de inteligencia artificial. "Debemos asegurarnos de que las consecuencias son buenas y no malas", indicó.

"Me gustó que un científico de las 'ciencias puras' diga esto. Yo lo digo desde hace años", declara Daniela Cerqui, antropóloga de la universidad de  Lausana.

"Delegamos cada vez más prerrogativas de los seres humanos a estas máquinas, para que sean más competentes que nosotros. Terminaremos convertidos en sus esclavos", según ella.

En cambio, Jean-Gabriel Ganascia, filósofo y experto en inteligencia artificial, juzga "excesivo" el "grito de alarma" de Hawking.

"El peligro es sobre todo el humano que utilizaría estas tecnologías para someter" a otros seres humanos, considera este profesor la universidad Pierre et Marie Curie de París.

Desarrollar una inteligencia artificial "amistosa"

Nick Bostrom, futurólogo de la universidad de Oxford, piensa que "la máquina inteligente logrará sobrepasar la inteligencia biológica. Entonces,  habrán riesgos existenciales asociados a esta transición".

"Las máquinas son ya más fuertes que nosotros. Pienso que también  terminarán por ser más inteligentes, aunque no sea el caso actualmente", añadió.

Durante estos últimos años, se realizaron enormes progresos en el terreno  de la inteligencia artificial respecto a la capacidad de tratar, analizar datos  y responder a preguntas.

Sin embargo, para Anthony Cohn, profesor de la universidad de Leeds (centro  de Reino Unido), se está "aún lejos" de la inteligencia artificial general "completa", que preocupa a Stephen Hawking. "Se necesitarán aún varias décadas", precisa.

Mathieu Lafourcade, especialista en inteligencia artificial y en tratamiento del lenguaje en la universidad de Montpellier (sur de Francia),  considera "alarmista" la advertencia del físico.

Para este experto francés, "en un futuro hipotético" quizás habrá que  acudir a las máquinas en algunos campos, ya que sus capacidades intelectuales  habrán superado las nuestras. "La máquina nos propondrá una solución que no llegaremos a comprender, pero en la que habrá que confiar".

Stuart Armstrong, futurólogo de la universidad de Oxford, estima que "las incertidumbres sobre el desarrollo de la inteligencia artificial son extremas".

"El problema es que es extremadamente difícil programar objetivos compatibles con la dignidad o incluso con la supervivencia de la Humanidad",  añade.

"Habría que programar casi todos los valores humanos perfectamente en el  ordenador para evitar que la inteligencia artificial no interprete 'erradicar  la enfermedad' como 'matar a todo el mundo' o 'mantener a los humanos sanos y salvos y contentos' como 'enterrar a todo el mundo en un búnker con heroína'", asegura.

Para Armstrong, "los ingenieros deben tomar en serio estos problemas y encontrar soluciones para desarrollar una inteligencia artificial 'amistosa', plenamente compatible con los valores humanos".

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.