Tendencias

“Todos moriremos”: qué es la superinteligencia artificial y por qué hay que temerle, según el “profeta de la IA”

Eliezer Yudkowsky, experto en Inteligencia Artificial, alertó de los riesgos de la superinteligencia artificial, un nuevo “tipo” de tecnología que podría desarrollar habilidades sobrehumanas.

“Todos moriremos”: qué es la superinteligencia artificial y por qué hay que temerle, según el “profeta de la IA”. Foto: Referencial.

No es primera vez que Eliezer Yudkowsky, experto en Inteligencia Artificial (IA), advierte sobre un futuro sombrío e incierto con el vertiginoso desarrollo de esta tecnología. Ahora, el también conocido como “profeta de la IA” está preocupado por la superinteligencia artificial.

La superinteligencia artificial es un nuevo concepto que se estaría desarrollando en ciertos países y que sobrepasaría la inteligencia humana: algunas empresas podrían estar creando una tecnología que tendría habilidades sobrehumanas.

Por esto, Yudkowsky, de 46 años, nuevamente está predicando el fin del mundo. El hombre, cofundador del Instituto de Investigación de Inteligencia Artificial, escribió en su nuevo libro que si alguien logra construir este nuevo tipo de IA, “todos moriremos”.

“Todos moriremos”: qué es la superinteligencia artificial y por qué hay que temerle, según el “profeta de la IA”

Los riesgos de la superinteligencia artificial, según Eliezer Yudkowsky

“Si alguna empresa o grupo, en cualquier parte del planeta, construye una superinteligencia artificial usando algo remotamente parecido a las técnicas actuales, basándose en algo remotamente parecido a la comprensión actual de la IA, entonces todos, en todas partes en la Tierra, moriremos”.

Con esas palabras, Yudkowsky sentenció a la humanidad a un futuro terrible. Aunque algunas personas lo catalogan de catastrófico, las advertencias del experto tienen peso, y han sido tomadas en cuenta por grandes líderes de la IA, como Sam Altman (OpenAI) y Elon Musk.

En varias conversaciones con el New York Times, el hombre ha expresado su deseo de persuadir a otras personas para salvar a la humanidad. Su mayor deseo, dijo, es que “el mundo abandone la IA superinteligente y que no muramos en un futuro próximo”.

“Todos moriremos”: qué es la superinteligencia artificial y por qué hay que temerle, según el “profeta de la IA”. Foto: Referencial.

De joven, aspiraba a ser uno de los primeros creadores de la IA. Sin embargo, rápidamente se dio cuenta que construir una tecnología que sea completamente amigable y al servicio de los humanos, era imposible.

Para él, la inteligencia y la benevolencia son rasgos completamente separados. Y la IA no se volvería más amigable si es que su inteligencia crece.

Los temores de Eliezer Yudkowsky sobre la IA

Consultado por el mismo medio sobre qué empresas estarían en un camino “correcto” para no poner en riesgo a la humanidad, Yudkowsky respondió que “la gerencia de OpenAI es notablemente peor que la del resto”.

“Entre los científicos desquiciados que se precipitan hacia el desastre, todos deberían ser clausurados (...) Todos deberían recibir el mismo trato legal”.

Para el experto, la IA sí tiene aspectos positivos, como el descubrimiento de nuevos fármacos y la cura de enfermedades, no obstante, continúa cuestionando si los beneficios valen la pena el riesgo “inminente”.

Lee también:

Más sobre:Inteligencia ArtificialIATecnologíaProfeta de la IAEliezer YudkowskySuperinteligencia artificialQué es la superinteligencia artificialPeligros de la IARiesgos de la IAYudkowskyElon MuskSam AltmanChatGPTOpenAIHumanidadFin de la humanidadLa Tercera

COMENTARIOS

Para comentar este artículo debes ser suscriptor.

⚡ Cyber LT: participa por un viaje a Buenos Aires ✈️

Plan digital +LT Beneficios$1.200/mes SUSCRÍBETE