El conocido físico teórico Stephen Hawking se refirió entre otros, al complejo escenario actual para los científicos, señalando a los movimientos anti-ciencia de marzo de este año, así como las medidas tomadas por Donald Trump en cuanto a la inmigración en EE.UU., la inteligencia artificial y la conquista espacial, área que en su opinión debería tener vital importancia en el futuro, si es que la raza humana quiere sobrevivir.

"La gente desconfía de la ciencia porque no entiende cómo funciona", afirma sobre el movimiento anti-ciencia en una entrevista publicada en la edición de diciembre de la prestigiosa revista Wired. "Es como si estuviéramos viviendo en un tiempo en el que la ciencia y los científicos están en peligro de ser retenidos en una estima baja y decreciente. Esto podría tener serias consecuencias. No estoy seguro de por qué debería ser así, ya que nuestra sociedad está cada vez más gobernada por la tecnología y la ciencia, aunque cada vez menos jóvenes parecen querer tomaresta última como una carrera. Una respuesta podría ser el anunciar un nuevo y ambicioso programa espacial para entusiasmarlos y estimular el interés en otras áreas como la astrofísica y la cosmología", agrega.

¿Que le diría a Donald Trump? Hawking cuenta que le preguntaría por qué cree que sus medidas inmigratorias son una buena idea. "Califica como terroristas de Daesh (como también se le dice al Estado Islámico) a todos los ciudadanos de seis países principalmente musulmanes, pero no incluye a los aliados de Estados Unidos como Irak, Arabia Saudita y Qatar, que supuestamente ayudan a financiarlos. Esta prohibición general es ineficiente e impide que los Estados Unidos reclute personas calificadas de estos países. También le pediría que renunciara a su negación del cambio climático. Pero, una vez más, me temo que ninguno de los dos sucederá mientras Trump continúa apaciguando a su electorado".

El físico teórico también se refirió a los peligros potenciales de la inteligencia artificial, un área donde ha insistido en los últimos años. "El genio está fuera de la botella. Necesitamos avanzar en el desarrollo de la inteligencia artificial, pero también debemos ser conscientes de sus peligros reales. Me temo que esta tecnología puede reemplazar a los humanos por completo. Si las personas diseñan virus informáticos, alguien diseñará inteligencia artificial que se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos", asegura.

Sobre el duopolio digital de Facebook y Google, Hawking señaló que le preocupa el control que las grandes corporaciones tienen sobre la información. "Las corporaciones siempre promoverán historias que reflejen bien sobre ellas y supriman aquellas que no las reflejan".

Finalmente, Hawking entregó su opinión sobre qué investigación científica debe llevarse a cabo con la mayor urgencia, apuntando a seguir rigurosamente un programa de exploración espacial, con el objetivo de colonizar eventualmente los planetas adecuados para la habitación humana. "Creo que hemos llegado al punto de no retorno. Nuestra Tierra se está volviendo demasiado pequeña para nosotros, la población mundial está aumentando a un ritmo alarmante y corremos el riesgo de autodestruirnos. Ya sea que esto sea el resultado del daño al medio ambiente o una guerra nuclear de proporciones devastadoras, tenemos que buscar activamente una forma alternativa de vida si la raza humana va a sobrevivir durante otros 1.000 años", sentencia.

Fuente: Wired