top of page

VIRUS LETALES

"A largo plazo, estoy más preocupado por la biología. Las armas nucleares necesitan grandes instalaciones, pero la ingeniería genética puede hacerse en un laboratorio pequeño. No puedes regular cada laboratorio del mundo. El peligro es que, por accidente o por diseño, creemos un virus que nos destruya". Hawking en el 2001 dijo esto, cuando le peguntaron en una entrevista sobre el fin del mundo. personas los conocimientos correctos puede crear un virus potente que destruya a los seres humanos.

EL APOCALISIS NUCLEAR

       Actualmente hay más de 16.300 armas nucleares, según la Federación de Científicos Estadounidenses. Estas están siempre listas para uso inmediato, lo que significa que podrían ser lanzadas en cualquier momento (aunque, por supuesto, no hay razón para que esto suceda).
       Hawking dijo sobre esto: "Como ciudadamos del mundo, tenemos el deber de alertar al público sobre los riesgos innecesarios con los que vivimos cada día, y sobre los peligros que auguramos
si los gobiernos y las sociedades no actúan ahora para dejar las armas nucleares obsoletas y prevenir un mayor cambio climático".

 INVASIÓN ALIENIGENA

Se han llevado a cabo muchos proyectos que tenían como objetivo contactarnos con vida extraterrestre. Desde el proyecto de 1970 de la NASA, SETI (Search for ExtraTerrestrial Intelligence o Búsqueda de Inteligencia Extraterrestre en español), que explora el cielo con grandes radio-telescopios en busca de alguna señal de vida inteligente, hasta los discos de oro en las Voyager en 1977 que se pensaron como un "saludo" de la gente de la Tierra para la vida extraterrestre.
Stephen alertó sobre los peligros de contactar con seres de otros mundos: "Si los alienígenas nos visitaran, el resultado sería parecido a cuando Colón arribó a América, lo que no fue muy bueno para los nativos americanos".

UNA INTELIGENCIA ARTIFICIAL FUERA DE CONTROL

     "El éxito en la creación de inteligencia artificial sería el evento más grande de la historia de la humanidad. Por desgracia, también podría ser el último, a menos que aprendamos cómo evitar los riesgos"
      Las máquinas podrían superar a los humanos, porque están limitados por la evolución biológica. Como las máquinas no lo están, podrían manejarlo todo de distintas maneras: "manejando los mercados financieros, inventando mejor que los investigadores humanos, manipulando a los líderes humanos y desarrollando armas que ni siquiera podamos comprender".

bottom of page