EXTINCIÓN HUMANA PARTE I


A lo largo de la Historia la mayoría de las amenazas han podido manejarse de una forma u otra. Los riesgos existenciales son de origen reciente y la humanidad no cuenta con mecanismos efectivos para su control. De acuerdo con Nick Bostrom, Director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, Reino Unido u creador de la Teoría de los Riesgos Existenciales, los accidentes nucleares, las guerras nucleares, las guerras mundiales, los terremotos, las erupciones volcánicas y las grandes epidemias (por ejemplo, la de la influenza que diezmó a la población mundial después de la Primera Guerra Mundial) han sido controlables a través del método de ensayo y error.

De esta forma se han descubierto los antibióticos y sustancias químicas. Con la excepción de un cometa o el impacto de un asteroide que destruyeran la vida en la Tierra (fenómenos muy remotos), piensa Bostrom que hasta mediados del siglo XX no podía identificarse ningún genuino riesgo existencial. El primero de ellos fue, en su momento, la detonación de la primera bomba atómica. Aunque hoy en día su efecto fue limitado, en aquel entonces se le concibió como una posibilidad bastante factible, de que se acabara la vida en la Tierra. Se trataba de una situación inédita. Ninguna agrupación o entidad pública disponía de una estrategia preventiva o paliativa para sus consecuencias biológicas, morales y económicas.
En la actualidad, para su estudio, los riesgos se clasifican en cuatro diferentes categorías golpes, contracciones, gritos y susurros. Su numeración no implica, necesariamente, que sean posibilidades reales (un tema que se tocara después); es más bien, un mapa de mayores peligros que nos ha dado concebir. A la cabeza de cada categoría se encuentra el riesgo que Bostrom considera mayor.

En este primer apartado se hablara de la primera categoría:

PRIMERA CATEGORÍA, GOLPES:
La vida Inteligente se extingue por completo a consecuencia de un accidente o un acto deliberado de destrucción que puede ocurrir de las siguientes formas:
*Uso indebido y deliberado de la nanotecnología. Se considera que en un futuro se pueden desarrollar unidades robot del tamaño de bacterias (nanobots) que se alimentan de materia orgánica. Su peligro es incalculable. Podrían envenenar o devorar el conjunto de la biosfera o bloquear el paso de la luz del Sol. La tecnología para crear un nanobot podría caer en las manos indebidas; puede emplearse con fines militares o con el afán de controlar el mundo. No existe por ahora y tomaría muchos años desarrollar una estrategia preventiva.











*Holocausto Nuclear. Aún después del fin de la Guerra Fría, las reservas mundiales de plutonio se han incrementado hasta alcanzar dos millones de toneladas. Si llegara haber una guerra nuclear, quizá no se extinguiría la humanidad por las explosiones mismas. Sin embargo, la civilización sufriría un grave colapso. Los supervivientes se verían reducidos a una nueva edad de piedra y tendrían el mismo riesgo de extinguirse que cualquier otra especie animal: se acabaran todos los elementos culturales que nos ayuden a subsistir.





*Fin de la Matrix De acuerdo con la hipótesis muy aventurada, lo que consideramos nuestro pensamiento bien podría ser una ilusión por una computadora gigante y no el resultado de la evolución de nuestra especie humana (la evolución podría ser una fantasía insertada en nosotros por la gran máquina).
De acuerdo con esta posibilidad, la simulación podría acabar de un momento a otro: si el interruptor de la Matrix se apaga, desaparece la vida inteligente.


*Mala programación de una inteligencia superior. Otra teoría sostiene que el desarrollo de los sistemas de cómputo podría producir una “entidad suprainteligente” un ser independiente de los humanos que, en un momento dado, rebase la voluntad de estos (como el caso del doctor Frankenstein y su monstruo) y actúe por cuenta propia. Diseñada por ejemplo, para hacer cálculos, el proceso podría salirse de control: tomar elementos del Sistema Solar como fuentes de energía y procesamiento de datos hasta agotarlos.




*Peligros de la Ingeniería Genética. Hemos sido testigos de grandes avances en este ramo. Sus progresos y técnicas se difunden de manera abierta, incluso la secta de los raelianos afirma haber clonado el primer ser humano. No es descabellado pensar que si estos recursos caen en las manos de personas mal intencionadas, podría creerse que un virus u otro agente similar que combine un período de larga latencia con un marcado poder de dañar irremediablemente la salud. No hay garantía que contenemos los recursos para curar las posibles nuevas enfermedades.






*Accidentes de la Nanotecnología Aparte de sus usos decididamente malos, la nanotecnología corre el riesgo de accidentes. Para evitarlos debería someterse a estrictas medidas de seguridad: por ejemplo impedir que, sus organismos tengan la capacidad de reproducirse, o promover que sólo, se alimenten de una sola sustancia que no se encuentra comúnmente en la naturaleza, para que así sigan dependiendo de los humanos.



*Algún Imprevisto Aunque podemos considerar varios peligros conocidos como riesgos pero al fin de la vida inteligente en la Tierra. Puede haber otros por completo inesperados. No se trata de erupciones, choques de cometas o explosiones solares, sino de futuros desarrollos científico-tecnológicos que cobren un potencial destructor que hoy no imaginamos.



*Desastres Físicos. Los experimentos con aceleradores de partículas de gran energía pueden crear una burbuja de destrucción que abarque toda la Tierra e incluso, otras regiones de la Galaxia. Se considera además, podrían producir una especie desconocida de energía nuclear que terminara por crear un hoyo negro gigante que lentamente “engulliría” al Planeta.




*Enfermedades naturales. Hoy día, los asentamientos urbanos, la importación y exportación generalizada de mercancías y los frecuentes viajes aéreos; es decir, la acción humana, podrían extender cualquier enfermedad confinada locamente y convertirla en pandemia. Todo depende de la naturaleza del mal. Si el SIDA, por ejemplo, fuera tan contagioso como el resfriado común, la humanidad sufriría una amenaza muy grande.





Calentamiento Global. El calentamiento moderado que ha ocurrido en los últimos años en la Tierra no parece poner en riesgo la supervivencia. Hay sin embargo, una teoría de acuerdo a la cual, la liberación de gases de efecto invernadero en la atmosfera podría convertirse en un proceso creciente e intenso de retroalimentación. Hay quien supone que eso ocurrió en Venus, cuya Atmosfera es rica en dióxido de carbono y alcanza hasta 450°C condiciones que aniquilarían la vida humana.






Dra. Anayatzin S. Mendoza


Comentarios