Información

Información

Contenido exclusivo para suscriptores digitales

Puertas al campo

Abandonar la Tierra

Estos genios suelen hablar con mucha libertad a los medios. Stephen Hawking no era una excepción y, como otros y en otras disciplinas, generaba, de vez en cuando, reacciones críticas por parte de sus colegas. Irritaban, de tanto en tanto, sus conclusiones, aunque, eso sí, sin detenerse a considerar el tipo de razonamiento que las sustentaban. Un caso clásico era su idea de que, si la Humanidad quería sobrevivir, tenía que plantearse el abandonar la Tierra. Pero como los colegas veían esta última cuestión como claramente imposible (¿abandonar?, ¿cómo?, ¿a dónde?), desdeñaban todo el planteamiento y eso que era el mismo Hawking el que decía que tal «viaje» iba a ser prácticamente imposible en los próximos cien años. No ha sido un caso único. Me viene a la memoria alguno otro, pero no hace a la ocasión.

Argumentar por exageración, sobre todo de las conclusiones, es un truco frecuente. Y me imagino que el físico recientemente fallecido lo utilizaba muy conscientemente. Pero ¿cuál parece haber sido su razonamiento? (Insisto en lo de «parece» porque no soy quien para asegurar qué es lo que sucedía efectivamente en su mente).

Hawking era consciente de que la Tierra corría serios riesgos. Nada original. Hace un par de semanas presenté en estas páginas la lista de algunos de tales peligros elaborada para el Foro Económico de Davos y la que, poco después, publicó la The Economist Intelligence Unit. Pero en el caso que nos ocupa la perspectiva era ligeramente distinta. Primero, distinguía bien entre los poco probables y de mucho impacto (la colisión catastrófica de un meteorito, por ejemplo, como el que llevó a la extinción de los dinosaurios) y los muy probables y de poco impacto relativo. Porque los impactos en que pensaba Hawking iban más allá del comportamiento de la economía mundial o sus Bolsas.

Segundo, pensaba, sin embargo, y así lo decía, en plazos más largos, plazos en los que los «pequeños» riesgos de hoy se van a cumulando, agrandando, conectándose hasta ser realmente insuperables y hacer la vida imposible para los humanos en este Planeta. Lo expresó explícitamente en una entrevista en la BBC de hace un par de años. Pero no lo hacía en plan meramente especulativo: pensaba en las decisiones que había que ir tomando ya ahora si no se quería que esa acumulación a lo largo del tiempo los hiciese imposibles de afrontar. Esa era su ironía respecto a abandonar la Tierra. Con los grandes impactos imprevisibles, poco había que hacer. Pero, ¿cuáles eran los riesgos que él consideraba?

Comencemos por el más problemático y cito su inglés de 2016: «the development of full artificial intelligence could spell the end of the human race». En mi castellano: el desarrollo de inteligencias artificiales completas podría significar el fin de la especie humana. Otros han hablado del incremento insostenible de la desigualdad de seguir la tendencia actual, pero Hawking veía algo más que había que detener ya ahora sin, por ello, negar los beneficios que la IA proporciona ya ahora. Son sus pequeñas desventajas las que, acumulándose, pueden producir catástrofes con el tiempo. Es decir, hay que afrontarlas ahora.

De este otro se habla menos: de los virus modificados genéticamente. Las nuevas enfermedades, nuevas epidemias, nuevas amenazas de quienes, para muchos, están llamados a ser los vencedores en esta guerra contra los humanos: los virus, que esta vez recibirían la inestimable ayuda de sus enemigos-habitáculos (los virus nos atacan, pero nos necesitan). De nuevo, no es un alegato contra tales investigaciones, sino un planteamiento de los riesgos que comporta si no se está atento y muy atento.

El cambio climático tenía que estar en su lista. «We are close to the tipping point where global warming becomes irreversible», nos acercamos al punto de inflexión a partir del cual el calentamiento global se torna irreversible. Todavía se puede hacer algo? pero añadía que había demasiados indicadores de todo lo contrario, es decir, de la aceleración del proceso, tal vez por el inmediatismo del beneficio económico inmediato.

El último tenía que ver con no tanto con esa falta de decisiones políticas para detener el proceso sino, sobre todo, con la abundancia de decisiones (otra cosa es la retórica) que lo aceleran. Se trata de la guerra nuclear fomentada desde los gobiernos. La Destrucción Mutua Asegurada de la que ya habló Karl Sagan y que regresa.

¿Nos vamos a otro planeta? No parece que ese sea el punto a discutir: se trata más bien de preguntarnos si los humanos queremos seguir aquí indefinidamente.

Lo último en INF+

Compartir el artículo

stats