Los riesgos existenciales son riesgos que aniquilarían la vida inteligente originaria de la Tierra o reducirían de forma permanente y drástica su potencial. La mayoría de ellos —como el bioterrorismo o el cambio climático— son creados por los seres humanos y los gobiernos no los están abordando con la seriedad ni la urgencia que merecen.
En mayo, expertos de diversos campos se reunieron en Montenegro para debatir sobre “Amenazas existenciales y otros desastres: ¿Cómo debemos abordarlos?”. El término “riesgo existencial” se popularizó en un ensayo de 2002 del filósofo Nick Bostrom, quien lo definió como aquellos riesgos tales que “un resultado adverso aniquilaría la vida inteligente originaria de la Tierra o reduciría permanente y drásticamente su potencial”.
Para apreciar la distinción entre los riesgos existenciales y otros desastres, considere el cambio climático. En algunos escenarios, el calentamiento global descontrolado podría hacer que la mayor parte de la Tierra se vuelva demasiado calurosa para que los humanos puedan seguir viviendo allí, pero la Antártida y algunas de las regiones más septentrionales de Europa, Asia y Norteamérica se volverían habitables.
Eso reduciría el potencial de vida inteligente en la Tierra, quizás durante milenios, pero con el tiempo el planeta se enfriaría y los descendientes de los supervivientes lo repoblarían. Si estos son realmente los peores escenarios, entonces el cambio climático, por desastroso que pudiera ser, no constituye un riesgo existencial.
Sin duda, si la gravedad de un desastre es directamente proporcional al número de personas que mata, la diferencia entre un desastre que mata a casi toda la población humana de la Tierra y uno que provoca su extinción no sería tan grande. Sin embargo, para muchos filósofos preocupados por el riesgo existencial, esta perspectiva no considera la enorme cantidad de personas que existirían si nuestra especie sobreviviera durante mucho tiempo, pero que no ocurriría si el Homo sapiens se extinguiera.
La declaración señala que existen graves riesgos para la supervivencia de la humanidad, la mayoría de ellos creados por seres humanos, ya sea intencionalmente, como el bioterrorismo, o involuntariamente, como el cambio climático o el riesgo que supone la creación de una superinteligencia artificial que no se alinea con nuestros valores. Estos riesgos, continúa la declaración, no están siendo tratados por los gobiernos con la seriedad ni la urgencia que merecen. La declaración respalda su punto de vista con referencia a dos afirmaciones de Toby Ord en su libro de 2020, The Precipice . Ord estimó la probabilidad de que nuestra especie se extinga en los próximos 100 años en un 16-17%, o una entre seis. También estimó que la proporción del PIB mundial que la humanidad destina a intervenciones destinadas a reducir este riesgo es inferior al 0,001%.
En una actualización publicada en julio, Ord afirma que, dado que la nueva evidencia sugiere que los escenarios más extremos de cambio climático son improbables, el riesgo existencial que plantea el cambio climático es menor de lo que pensaba en 2020. Por otro lado, la guerra en Ucrania significa que el riesgo de que una guerra nuclear provoque nuestra extinción es mayor, mientras que los riesgos de la IA superinteligente y las pandemias son, en su opinión, menores en algunos aspectos y mayores en otros.
Ord considera que centrarse en los chatbots lleva a la IA hacia una dirección menos peligrosa, ya que no son agentes. Sin embargo, considera que la creciente competencia en la carrera por crear inteligencia artificial general avanzada probablemente lleve a recortar la seguridad de la IA.
En general, Ord no ha cambiado su estimación —que admite es muy aproximada— de que existe una probabilidad entre seis de que nuestra especie no sobreviva los próximos 100 años. Celebra el creciente interés mundial por reducir el riesgo de extinción y ofrece como ejemplos la inclusión del tema en el informe de 2021 del Secretario General de las Naciones Unidas y su prominencia en la agenda del grupo internacional de exlíderes mundiales conocido como Los Ancianos.
La declaración de Montenegro insta a los gobiernos a colaborar para prevenir desastres existenciales y, especialmente, a los gobiernos de los países ricos a invertir “recursos significativos” en la búsqueda de las mejores maneras de reducir el riesgo de extinción humana. Si bien la declaración no indica qué significa “significativo” en este contexto, Ord ha sugerido en otras ocasiones un compromiso del 1 % del PIB mundial para reducir el riesgo de extinción de nuestra especie. Esta cifra es mil veces superior a su estimación de 2020 sobre el gasto gubernamental en esta tarea, pero sería difícil argumentar que es excesiva.
Peter Singer
+ posts
Peter Singer (Melbourne, 1946) es un filósofo utilitarista australiano y una de las figuras más influyentes en la ética contemporánea. Profesor de filosofía en la Universidad de Princeton y anteriormente en Oxford y Monash, es reconocido como el padre del movimiento de liberación animal tras publicar "Liberación Animal" en 1975. Sus padres fueron refugiados judíos que escaparon de la Alemania nazi, estableciéndose en Australia donde nació Peter. Es autor de más de cuarenta libros que abordan temas como ética práctica, bioética, pobreza global y derechos de los animales, aplicando principios utilitaristas para revolucionar el pensamiento moral del siglo XXI.
No hay comentarios:
Publicar un comentario