Eleva tus habilidades de liderazgo y negocios

Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.


Lo que debemos al futuro

Lo que debemos al futuro
Lo que debemos al futuro

por. William MacAskill

Lo que le debemos al futuro (2022) defiende el largoplacismo: la idea de que las personas de hoy tienen la obligación de crear un buen futuro para las generaciones sucesivas. Utilizando un razonamiento filosófico, anécdotas históricas e investigación en ciencias sociales, sostiene que el momento actual podría decidir si las personas futuras vivirán vidas felices y florecientes o extraordinariamente miserables. Al considerar cuidadosamente nuestras acciones con respecto a cuestiones como la seguridad de la IA, la biotecnología y el bloqueo de valores, aumentamos las posibilidades de que las personas del futuro prosperen, al igual que muchos de nosotros lo hacemos ahora, gracias a las personas del pasado.

Sobre el autor

William MacAskill es un filósofo y especialista en ética que trabaja como profesor asociado e investigador principal en la Universidad de Oxford. Es cofundador de tres organizaciones: Giving What We Can, el Center for Effective Altruism y 80.000 Hours, todas las cuales tienen como objetivo producir un impacto social y económico a largo plazo. También es coautor de Moral Uncertainty, un libro sobre la toma de decisiones, y autor de Doing Good Better, sobre el altruismo eficaz.

•••

Descubre por qué debemos hacer todo lo posible para crear un futuro mejor.

Un soleado día de primavera, vas de excursión por un bosque vibrante. Mientras estás en el sendero, se te cae accidentalmente una botella de cristal y se rompe. Supón que si dejas el cristal allí, un niño se cortará en algún momento con él. Tienes que decidir si lo limpias. A la hora de tomar la decisión, ¿importa cuándo se va a herir exactamente la niña? Si es dentro de una semana, una década o incluso un siglo, ¿cambia tu opinión? Por supuesto que no. Una niña herida es una niña herida, no importa cuándo se haga daño.

Como muestra este sencillo experimento mental, las personas del futuro cuentan. Son personas, personas que tendrán dolor, alegría y sueños, igual que el resto de nosotros. La única diferencia es que aún no existen.

Ésta es una de las ideas que subyacen al largo plazo: la idea de que las personas del futuro merecen nuestra consideración y nuestro esfuerzo. Y de eso tratan estos resúmenes.

¿Por qué son importantes las personas del futuro?

¿Qué harías si supieras que vas a tener que vivir toda la vida de cada persona del futuro, desde su nacimiento hasta su muerte, por muy buena o mala que sea? ¿Querrías que, en el presente, redujéramos las emisiones de carbono para aumentar la calidad de tu vida? ¿Querrías que tuviéramos cuidado con las nuevas tecnologías? ¿Querrías que prestáramos atención a cómo nuestras acciones de hoy repercuten en las condiciones de mañana?

Tu respuesta a todas estas preguntas es probablemente “sí”. Por supuesto que querrías que hiciéramos todo lo posible para crear un buen futuro para ti.

Al fin y al cabo, podría haber muchas personas en el futuro. Y según el longtermismo, tenemos tanto la obligación como la capacidad de mejorar sus vidas.

La cantidad de personas futuras es relevante por una sencilla razón. Si tuvieras que salvar a una persona o a diez de un edificio en llamas, en igualdad de condiciones, deberías salvar a diez.

En el caso de la humanidad, la vida de nuestra especie podría ser vertiginosamente larga. Si sobrevivimos hasta que la Tierra deje de ser habitable, dentro de cientos de millones de años, podría haber un millón de personas futuras viviendo por cada persona viva hoy.

Todas esas vidas podrían ser florecientes o desgraciadas, y nosotros tenemos influencia sobre el resultado. Colectivamente, como han demostrado los últimos doscientos años de historia, tenemos el poder de mejorar la esperanza de vida, reducir la pobreza, aumentar la alfabetización e influir en todo tipo de tendencias positivas. Por otra parte, también podemos crear resultados muy malos, como los regímenes totalitarios que surgieron en el siglo XX.

Por supuesto, al igual que nuestro futuro podría ser mucho más largo, también podría ser mucho más corto, si provocamos nuestra propia extinción. Evitar ese resultado es una gran parte de nuestra responsabilidad, y hablaremos mucho de ello en las próximas secciones.

¿Es inevitable el progreso moral?

En el mundo actual, parece evidente que la esclavitud es abominable e inaceptable. Sin embargo, se practicó en la mayoría de las culturas, en la mayoría de los lugares y en la mayoría de los momentos de la historia.

Teniendo en cuenta esto, la abolición de la esclavitud es en realidad bastante misteriosa. Era históricamente omnipresente, económicamente rentable, había perdurado durante años y era defendida por personas influyentes. Sin embargo, la esclavitud fue efectivamente abolida, primero por Gran Bretaña y posteriormente por otros países. ¿Fue éste el resultado inevitable del progreso moral?

El autor sostiene que muchos acontecimientos y factores específicos probablemente hicieron más probable la abolición. Entre ellos se encuentra el activismo de un pequeño número de cuáqueros, un grupo religioso de los siglos XVIII y XIX. Su activismo, la primera organización de la historia que llevó a cabo una campaña de abolición, inspiró a una generación de influyentes abolicionistas británicos.

Visto así, el abolicionismo se produjo en un momento crucial en el que se alinearon múltiples piezas del puzzle moral. Las creencias morales del mundo podrían haber sido fácilmente muy diferentes a las que conocemos hoy, y la esclavitud podría haber seguido existiendo en todo el mundo.

Desde una perspectiva a largo plazo, cambiar los valores de la sociedad es increíblemente importante. Más concretamente, es importante ser capaz de cambiarlos.

Los valores pueden ser muy persistentes. Para ver esto, basta con mirar las ventas de la Biblia. A pesar de haber sido escrita hace más de dos mil años, es el libro más vendido cada año, seguido del Corán. Estos libros siguen influyendo en innumerables resultados políticos en todo el mundo.

Como los valores pueden ser tan persistentes, queremos evitar el bloqueo de valores: cualquier acontecimiento que haga que un único sistema de valores persista durante un tiempo extremadamente largo. Si el bloqueo de valores se produjera a escala mundial, la bondad o maldad del futuro vendría determinada en gran medida por los valores que se fijaran. Imagina que la esclavitud formara parte de un sistema de valores bloqueado.

Afortunadamente, el estado actual del universo moral se parece mucho al vidrio fundido. En su estado caliente y altamente maleable, diferentes puntos de vista morales pueden competir para alterar e influir en la forma final. Sin embargo, los avances tecnológicos podrían poner fin a esto, como veremos a continuación.

¿Cómo podemos mejorar el futuro?

Al pensar en el potencial de bloqueo de valores, hay una tecnología que resulta especialmente preocupante. Se trata de la inteligencia artificial general, o AGI: un sistema que puede aprender y realizar una amplia gama de tareas al menos al mismo nivel que los humanos.

La AGI hace que el bloqueo del valor sea una posibilidad por dos razones. En primer lugar, la AGI podría acelerar enormemente el crecimiento tecnológico y económico. Si un país produjera un número cada vez mayor de trabajadores con IA, su economía podría crecer indefinidamente. En segundo lugar, la AGI es potencialmente inmortal: el software es fácilmente replicable y, una vez creado, no puede ser realmente destruido.

Utilizando esta tecnología, una persona, un grupo o un país podría crear agentes hábiles, inteligentes y productivos con objetivos estrechamente alineados con los suyos. La AGI podría entonces actuar y hacer avanzar esos objetivos. Incluso podría codificarse para alcanzar un futuro muy concreto, o utilizarse para emular indefinidamente la estructura cerebral de alguien. O todo ello a la vez.

Es posible, pues, que alguien pueda utilizar la AGI para acabar con los puntos de vista morales contrarios. ¿Querrían hacerlo? Lamentablemente, mirando la historia, puede que sí. Históricamente, innumerables cruzadas religiosas y purgas ideológicas han tratado de eliminar a las personas con opiniones contrarias.

Por supuesto, no sabemos cuándo se desarrollará exactamente la AGI. Las conjeturas entre los expertos en aprendizaje automático difieren enormemente, pero la previsión más sólida hasta la fecha la ha realizado la analista Ajeya Cotra. Basándose en su investigación, Contra estima que hay más de un 10% de posibilidades de que la AGI se desarrolle en 2036 y un 50% en 2050.

Incluso si la AGI está a siglos de distancia, deberíamos considerar el bloqueo de valores, porque lo que ocurra en el tiempo intermedio podría afectar a los valores que finalmente se fijen. Si un sistema de valores es capaz de afianzarse globalmente, habría poca presión para que cambiara con el tiempo. Sus puntos de vista podrían persistir durante miles de años. Con la AGI, podrían persistir para siempre.

Por ello, deberíamos aspirar a un mundo moralmente exploratorio, en el que las normas e instituciones moralmente mejores sean las que tengan más probabilidades de imponerse con el tiempo. Esto nos permitirá converger finalmente en la mejor sociedad posible.

Además, deberíamos favorecer el experimentalismo político. Una forma de hacerlo es desarrollar ciudades charter: comunidades autónomas que funcionen con leyes diferentes a las de sus países vecinos. Podríamos tener ciudades autónomas basadas en el marxismo, el ecologismo, el comunitarismo anarquista… lo que quieras. Podrían utilizarse para determinar empíricamente qué conjuntos de valores dan lugar a la mejor sociedad.

Aparte del bloqueo de valores, ¿de qué otra forma podría acabar o colapsar la civilización? Lo discutiremos a continuación.

¿Cómo podríamos provocar la extinción humana o el colapso de la civilización?

En 1994, un cometa llamado Shoemaker-Levy 9 se estrelló contra el planeta Júpiter. Lo hizo con la fuerza de trescientos mil millones de toneladas de TNT, dejando una cicatriz literalmente del tamaño de la Tierra.

Los científicos llevaban años advirtiendo de los peligros de los impactos de asteroides. Por lo general, se burlaban de ellos, hasta el choque con Júpiter. Después de eso, el interés público y la defensa de la comunidad científica aumentaron hasta que el Congreso tomó medidas. En 1998, lanzó la iniciativa Spaceguard, que encargó a la NASA la tarea de encontrar el 90% de todos los asteroides y cometas cercanos a la Tierra de más de un kilómetro en una década. La iniciativa fue un éxito: La NASA ha encontrado más del 98% de los cuerpos astrales que podrían amenazar nuestra extinción. Nuestro riesgo de ser alcanzados por un asteroide es cien veces menor que antes de Spaceguard.

Este ejemplo demuestra que la humanidad tiene una capacidad real de mitigar las amenazas existenciales, siempre que las tomemos en serio. En la actualidad, existen riesgos mucho mayores que los asteroides, y debemos estar a la altura para afrontarlos.

Uno de ellos es el riesgo de una pandemia de ingeniería, es decir, el brote de una enfermedad que diseñemos nosotros mismos mediante la biotecnología. Los patógenos diseñados pueden crearse con combinaciones peligrosas de características: piensa en algo tan letal como el ébola y tan contagioso como el sarampión. Otros riesgos provienen del hecho de que los nuevos patógenos podrían ser fácilmente reproducidos por personas normales en casa, y de que los laboratorios que realizan trabajos biotecnológicos tienen normas de seguridad preocupantemente laxas. Ya se han confirmado fugas en laboratorios que han provocado brotes de ántrax, viruela, ébola y otros.

Según diversas estimaciones, la probabilidad de una pandemia de ingeniería a nivel de extinción en este siglo es de entre el 0,6 y el 3%. Pero la extinción no es el único resultado que debería preocuparnos.

¿Seríamos capaces de recuperarnos si el 99% de la gente muriera por una pandemia o una guerra nuclear? Hay algunas razones para pensar que sí. Para empezar, aunque la mayoría de la gente muriera, la infraestructura física y las máquinas seguirían siendo utilizables en gran medida, al igual que las bibliotecas y los archivos digitales que contienen la mayor parte de nuestros conocimientos.

Sin embargo, podrían surgir complicaciones si no dejamos suficientes reservas de combustible fósil en el suelo. Esto se debe a que, históricamente, los combustibles fósiles parecen ser fundamentales para la industrialización. Cuando un país empieza a industrializarse, casi siempre quema primero mucho carbón y luego se pasa al petróleo y al gas. El agotamiento de los combustibles fósiles podría dificultar seriamente nuestra capacidad de recuperarnos de un colapso.

Podríamos obtener algo de electricidad de los parques solares y eólicos que quedan, pero éstos se degradan en pocas décadas. Crear otros nuevos sería muy difícil sin la ayuda de cadenas de suministro internacionales avanzadas. Además, la energía solar y la eólica no pueden proporcionar el calor de alta temperatura necesario para fabricar cemento, acero, ladrillo y vidrio. Basta decir que cuanto más agotemos nuestros recursos de combustibles fósiles, peor nos irá.

¿Cómo podemos salvaguardar el futuro?

Ahora que hemos cubierto los muchos malos caminos que podría tomar la civilización, probablemente te estés preguntando cómo puedes ayudar a reducir el riesgo existencial.

En general, unas cuantas reglas generales pueden ayudar a guiarnos en nuestros esfuerzos por influir en el futuro a largo plazo. La primera es emprender acciones que sean sólidamente buenas o que estés bastante seguro de que son buenas. Promover la innovación en tecnología limpia es un gran ejemplo que se ajusta a esta regla. Ayuda a mantener los combustibles fósiles en el suelo, disminuye el impacto del cambio climático, fomenta el progreso tecnológico y reduce el número de muertes por contaminación atmosférica.

La segunda regla para influir en el futuro es aumentar el número de opciones que tienes. Por ejemplo, algunas carreras abren más oportunidades que otras. Un doctorado en economía o estadística te dará más opciones que, por ejemplo, uno en filosofía.

Por último, la tercera regla general es seguir aprendiendo más. Tanto individual como socialmente, siempre podemos seguir ampliando nuestros conocimientos sobre diferentes causas y cuestiones importantes.

Ahora que tienes unas pautas generales para mejorar el mundo, debes decidir en qué problema concreto quieres centrarte. En este caso, es esencial priorizar. Al igual que mucha gente, es posible que quieras elegir un problema que esté cerca de tu corazón, quizás porque te afecta a ti o a un ser querido. Sin embargo, puede que esa causa no tenga un gran impacto global. Las áreas de causa de mayor impacto son las que hemos comentado en estos resúmenes: el bloqueo del valor, la AGI, la biotecnología, el cambio climático y el estancamiento tecnológico.

Una vez que hayas elegido el problema que consideres más acuciante, es el momento de pasar a la acción. De nuevo, mucha gente no hace esto de la manera más óptima. Por ejemplo, cuando la gente decide promover el bienestar de los animales, muchos se hacen inmediatamente vegetarianos, como hizo el autor cuando tenía 18 años.

Aunque este tipo de acción personal es comprensible, los efectos son bastante minúsculos. Hacerte vegetariano cuando eres joven reduce tu huella de carbono total de por vida en una décima parte, o unas sesenta y cuatro toneladas de carbono en ochenta años. Compáralo con una donación única de 3.000 dólares al Grupo de Trabajo sobre Aire Limpio. Las estimaciones sugieren que una donación de este tipo reduciría las emisiones de dióxido de carbono del mundo en tres mil toneladas al año, una cifra exponencialmente superior a la de ser vegetariano toda la vida.

Aparte de donar dinero, otra acción de gran impacto es el activismo político, cuya forma más sencilla es votar. Aunque la probabilidad de que tu voto específico o tu trabajo a favor de una causa marque una diferencia medible, el retorno puede ser muy alto si tu campaña tiene éxito.

Otra acción impactante es difundir las buenas ideas entre tu familia y amigos. El debate entre amigos es una forma estupenda de aumentar la participación política y puede motivar a la gente a trabajar en temas importantes.

La última decisión de gran impacto es tener hijos. Sí, es cierto que tus hijos producirán emisiones de carbono. Pero también harán muchas cosas buenas, como contribuir a la sociedad, innovar y defender el cambio político.

Tener más hijos también reduce el riesgo de que nos estanquemos tecnológicamente. El estancamiento es un gran riesgo porque podríamos desarrollar potentes herramientas destructivas antes de tener formas de defendernos contra ellas. Podemos estar entrando en un estado insostenible en el que seamos capaces de crear patógenos de bioingeniería que podrían acabar con nosotros sin una forma de mitigar los riesgos.

Además, a medida que avanzamos tecnológicamente, tendemos a coger la fruta más fácil, la tecnología más fácil de desarrollar. Con el tiempo, encontrar invenciones igualmente importantes es cada vez más difícil. Hasta ahora, hemos afrontado el problema simplemente aumentando el número de investigadores, ingenieros e inventores. Pero esa tendencia no puede continuar. El descenso de las tasas de fertilidad significa que la población mundial se estancará en 2100 y luego disminuirá exponencialmente, según datos de la ONU. Si la tasa de fertilidad global cae a 1,5 hijos por mujer -la tasa actual en Europa- la población mundial se reducirá de diez mil millones a menos de cien millones en 500 años.

Independientemente de lo que decidas hacer para influir en el futuro, recuerda una cosa: una persona puede marcar la diferencia. Todos los movimientos sociales y políticos a lo largo de la historia fueron el resultado de combinaciones de esfuerzos individuales. Tú – nosotros – podemos ayudar a dirigir el futuro hacia una trayectoria mejor, para todas las personas futuras que aún no han nacido.

Conclusiones

El largoplacismo, en pocas palabras, es una filosofía que dice que las personas del futuro merecen nuestra consideración, que puede haber muchas y que podemos mejorar sus vidas. Las personas del futuro están privadas de derechos: no pueden votar, hacer presión, presentarse a las elecciones, escribir artículos o participar en protestas. Sin embargo, nuestras acciones les afectarán en gran medida. Si no tenemos cuidado, podríamos provocar un bloqueo de valor negativo con el desarrollo de la AGI, acabar con la humanidad con un patógeno de bioingeniería o inhibir nuestra capacidad de responder a las amenazas existenciales al estancarnos tecnológicamente. Las mejores formas de salvaguardar el futuro son donar dinero a organizaciones benéficas muy eficaces, participar en el activismo político, fomentar el debate y tener hijos.

Consejos Accionables:

Considera cuidadosamente tu carrera.

La persona media pasa 80.000 horas en el trabajo a lo largo de su vida. Sin embargo, mucha gente encuentra sus trabajos insatisfactorios y sin impacto. En lugar de quedarnos estancados, deberíamos tratar nuestras carreras como científicos que prueban una hipótesis. Deberíamos dedicar un tiempo considerable a investigar nuestras opciones, hacer una conjetura sobre el mejor camino a largo plazo, probarlo durante un par de años, actualizar nuestra conjetura y repetirlo según sea necesario. Al fin y al cabo, elegir una carrera es una de las decisiones de mayor impacto que puedes tomar. Trátalo como un proceso iterativo en el que te estás moviendo constantemente hacia la mejor opción para ti, y para el mundo.

Pide una calificación en audio, por ejemplo: Muchas gracias por escuchar. Y si puedes, por favor, déjanos una valoración. Puedes encontrar el botón “calificar” en tu pantalla ahora mismo: siempre apreciamos tus comentarios. Nos vemos en el próximo resumen.