El largoplacismo, la ideología que moldea el debate sobre la IA
El largoplacismo, la filosofía favorita de la Silicon Valley, centra los debates sobre la inteligencia artificial (IA) en la extinción de la humanidad. Pero sus detractores alertan que desatiende los problemas vinculados a esta nueva tecnología, como el robo de datos o los sesgos de los algoritmos.
El multimillonario Elon Musk y el director ejecutivo de OpenAI Sam Altman causaron sensación cuando alertaron en una carta abierta de que la IA suponía un riesgo de extinción para la humanidad.
Sus detractores consideraron sin embargo que tenían todas las de ganar al afirmar que sólo sus proyectos podrían salvarnos.
Las ideologías asociadas al largoplacismo, como el transhumanismo (la idea de que los seres humanos puedan ser aumentados con tecnología) o el altruismo eficaz (crear el máximo bienestar posible) ya ejercen una influencia considerable en las universidades anglosajonas y en el sector tecnológico.
Grandes inversores como Peter Thiel y Marc Andreessen empezaron incluso a financiar empresas que buscan prolongar la vida humana.
Pero al mismo tiempo han ido emergiendo críticos de esta corriente marginal, que a grandes rasgos, pone el foco en mejorar el bienestar a largo plazo de la humanidad en lugar de centrarse en los individuos de hoy.
Los detractores del largoplacismo lo tienen claro: ejerce demasiada influencia en los debates públicos y puede llegar a ser peligroso.
- Advertencias -
El escritor Emile Torres abrazó esta corriente ideológica en el pasado, pero es ahora uno de sus mayores críticos.
En una entrevista con la AFP, advirtió que la teoría del largoplacismo se basa en los mismos principios que justificaron asesinatos en masa y genocidios en el pasado.
Los adeptos del largoplacismo se proyectan en un futuro lejano en el que miles de millones de humanos viajarán en el espacio para colonizar nuevos planetas.
Sostienen que tenemos el mismo deber con cada uno de estos futuros humanos que con cualquiera de los que viven hoy. Y como son tantos, tienen mucho más peso que los seres actuales.
Para Torres, este razonamiento hace que el largoplacismo sea "verdaderamente peligroso".
"Cuando tienes una visión utópica del futuro" y "la combinas con una moral utilitarista que dice que el fin puede justificar los medios, es peligroso", explica el autor de "Human Extinction: A History of the Science and Ethics of Annihilation" (La extinción humana: Historia de la ciencia y la ética de la aniquilación, traducción propia).
Como otros expertos, Torres busca recentrar los debates en los problemas reales que supone la IA, como los derechos de autor, los sesgos cognitivos o la concentración de riquezas en un puñado de empresas.
Pero ese discurso, sin embargo, choca con las opiniones cada vez más alarmistas sobre el futuro, opina Torres.
"Hablar de la extinción de la humanidad, de un acontecimiento verdaderamente apocalíptico en el que todo el mundo muera, es mucho más emocionante que hablar de trabajadores kenianos a los que se les paga 1,32 dólares la hora" para moderar los contenidos de la IA, subraya el historiador.
- ¿Eugenesia? -
El largoplacismo surgió de los trabajos del filósofo sueco Nick Bostrom sobre el riesgo existencial y el transhumanismo, en las décadas de 1990 y 2000.
Según la investigadora Timnit Gebru, exintegrante del equipo de investigación sobre ética e IA de Google -- que fue despedida -- el transhumanismo ha estado vinculado a la eugenesia (intentos de mejorar la humanidad mediante la selección genética) desde sus inicios.
El biólogo británico Julian Huxley, quien acuñó el término, fue también un teórico de la eugenesia. Y Bostrom fue acusado durante mucho tiempo de apoyar la eugenesia.
El filósofo, que dirige el Future of Humanity Institute (Instituto del futuro de la humanidad) de la Universidad de Oxford, se disculpó en enero tras haber admitido haber escrito mensajes racistas en internet en los años 1990.
"¿Estoy a favor de la eugenesia? No, no en el sentido en que generalmente se entiende el término", dijo en ese entonces.
E.Steiner--HHA