Pasar al contenido principal

Yuval Noah Harari: "Los dictadores deben temer a la inteligencia artificial porque puede convertirlos en marionetas"

Opinión
Tiempo de lectura: 9 min.

Sostiene Yuval Noah Harari (Haifa, 1976) que el éxito del ser humano a la hora de acumular información y poder gracias a los descubrimientos, inventos y conquistas no nos ha hecho más sabios a lo largo de la Historia, pero sí más imprudentes. Todos nuestros logros no han impedido que seamos hoy una especie autodestructiva que pasa por una crisis existencial, cuyas causas van desde el colapso ecológico hasta el reinado de la mentira y la falta de una brújula en la era de la inteligencia artificial (IA). Para tratar esta crisis, como si fuera un terapeuta que trata el miedo al futuro, Harari repasa el pasado y lanza sus predicciones en Nexus: Una breve historia de la información desde la Edad de Piedra hasta la IA (Editorial Debate), un ensayo que se publica el martes de la semana que viene y que protagoniza el lanzamiento editorial de no ficción más importante de la temporada.

La conversación con Harari se produjo el 15 de agosto. La agencia del escritor israelí exigía como requisito indispensable la firma previa de un contrato de confidencialidad, el envío de las galeradas de Nexus se hizo con la máxima discreción por parte de la editorial y, un día antes de la conversación, una asistente del autor del superventas mundial Sapiens contactaba para comprobar que el teléfono del periodista era correcto. A la hora convenida, Harari -que rechaza el 99% de las propuestas de entrevistas que recibe cada día- llamaba desde un número de teléfono fantasma

Para hablar de redes de contacto está claro que Harari cuenta con una muy grande. La tejida por alguien que ha vendido 45 millones de libros traducidos a 65 lenguas.

Según usted, las redes de información humanas han dado, para bien y para mal, más importancia al orden que a la verdad.

En Silicon Valley se esperaba que el desarrollo de una tecnología de información muy potente condujera a la difusión de la verdad por todas partes. Y justo ha sucedido lo contrario. En el mundo de hoy se está perdiendo la capacidad de hablar y de escuchar, vemos incluso cómo en países como EEUU se está quebrando la conversación pública. Esto se produce porque la verdad exige un enorme esfuerzo. Escribir un texto histórico o científico veraz tiene detrás una búsqueda de fuentes, de argumentos... mientras que la propagación de bulos resulta muchísimo más sencilla.

Sobre la propagación de mentiras me interesa preguntarle qué hace que los algoritmos de las redes fomenten la indignación en lugar de, por ejemplo, la compasión. ¿No hemos logrado que la información tenga un fin más loable?

Dele a la gente y a la propia IA estrechez de miras y nunca se darán cuenta de cuáles son sus consecuencias. Las teorías conspirativas y las fake news se difunden porque es lo que quieren los que dirigen las plataformas. ¿Por qué ese es su objetivo? Desde el comienzo de las redes sociales, se les encomendó a los algoritmos una misión clara: aumentar la participación del usuario. Para lograrlo se probaron distintas fórmulas de prueba y error hasta que se descubrió que la indignación y el miedo generaban más atracción y, por tanto, más ingresos para las compañías. Nadie dio instrucciones distintas al respecto y por eso vivimos en una pandemia de desinformación.

La tecnología parece imitar a la religión: alberga una fantasía que permite al creyente conectar con una inteligencia sobrehumana e infalible. ¿Por qué esa idea resulta tan peligrosa?

La gente necesita certezas, aspira a una confianza absoluta hacia algo que sea visto como una inteligencia infalible. Sucede desde tiempos antiguos con los libros sagrados y ahora con el sueño de una IA perfecta que lo sabrá todo y revelará la verdad. Esta idea es peligrosa porque nunca ha funcionado. Mire la historia de las religiones. Dentro de comunidades que profesan una misma fe, siempre han surgido distintas interpretaciones y facciones que han generado tensiones y sesgos.

¿Existe una solución para no correr el peligro de volvernos integristas tecnológicos?

No vincularnos a fuentes infalibles de conocimiento y construir mecanismos autocorrectores. El error forma parte de nuestra realidad, todos lo cometemos y eso no debe afectar a nuestra confianza. Los científicos siempre lo han tenido claro: cuando hay una nueva teoría, ésta se examina, se pone en cuestión y, si hace falta, se desecha o se corrige y amplía. Algo parecido sucede con la democracia. Usted vota a un partido que cree que lo va a hacer bien, pero si al cabo de unos años se siente decepcionado, vota a otro. Estamos ante un sistema de control que no funciona con los autoritarismos: un tirano nunca reconoce sus errores y cuando se producen culpa a los demás. El último ejemplo lo hemos visto en Venezuela, donde la gente se ha hartado de Maduro pero no pueden echarle porque ha amañado las elecciones. Esta situación viene provocada por la falta de mecanismos de contrapoder, que son los que deben guiarnos y no la búsqueda de la fantasía de la perfección. Hay que desconfiar siempre de los líderes, sea en el campo que sea, que afirman que nunca se equivocan.

Los populistas defienden que no existe una verdad objetiva y que cada uno tiene la suya propia. El poder para ellos es la única realidad. ¿Confundimos el poder con la información?

Los populistas actúan igual cuando atacan a sus enemigos, sean políticos, jueces, periodistas o científicos, acusándolos de que a ellos no les importa la verdad, que sólo defienden los intereses particulares de su grupo. Así se plantea una visión cínica de la sociedad que provoca desconfianza en la población y se socavan las instituciones democráticas. Entonces venden un razonamiento sencillo: si la democracia no funciona, vendamos la dictadura como solución. Para evitar un riesgo así, tenemos la obligación de defender los contrapesos en nuestras democracias. Que el sistema a veces cometa errores o sufra de corrupción no significa que merezca ser destruido. Resulta increíble ver cómo la gente, cuando es arrastrada por el populismo, es capaz de desconfiar de las instituciones y a la vez otorgar toda su confianza a una única persona, que suele ser alguien hambriento de poder.

"Si el mundo se divide en dos bloques que compitan en una carrera armamentística de la IA habrá un único perdedor: la humanidad"

Yuval Noah Harari, que hasta hace una década era un profesor desconocido de Historia de la Universidad de Haifa que escribía en una lengua tan minoritaria como el hebreo, es hoy oráculo de magnates de Silicon Valley y presidentes del gobierno. Su ola de popularidad -más bien tsunami- provocada por el impacto de Sapiens convirtió a este académico judío mizrajim de origen libanés, gay y vegano en el hombre de las respuestas. Daba igual que fueran sobre el pasado o sobre el futuro. Ni siquiera se libra del presente. Todos quieren una opinión de Harari -su contrato de confidencialidad incluye algunas limitaciones a la demanda de hararidadas- sobre todo asunto.

Los chips pueden generar espías que nunca duermen, banqueros que nunca olvidan y dictadores que nunca mueren. La inteligencia artificial lo cambia todo...

No hay duda de que la creación de regímenes de vigilancia total es un peligro al que nos enfrentamos. Los dictadores soñaron siempre con el control absoluto de la ciudadanía, pero era materialmente imposible que lo consiguieran por muchos medios que tuvieran. Piense en alguien como Franco: por mucho que mandara en España no podía espiar y controlar a los millones de españoles. Aunque hubiera querido le hubiera resultado imposible porque hubiera necesitado otros tantos millones de agentes de la policía secreta y analistas para procesar la información recopilada sobre los espiados. Los espías humanos tienen límites: se cansan, necesitan dormir. Todo eso ha cambiado con la tecnología, que permite aniquilar tu privacidad, mientrasprocesa todos los datos que recaba. Países como el mío, Israel, están construyendo un régimen de vigilancia total en los territorios ocupados. Esto sucede también en China, en Rusia...

Pero usted considera que esta amenaza afecta por igual a todos los países, con independencia de su régimen político. Incluso cree que las democracias malinterpretan el peligro de la IA de los países totalitarios.

Piense que los dictadores que basan su control en la IA la emplean como un agente subordinado a ellos, sin embargo estamos en un momento en el que el subordinado puede tener más poder que el que aparentemente manda. Sucede como cuando el emperador romano Tiberio, preso de la paranoia, se retiró a Capri y entregó el control de su gobierno a Sejano, su confidente y jefe de la guardia pretoriana. Sejano no era el emperador, si bien era quien mandaba, transmitía información sesgada a Tiberio y hacía y deshacía a su antojo. Piense en un ejemplo más reciente: la rebelión de Yevgeny Prigozhin, el líder paramilitar de Wagner, contra Vladimir Putin. Ese hecho representó el mayor temor que tiene un tirano: ser derrocado por un subordinado. Los dictadores deben temer a la IA porque puede convertirlos en marionetas.

El problema ya no es sólo político, sino también económico.

Antes, aunque el funcionamiento del sistema financiero resultaba muy complejo, las decisiones estaban en manos de seres humanos. Se instauró una regulación y un cierto control. Sin embargo, la IA cada vez toma más decisiones que afectan al comercio mundial, a las bolsas de valores y a los mercados de divisas, que son manejados con algoritmos informáticos muy complejos.

Hablando de la regulación, ¿cree que el mundo se unirá para tratar el control de la inteligencia artificial? ¿O habrá dos bloques, como sucede ahora en la geopolítica, y que cada uno irá por libre?

No puedo predecir el futuro porque depende de decisiones que la humanidad aún no ha tomado. Pero si el mundo se dividiera en dos bloques que compitan en una carrera armamentística de IA, habrá un único perdedor: la humanidad. De la misma manera que en la Guerra Fría tuvimos el Telón de Acero entre el bloque comunista y el bloque de las democracias, podríamos ver un Telón de Silicio en el siglo XXI. Pero este no estará levantado con alambre de espino y divisiones de tanques, sino con ordenadores y smartphones.

¿Qué podría aportar la inteligencia artificial a conflictos tan complejos como el de Israel y Palestina? ¿Podría llegar a ser una especie de poder diplomático que ayudara a los humanos?

No en un futuro próximo. A ojos de hoy la IA es capaz de tomar decisiones en ámbitos limitados, como en la guerra decidiendo qué objetivos bombardear y a quienes matar, y también en el mundo de las finanzas, si bien no espero que la tecnología firme la paz por nosotros. Esta misión nos corresponde, no se trata de un complicado problema matemático que necesita de un genio para encontrar la solución. En cierta forma, la solución al conflicto israelípalestino es obvia. Lo que falta es motivación.

¿Cuál es la solución?

Básicamente tienes a dos sujetos que se niegan a reconocer la existencia del contrario. Hay más de siete millones de palestinos nacidos aquí que no tienen adónde ir ni derecho a existir. Hay más de siete millones de judíos, la mayoría nacidos aquí, que también tienen derecho a existir. Tenemos suficiente tierra, alimentos, energía y agua para todos. El problema es psicológico, incluso mitológico, porque en ambas facciones hay gente que cree que su dios les concedió esta tierra sólo a ellos y que los otros deben ser expulsados. Ésa es la raíz del conflicto. Ambos temen que el otro intente destruirlos. No necesitamos que una IA diseñe un plan de paz, simplemente que israelíes y palestinos reconozcan la realidad del otro y su derecho a existir.

Madrid Martes, 3 septiembre 2024

EL MUNDO

https://www.elmundo.es/papel/lideres/2024/09/02/66d5dee0fc6c83b3198b45a6.html