Pasar al contenido principal

Los riesgos geopolíticos de la inteligencia artificial

AI
Tiempo de lectura: 7 min.

A pesar de las advertencias de destacados científicos, filósofos y organismos internacionales, las grandes empresas tecnológicas no han reducido su marcha hacia la superinteligencia (entendida como una forma de inteligencia artificial que superaría con holgura las capacidades cognitivas humanas en casi cualquier ámbito). Por el contrario, la competencia no solo ha profundizado su apuesta, sino que ha impuesto una dinámica de aceleración continua. La ausencia de un marco jurídico internacional verdaderamente vinculante deja sin contrapesos un proceso que avanza con la lógica implacable del poder tecnológico: quien llegue primero no solo controlará la frontera científica de este siglo, sino que adquirirá una forma inédita de superioridad geopolítica.

Lejos de cualquier exageración apocalíptica, las advertencias más certeras nacen de datos concretos que ya sustentan esta hipótesis. En cuestión de años, modelos que antes resolvían tareas marginales hoy superan a especialistas humanos, mientras centros de datos operan como laboratorios autónomos donde miles de agentes digitales se perfeccionan sin la supervisión mínima necesaria. Escenarios elaborados por expertos respetados cómo el de AI 2027 anticipan un mundo en el que la inteligencia artificial comienza a dirigir su propia evolución, generando bucles de aceleración que ningún gobierno puede frenar sin sacrificar poder frente a sus rivales. Estados Unidos y China ya no compiten por influencia militar o económica en los términos tradicionales, sino por el control de las arquitecturas digitales que definirán el orden global del siglo XXI. En esa carrera, el riesgo no es una IA abiertamente hostil, sino una indiferente, capaz de optimizar sin considerar si los seres humanos y los valores democráticos son variables indispensables. El incentivo perverso de rebasar al adversario a cualquier costo estará siempre latente. La distopía se vuelve plausible no por malicia algorítmica, sino por la lógica geopolítica que nos obliga a seguir avanzando incluso cuando el abismo es perfectamente visible –y, peor aún–, evitable.

Las transformaciones en curso son ya profundas y visibles. La advertencia de Geoffrey Hinton –pionero de las redes neuronales sintéticas que son la base fundacional de la inteligencia artificial– comienza a confirmarse día tras día: podríamos estar cerca de un mundo donde distinguir la verdad de la falsedad sea prácticamente imposible. Investigaciones recientes desmontan la idea de que los sistemas generativos puedan identificar y corregir de forma fiable la desinformación que circula en redes sociales. Ocurre lo contrario: la probabilidad de que estos modelos difundan afirmaciones engañosas sobre acontecimientos actuales prácticamente se ha duplicado en un año. En un reciente estudio, 35 por ciento de las respuestas generadas por IA contenían datos falsos, mientras que la proporción de preguntas que quedaban sin respuesta cayó del 31 por ciento en agosto de 2024 a cero. Esto significa que, incluso cuando no existe información suficiente para sostener una afirmación, la inteligencia artificial produce una respuesta de todos modos, expandiendo un ecosistema donde la frontera entre lo verificable y lo ilusorio se desdibuja con rapidez.

En este contexto, el concepto de autorregulación adquiere un matiz francamente insuficiente, al desplazar a los Estados de su función esencial de regulación y resguardo del interés público. Sam Altman, director ejecutivo de OpenAI y cofundador de Worldcoin (un proyecto que utiliza el escaneo del iris para crear una identidad digital destinada a comprobar la humanidad de cada usuario en entornos saturados de bots y deepfakes, y al mismo tiempo una criptomoneda concebida como infraestructura financiera de la era post inteligencia artificial) encarna bien esta paradoja. Por un lado impulsa modelos de inteligencia artificial cada vez más potentes, capaces de producir información que no siempre es verificable; por el otro, propone canalizar los futuros beneficios económicos de esa automatización mediante un token emitido y articulado desde su propio ecosistema. Así se configura un circuito cerrado en el que las grandes plataformas se reservan la facultad de determinar qué riesgos son aceptables, cómo deben mitigarse, quién recibe una credencial digital de “humanidad verificada” y quién puede participar en la economía automatizada del futuro. La autorregulación deja de ser un complemento del derecho público para convertirse en una forma de gobierno corporativo sobre la esfera digital, en la que quienes contribuyen a crear el problema reclaman también la autoridad para decidir cómo –y para quién– se resuelve.

A escala geopolítica, el primer síntoma de estas tendencias podría ser la consolidación de un ecosistema informativo radicalmente inestable. La desinformación nació como herramienta de guerra psicológica en el siglo XX. La diferencia es que hoy existen modelos autónomos y enjambres de bots que pueden industrializarla a bajo costo y con precisión quirúrgica. Estados que buscan cambiar el orden internacional a su favor ya utilizan campañas digitales, granjas de trolls y operaciones encubiertas para erosionar la confianza en instituciones democráticas, polarizar sociedades y debilitar alianzas. Con inteligencia artificial, esas operaciones pueden diseñarse desde un escritorio, segmentarse por perfil psicológico y ejecutarse a una velocidad sin precedentes, mientras las sociedades impactadas discuten si se trata de propaganda o de libertad de expresión.

En paralelo, la carrera entre Estados Unidos y China por el dominio de la inteligencia artificial apunta a una brecha tecnológica cada vez más amplia frente al resto del mundo. Las potencias que concentran talento, datos y capacidad de cómputo no solo ampliarán su ventaja económica y militar, sino que impondrán sus estándares técnicos, sus plataformas y dependencias al resto de los países. Muchas naciones en vías de desarrollo –incluidas varias en América Latina (como México), África y el sudeste asiático– corren el riesgo de convertirse, en el mejor de los casos, en proveedores de datos y mercados cautivos de servicios de IA diseñados en otros lugares. La soberanía ya no se medirá solo en territorio, sino en la capacidad de un país para desarrollar, auditar y eventualmente limitar los sistemas que estructuran su economía, su seguridad y su deliberación pública.

La dimensión militar acentúa aún más esta asimetría. Por ejemplo, la guerra en Ucrania muestra que los drones baratos pueden desgastar a ejércitos convencionales y sistemas de defensa aérea que cuestan millones. El siguiente paso –ya en marcha– es la integración de sistemas de vigilancia, identificación y selección de objetivos en plataformas letales cada vez más autónomas. Desde enjambres de drones kamikaze hasta esquemas de perfilado masivo para decidir quién es el enemigo y quién no, la frontera entre decisión humana y automatización se vuelve peligrosamente delgada. Un acuerdo global que prohíba o limite de forma efectiva las armas autónomas parece improbable en el corto plazo: demasiados países ven en ellas una oportunidad para compensar desventajas estratégicas. Es posible que los marcos regulatorios lleguen después de una tragedia, cuando un error masivo atribuible a estas tecnologías exponga el carácter inaceptable de esta lógica.

La presión no vendrá solo desde fuera. Hacia el interior de los Estados, la tentación de utilizar inteligencia artificial para vigilancia preventiva será difícil de resistir. En nombre de la seguridad nacional, de la lucha contra el terrorismo o de la estabilidad interna, pocos gobiernos –incluso democráticos– renunciarán de manera permanente a la posibilidad de monitorizar comunicaciones, movimientos y conductas con una precisión inédita. El riesgo es un entramado de cámaras, sensores, modelos de predicción de riesgo y bases de datos biométricos que funcionan como un sistema nervioso digital del Estado debilitado y controlado por intereses oligopólicos. Formalmente, las constituciones podrían seguir vigentes; en la práctica, la libertad de movimiento, de asociación y de disidencia podría verse condicionada por puntajes opacos, listas de riesgo y decisiones automatizadas difíciles de impugnar.

Si este rumbo se mantiene, el mundo del próximo par de décadas podría dividirse en tres grandes categorías de actores: potencias capaces de diseñar y controlar sistemas avanzados de inteligencia artificial; países que dependen de esas potencias para su infraestructura digital, su defensa y su modelo económico; y territorios convertidos en zonas grises donde se libran guerras híbridas, se prueban nuevas armas y se experimenta con poblaciones vulnerables. En ese escenario, la “superinteligencia” dejaría de ser un concepto abstracto para convertirse en un factor de poder: el país o consorcio que logre desplegar una inteligencia significativamente superior y relativamente autónoma podría reconfigurar el sistema internacional.

La pregunta de fondo, entonces, no es solo si podremos contener a una superinteligencia hipotética, sino si las potencias serán capaces de contenerse en esta carrera. En teoría, las naciones podrían pactar límites entre ellas: prohibiciones claras sobre armas autónomas, acuerdos para blindar la infraestructura crítica, mecanismos conjuntos de supervisión de sistemas que afectan elecciones o mercados, y auditorías independientes sobre los modelos considerados monopólicos y mal alineados. Pero en la práctica, cada incentivo geopolítico apunta en la dirección contraria: adelantarse al rival, capturar más datos, entrenar modelos más grandes, militarizar antes. La ventana para un marco de gobernanza que llegue antes que la próxima gran crisis sigue abierta, pero se estrecha con cada ciclo de innovación. Si el siglo XX estuvo marcado por la amenaza de la destrucción nuclear mutua, el XXI podría definirse por algo menos visible pero igual de profundo: la posibilidad de que la carrera por la superinteligencia deshaga, pieza por pieza, las condiciones que hacían posible la democracia y la autonomía de las naciones. ~

El autor es fundador de News Sensei, un brief diario con todo lo que necesitas para empezar tu día. Engloba inteligencia geopolítica, trends bursátiles y futurología. 

https://letraslibres.com/ciencia-tecnologia/turrent-mena-los-riesgos-geopoliticos-de-la-inteligencia-artificial