Artículo en colaboración con Junior Female Leaders – Área de Seguridad y Defensa.
Los actores geopolíticos siempre han utilizado las tecnologías para promover sus propósitos. Recientemente, la más famosa y controvertida de todas ellas es la inteligencia artificial (IA). Con el rápido progreso de la Inteligencia Artificial, los Estados de todo el mundo han empezado a conferir gran importancia a su desarrollo y a los problemas éticos, sociales y políticos que puede conllevar. Para algunos esta herramienta presenta un enorme potencial para el avance de la humanidad, mientras que para otros es una amenaza para los cimientos de nuestras democracias. Un análisis general de las implicaciones de la IA en la geopolítica y la seguridad nos ayudará a entender los riesgos y oportunidades que entraña.
¿QUÉ ES LA IA Y QUÉ CARACTERÍSTICAS LA DEFINEN?
El Departamento de Defensa de EE. UU. define la IA como «la capacidad de las máquinas para realizar tareas que normalmente requieren inteligencia humana», como por ejemplo aprender de la experiencia, reconocer patrones, hacer predicciones o sacar conclusiones. Sin embargo, la misma definición de IA está bastante debatida: la definición de la OCDE ha quedado desfasada para muchos expertos y el Parlamento Europeo ha cambiado ya varias veces su definición para adaptarse a los propios cambios de la IA. Evidentemente, esto distingue mucho a la IA de otras tecnologías anteriores, pero no es la única característica que la diferencia.
Para empezar, la IA es una tecnología que avanza a mayor velocidad que la regulación sobre ella, por lo que se están desplegando sistemas de IA sin el suficiente respaldo legal y regulatorio necesario para mitigar sus impactos éticos. Además, es una tecnología muy centralizada en torno a un grupo muy reducido de empresas localizadas en Estados Unidos o China, lo cual quiere decir que el futuro de nuestra geopolítica y seguridad internacional está en manos de muy pocos actores. Asimismo, en la mayoría de los casos son actores privados, cuyos fines lucrativos a menudo pesan más que cualquier impacto ético o social.
También hay que considerar el carácter estocástico de la IA, que hace que sus conclusiones a menudo sean inescrutables. Es decir, cuando surgen efectos inesperados, no es fácil determinar el motivo que los ha causado. En línea con lo anterior, es una tecnología que obstaculiza mucho la asignación de responsabilidades; los propios sistemas no pueden rendir cuentas de lo realizado, y quienes lo despliegan siempre podrán argumentar que lo que caracteriza a la IA es precisamente esa capacidad aprender mediante la extracción de datos y, por tanto, de actuar por cuenta propia.
Por último, la IA es una tecnología de fácil acceso, especialmente tras la aparición de sistemas como Chat GPT. Esta accesibilidad facilita la aparición de situaciones de fraude, engaño o incluso incentivar actividades delictivas o terroristas mediante propaganda o desinformación. Esta accesibilidad generalizada y única con respecto a IA anteriores dan lugar a una arbitrariedad que, en manos equivocadas, se convierte en un arma de relojería. En resumen, la accesibilidad de la IA permite a cualquiera usarla para fomentar la desinformación y, potencialmente, polarizar a la sociedad desde el anonimato.
Todos estos factores convierten a la IA en un arma de doble filo. Para facilitar la comprensión del impacto de la IA y proporcionar una idea general del alcance tan amplio de sus efectos, se realizará un análisis desde los distintos niveles de análisis de política exterior: el individual, el estatal y el internacional.
LA IA A NIVEL INDIVIDUAL: ¿APOYO O CONFIANZA EXCESIVA?
La IA permite analizar cantidades enormes de datos y sacar conclusiones en tan solo unos segundos. Por ello, a nivel individual es probable que los responsables políticos y altos cargos se apoyen cada vez más en la IA para tomar decisiones estratégicas de gran relevancia. En 2017, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) puso en marcha el «Proyecto Verde Profundo», que proporcionaba un apoyo a los mandos del Ejército en la toma de decisiones, permitiéndoles predecir posibles escenarios futuros basados en un análisis completo de la situación en cuestión. El problema de apoyarse en la IA es que no está libre de problemas, fragilidad, sesgos raciales o de género. La toma de decisiones, especialmente en condiciones de incertidumbre o tensión, requiere de una flexibilidad en el razonamiento y una capacidad de sacar conclusiones abstractas con juicio propio, y ello normalmente se encuentra fuera de sus capacidades. Un exceso de confianza en las posibilidades de la IA nos lleva a un “sesgo de automatización”, que viene a ser una falta de escepticismo ante la información que nos proporcionan los algoritmos y que puede generar daños irremediables. Además, no toda la información que proporciona es correcta. En la siguiente gráfica vemos el porcentaje de “aciertos” de la IA cuando ha de desempeñar distintas tareas y vemos como aún tienen muchas dificultades con tareas de “planificación”.
LA IA A NIVEL NACIONAL: TECNONACIONALISMOS Y AUTOCRACIAS
El deseo de liderar en el desarrollo de la IA a menudo desencadena un fenómeno conocido como “tecnonacionalismo”, que ocurre cuando el ámbito público y el privado de un Estado trabajan de forma unida en la investigación y desarrollo de la tecnología, convirtiéndola en una prioridad nacional y en un medidor del poder e influencia del Estado. Un ejemplo paradigmático de ello es el caso de China, que desde los años 70 se ha inmerso en un esfuerzo por vincular al Estado y el sector empresarial tecnológico para convertirse en una potencia tecnocientífica, por encima de su gran rival: Estados Unidos. De hecho, en EE.UU el discurso oficial también se centra en el dominio de las nuevas tecnologías, que también se presentan como un pilar clave del poder a nivel mundial.
Otra preocupación de la IA a nivel nacional es la posibilidad de que algunos Estados autocráticos abusen de ella de forma incorrecta, usándola para moldear la opinión pública, censurar información y vigilar a la ciudadanía, coartando su libertad de expresión. La Trade and Technology Council (TTC), un organismo que sirve como foro diplomático para coordinar la política tecnológica y comercial entre EEUU y la UE, ha mostrado su preocupación por el hecho de que ciertos gobiernos autoritarios estuvieran poniendo a prueba sistemas de puntuación social con el objetivo controlar la sociedad, haciendo un guiño con ello al sistema de “crédito social” implementado en China, que usa la IA para analizar datos relativos a los ciudadanos y en base a ello asignarle una “nota” que determinará qué permisos y qué trato obtendrá del Estado. Otro ejemplo es el de la prohibición de ChatGPT en China, que muchos sospechan que era una forma de evitar el acceso de los ciudadanos a información procesada y generada a partir de bases de datos occidentales e información que de otra forma se habría censurado.
LA IA A NIVEL INTERNACIONAL: PRÁCTICAS MERCANTILISTAS, (DES)EQUILIBRO Y NUEVOS ACTORES
A nivel internacional, y relacionado con el auge de tecnonacionalismos, y con el afán de obtener “soberanía digital”, vemos un retorno de prácticas mercantilistas en el comercio. Por miedo a que se les limite el acceso a semiconductores u otras partes críticas de la cadena de producción de la IA, cada vez vemos una mayor tendencia de los Estados de querer controlar todos los pasos de dicha cadena, lo cual significa sacrificar relaciones comerciales preexistentes, e incluso empezar a imponer barreras comerciales a productos del extranjero. Esta tendencia amenaza la interconectividad actual de nuestras sociedades y provoca una mayor fragmentación de los mercados tecnológicos, reduciendo la producción de la IA al nivel Estado-nación. Por ejemplo, el gobierno estadounidense en varias ocasiones ha impuesto límites a la inversión china en empresas estadounidenses de IA. En 2015, la administración prohibió a Intel, Nvidia y Advanced MicroDevices (AMD) vender chips de superordenadores de gama alta a China por temor a que se canalizarán para usos militares. Posteriormente, en agosto de 2022, Biden hizo pública la Ley de Ciencia y Chips, que buscaba fomentar la producción local de semiconductores y microchips y reforzar el sector tecnológico como estrategia de defensa.
La IA también va a crear una alteración en el equilibrio entre potencias (“balance of power”), tanto en la esfera económica como en la militar. Esta nueva revolución tecnológica está siendo poco homogénea ya que gira en torno a China y EEUU, mientras que todo aquellos Estados con menos capacidad innovativa y económica se están quedando atrás. El dominio de la IA por las grandes potencias tiene el peligro de exagerar las desigualdades estructurales existentes y contribuir a nuevas formas de inequidad, dejando a los Estados que actualmente no pueden dedicar tantos recursos a la IA a merced de las grandes empresas que dominan el sector. Con ello, se volvería muy posible un mundo bipolar centrado en las dos superpotencias tecnológicas.
Estamos viviendo también un auge de nuevos actores geopolíticos, como lo son las grandes empresas tecnológicas, algunas de las cuales ya son más poderosas que muchas naciones. Emmanuel Macron en marzo de 2019 lo advirtió al preguntarse: «¿Quién puede pretender ser soberano, por sí mismo, frente a los gigantes digitales?». Además, hay que tener en cuenta el contexto nacional de estas empresas. Las empresas estadounidenses cuentan con un margen de actuación extremadamente amplio, ya que el gobierno defiende que las empresas deben ser las que controlen el desarrollo industrial y los criterios de gobernanza. Por ello, disfrutan de un entorno libre de regulaciones onerosas y de un amplio terreno gris en cuanto a moralidad y ética. En el otro extremo, tenemos las empresas chinas, donde la Ley obliga a las empresas a “colaborar con el Estado”, y por ello están sometidas a una supervisión nacional más estricta y controles relacionados con los datos.
UNA NECESIDAD DE REGULAR Y UNA OPORTUNIDAD PARA EUROPA
En resumen, el peligro principal que conlleva la IA es que el mundo no está ni jurídica ni políticamente preparado para lidiar con sus consecuencias geopolíticas y éticas. Es muy importante que se empiecen a llevar a cabo iniciativas de regulación de este nuevo sector. De lo contrario, corremos el riesgo de romper el frágil equilibrio que caracteriza nuestra geopolítica.
En este sentido, Europa, que claramente no lidera en el desarrollo de la IA, se ha dado cuenta dónde sí puede prosperar: en la regulación. La UE pretende conseguir ventaja estratégica estableciendo la agenda reguladora de la gobernanza pública del espacio digital. En este sentido, el Parlamento ya ha manifestado su deseo de que la futura legislación de IA promueva el desarrollo, pero garantizando la seguridad y protección de los derechos humanos. El objetivo con todo ello es lograr la resiliencia de Europa en esta nueva Revolución Digital.
NOTA: Los planteamientos e ideas contenidas en los artículos de análisis y opinión son responsabilidad exclusiva, en cada caso, del analista, sin que necesariamente representen las ideas de GEOPOL 21.
Este artículo se ha realizo en colaboración con Junior Female Leaders.
0 comentarios