Periodista internacional y experto en geopolítica, Daniel Iriarte nos propone en su libro ‘Guerras cognitivas’ (Arpa) entrar en un mundo asombroso e inquietante: servicios de inteligencia, grupos terroristas y mercenarios de la desinformación tratando de cambiar el sentido de nuestro pensamiento, redibujar fronteras y alterar resultados electores. Todo ello gracias a tecnologías cada día más potentes y accesibles y, sobre todo, apoyándose en nuestros propios sesgos y prejuicios.
Propaganda ha habido en todos los conflictos y en cualquier momento de la historia reciente, ¿en qué se diferenciaría esta guerra cognitiva de esa propaganda tradicional?
Bueno, la propaganda clásica está centrada en una comunicación en la que el receptor del mensaje es pasivo. Simplemente tú le envías unas ideas y esperas que esa audiencia las reciba y se convenza. Mientras que en la guerra cognitiva se añade una dimensión más al conflicto, se busca que esas audiencias persuadidas se conviertan a su vez en emisores y de esa manera se vuelvan soldados de tu ejército virtual, por así decirlo. Es como una epidemia zombi, en la que las personas infectadas a su vez van infectando a otros.
En su libro asegura que se está llevando una guerra internacional y el campo de la batalla es la mente de la población. ¿Cómo se libran esas batallas y cuáles son las víctimas?
Bueno, estamos viendo que algunos estados están siendo muy eficaces a la hora de utilizar este tipo de herramientas, a la vez o en sustitución de las acciones bélicas convencionales. Aunque este tipo de campañas las llevan a cabo todos los estados hay un polo claro que es el de las autocracias, que en gran medida están tratando de utilizar los sistemas democráticos contra sí mismos utilizando elementos como la libertad de expresión y de prensa para debilitar y desestabilizar.
Todos podemos ser víctimas de este tipo de operaciones porque ahora mismo se han convertido en un elemento tan eficaz y tan barato que está por todas partes. Hay sociedades que son más permeables a la desinformación y a este tipo de operaciones. Las sociedades más polarizadas, por ejemplo, son una víctima más fácil. Pero realmente no estamos exentos ninguno. Para poder hablar realmente de guerra cognitiva tendríamos que estar hablando de una campaña sostenida en el tiempo con un objetivo concreto. El ejemplo clásico que se suele poner es el de China respecto a Taiwán. El objetivo es tratar de persuadir a la sociedad taiwanesa de que con su liderazgo actual la isla va por muy mal camino, que les va a llevar hacia la guerra, o al colapso económico… Otro ejemplo clásico es la campaña de Rusia para convencer a las sociedades europeas de que Ucrania es un país tremendamente corrupto.
«Hay peligro de crear generaciones de cínicos, de gente que no cree en nada»
¿Y quién va ganando en estas batallas?
El principal efecto que están teniendo estas batallas es una desconfianza en los sistemas políticos tradicionales, especialmente en las democracias. En ese sentido se ve claro que hay una pérdida de confianza hacia las instituciones, hacia los expertos, que está bastante generalizada en el mundo. Y eso no significa que la guerra esté perdida, yo creo que estamos en un proceso de adaptación, pero ahora mismo la situación es complicada. Estamos viendo que las nuevas generaciones son muchísimo más descreídas que las nuestras. A pesar de que están más expuestos por su grado de utilización de las redes sociales, son más escépticos respecto a lo que ven. Esto tiene un peligro adicional que es el de crear generaciones de cínicos, de gente que no cree en nada y que todo le parece cuestionable.
Esta guerra se lleva a cabo también por servicios de mensajería, pero principalmente en redes sociales, pero hace una década se decía –y muchos nos creímos– que nos iban a traer más democracia, más participación, más transparencia. ¿Qué ha pasado en este tiempo?
Una de las cosas que ha pasado es que en aquel momento nos creíamos esa idea porque era la propaganda que nos estaban vendiendo las plataformas. Sin embargo, lo que ha demostrado esta década es que el propio modelo de las plataformas de redes sociales favorece los mensajes negativos. Es decir, para empresas como Meta el modelo de negocio se basa en el engagement, en la interacción con los mensajes. Y los mensajes muy cargados emocionalmente, sobre todo los negativos, generan muchísimo más engagement que los positivos. Entonces, los propios algoritmos hacen que dichos mensajes negativos tengan más visibilidad y más alcance. Nos encontramos siendo bombardeados constantemente con mensajes y narrativas destructivas que hacen que se vaya erosionando nuestra confianza en nuestros semejantes. El grado de penetración que están teniendo las redes sociales en nuestras vidas es devastador en cuestiones como la salud mental de los adolescentes, pero también en la propia convivencia democrática.
«Lo que ha demostrado esta década es que el propio modelo de las plataformas de redes sociales favorece los mensajes negativos»
Agencias de grandes estados, millonarios extremistas, empresas invisibles, multinacionales cómplices… Los actores de esas guerras cognitivas parecen todopoderosos. ¿Qué puede hacer el ciudadano común para defenderse de estos ataques?
Yo no creo que haya una especie de gran conspiración. Simplemente creo que servicios de inteligencia, estados, grandes empresas, mercenarios de la desinformación (empresas que se dedican a desinformar por dinero)… lo que han hecho ha sido adaptarse a un nuevo modus vivendi digital en el que estamos todos inmersos. Y lo que mejor funciona a nivel mundial es la concienciación sobre este tipo de peligros.
Te pongo dos ejemplos. En Taiwán funcionan chats de WhatsApp en los que el ciudadano, cada vez que se encuentra una información que considera que puede ser un bulo, puede escribir para verificarlo. Es imposible desmentirlos todos pero así la ciudadanía es mucho más consciente de que hay muchas cosas circulando que pueden ser desinformación o directamente operaciones de influencia. El segundo ejemplo es que en varios países escandinavos hay campañas de concienciación de los niños desde pequeños. Mediante dibujos animados se enseña a los pequeños que no todo lo que oyen es verdad, que tienen que pensar, ver de dónde viene la información, quién se lo ha dicho, por qué se lo puede haber dicho, etc. El resultado es que países como Estonia o Finlandia tienen las menores tasas de penetración de desinformación de todo el continente europeo. Creo que la guerra no está perdida, ni mucho menos.
¿Y los gobiernos que no quieren entrar en esta batalla, qué deberían hacer para proteger a sus ciudadanos?
Un caso interesante es el de Francia, que ha creado su propia agencia de lucha contra la desinformación que lo primero que hace es monitorizar y detectar campañas hostiles contra el estado francés. Esto lo hacen muchos gobiernos, aquí en España lo hace el CNI. La diferencia es que ellos hacen pública muchísima de esta información. Cuando una campaña contra Francia está ganando tracción inmediatamente emiten una alerta pública explicando lo que está sucediendo y qué elementos de lo que se está diciendo son falsos, en muchos casos incluso apuntando a quién es el responsable. Suecia tiene también lo que se llama la Agencia de Defensa Psicológica, que también emite informes muy detallados sobre las campañas que hacen contra este país, aunque es menos reactiva, es más bien de consulta. Creo que el valor del caso francés es que ellos reaccionan muy rápido y eso es muy importante en este tipo de situaciones.
Casi todo el mundo afirma que la polarización de la sociedad es un problema, pero la mayoría de los actores –políticos, económicos, mediáticos– parece que buscan más aprovecharse de ella que combatirla. ¿Cómo se puede frenar esta bola de nieve?
Es una pregunta compleja, porque es verdad que hay una tendencia a acusar al adversario político de desinformar. Realmente es complicado, porque tú puedes tratar de tender puentes, pero si no hay una respuesta desde el otro lado del bando político es complicado. Pero sí creo que se debería tratar de llegar a unos consensos mínimos. Por ejemplo, debería ser inaceptable las campañas desde otros Estados, o las campañas hostiles contra el propio Estado. Y todos los partidos podrían llegar a estar de acuerdo en eso. Y luego en determinadas áreas como la seguridad pública, el medio ambiente o los desastres naturales se debería intentar que estuvieran fuera de lo que es el juego de la acusación política.
¿Cuántas elecciones en el mundo podemos decir que se han visto ya claramente manipuladas por algún actor, interno o externo?
No sé si ya hemos cruzado esa barrera. Hemos llegado a un punto en el que prácticamente en todas las elecciones en países democráticos existe algún tipo de interferencia por parte de otro Estado que trata de influir en la medida de lo posible en los resultados. Otra cosa es que lo consigan. Y normalmente, aunque un Estado interfiera en unas elecciones, no suele ser suficiente como para cambiar el resultado per se. Es decir, puede darle un empujón final a los resultados, pero prácticamente nunca es suficiente como para asegurar la victoria de un candidato si no se dan otras condiciones. No es inconcebible pensar que la interferencia rusa pudo ser clave en Estados Unidos en 2016. Porque al final fue una elección que se decidió por unas pocas decenas de miles de votos. Pero tampoco hay elementos suficientes como para afirmarlo y había muchas cosas más sobre la mesa… Y desde luego en 2024 la victoria de Donald Trump no tiene absolutamente nada que ver con ningún tipo de interferencia –que las hubo– por parte de Rusia, China o Irán.
Para que se produzca la interferencia electoral de una manera significativa se tienen que dar varios requisitos. El primero es que uno de los candidatos tiene que tener posibilidades reales de ganar. Y segundo que esa posible victoria vaya a suponer un cambio significativo en el sentido que le interesa al estado que interfiere. Por ejemplo, en las elecciones de Reino Unido de 2024 apenas hubo interferencia rusa porque tanto los laboristas como los conservadores estaban de acuerdo en que iban a continuar con el apoyo militar a Ucrania. En el caso de Moldavia lo intentaron pero no lo consiguieron. En el de Rumanía estuvieron a punto de tener éxito, pero se produjo la cancelación de las elecciones, que de alguna manera también acaba favoreciendo a Rusia porque no deja de ser «antidemocrático» el tener que cancelar un resultado electoral.
«Igual que la tecnología evoluciona para la desinformación, también evoluciona para detectar la desinformación»
Al final del libro, escribe una frase muy inquietante: «Esto es solo el principio». ¿Cómo se imagina que van a seguir los próximos capítulos?
Una de las cosas que concluyo en el libro es que el problema no va a venir de los grandes avances tecnológicos, por ejemplo a la hora de crear deepfakes, porque igual que la tecnología evoluciona para la desinformación, también evoluciona para detectar la desinformación. Sin embargo estamos viendo que hay una empresa china que está utilizando la IA para monitorizar conversaciones en línea, detectar aquellas narrativas que van en contra de los intereses chinos y alterarlas en un sentido favorable al gobierno de Pekín. Este es uno de los grandes temores que ha habido durante años, que se pudiesen recopilar grandes cantidades de información sobre cada uno de los usuarios y elaborar mensajes persuasivos adaptados a cada persona. Esta empresa china, GoLaxy, es exactamente lo que está empezando a hacer. Es una nueva frontera donde si el actor malicioso tiene la suficiente información sobre cada uno de nosotros como para jugar con nuestros propios sesgos, emitirá un mensaje que sabe que va a tocar la tecla adecuada para manipularnos sin que nos demos cuenta. Y además lo puede hacer a una escala absolutamente masiva. Eso sí que empieza a ser preocupante…
No hay comentarios:
Publicar un comentario