La desinformación (información falsa creada con la intención de desorientar a las personas o de ahondar en prejuicios existentes), y la misinformación (información errónea compartida por usuarios aun cuando no conozcan los hechos o no esté verificada), son dos de las más grandes amenazas que afronta la humanidad. Según un panel de 1400 expertos en seguridad en el Foro Económico Mundial, la proliferación de misinformación y desinformación es el principal riesgo global en los próximos dos años, por encima de la inflación o el clima.
Según los expertos, el riesgo radica en que los Estados pueden asumir un papel fundamental en la proliferación de noticias falsas y desinformación en terceros países para moldear el sistema internacional a su antojo. Un ejemplo de esto es lo que sucedió recientemente en las elecciones de Taiwán. En enero del 2024, según The Economist, apareció en plataformas como YouTube, Instagram, X (antes Twitter), y similares, un video titulado ‘The Secret History of Tsai Ing-wen’ (’La historia secreta de Tsai Ing-wen). En este, supuestos presentadores hablando en inglés y cantonés hacían acusaciones falsas sobre Tsai, el presidente saliente y su partido.
Posteriormente, el 13 de enero, día de la elección en Taiwán, un audio empezó a circular en el cual Terry Gou, un candidato que se había retirado de la contienda en noviembre, parecía dar su apoyo al candidato del partido KMT, el cual es cercano al gobierno de Xi Jinping. Sin embargo, el excandidato Gou nunca había hecho tal afirmación. Tanto el video como el audio fueron hechos usando inteligencia artificial y fueron publicados por un grupo de propaganda apoyado por el gobierno chino conocido por nombres como Spamouflage, Dragonbridge y Storm-1376. Un reporte publicado el 5 de abril de este año por el equipo de riesgos de inteligencia en Microsoft afirmó que era la primera vez que había visto que un Estado hubiese utilizado contenido generado con inteligencia artificial para intentar influir en una elección en otro país.
Los supuestos presentadores del video fueron hechos mediante la aplicación CapCut, creada por ByteDance, la compañía dueña de TikTok. Este video llegó a ser compartido 100 veces por minuto. Ahora, aunque este fue bajado de las plataformas de internet de manera rápida, y su impacto es probable que haya sido bajo, puede demostrar el interés del gobierno de China en manipular las elecciones de otros países. Un hecho similar ocurrió en la contienda presidencial del 2016 entre Donald Trump y Hillary Clinton, siendo Rusia en este caso el actor que buscó interferir en la campaña electoral.
Este panorama es preocupante por varias razones. En primer lugar, no existe aún un acuerdo internacional que limite el uso y desarrollo de la inteligencia artificial, lo cual abre la puerta para que actores estatales busquen manipular elecciones y poblaciones externas a su antojo. En segundo lugar, países como Colombia aún no han desarrollado y ejecutado una política dirigida a lidiar con este tipo de amenazas, con lo cual el país está expuesto a este tipo de manipulaciones foráneas. En tercer lugar, la polarización existente en el país hace que sea un lugar ideal para la proliferación de información tendenciosa. Esto es aún más grave si se tiene en cuenta que en Colombia, según un informe de Movistar, ocho de cada diez colombianos usan WhatsApp para informarse.
Por consiguiente, el gobierno debería tener, como una de sus prioridades, el desarrollo de una regulación que busque fortalecer la seguridad del país, para mitigar los riesgos de este tipo de amenazas. Además, existe una responsabilidad conjunta, por parte de la ciudadanía, políticos, medios de comunicación, entre otros actores, de revisar fuentes y evitar compartir información de dudosa procedencia. De lo contrario, esta será una estrategia que Rusia, China, Irán, entre otros, buscarán aplicar para manipular e influir en los procesos democráticos de países como el nuestro. Esto nos debe preocupar a todos.