La Inteligencia Artificial (IA) está potenciando amenazas significativas al sistema electoral, advierten expertos, funcionarios y observadores. La facilidad de uso de la IA y la capacidad para difundir datos sintéticos ha permitido la creación de contenido que puede alimentar la desinformación y confundir a los votantes. Según informes de prensa, lo que antes requería un estudio, presupuesto y un equipo de producción para ser elaborado, ahora puede lograrse con unos pocos clics.
El resultado es que diariamente los votantes se enfrentan a un panorama electoral donde es cada vez más difícil medir la autenticidad de imágenes, publicaciones y videos. Un ejemplo reciente de esto es la circulación de imágenes falsas generadas por IA mostrando votantes negros en apoyo al presidente Trump. Este tipo de desinformación subraya la creciente amenaza que representa esta tecnología en el contexto electoral.
En la sesión informativa semanal convocada por Ethnic Media Services, expertos que monitorean el aumento de mensajes racializados potenciados por la IA discutieron los esfuerzos para impulsar nuevos controles legislativos antes de las elecciones de 2024. De especial preocupación es el impacto potencialmente desestabilizador que la IA puede tener no sólo en las elecciones presidenciales, sino también en las elecciones locales.
Jonathan Mehta Stein, director ejecutivo de California Common Cause, destacó la necesidad de fortalecer e incluir a todos en la democracia de California. La organización se centra en combatir la desinformación en línea, un problema exacerbado por la IA. Stein subrayó la urgencia del tema, mencionando la reciente interrupción de una campaña de desinformación rusa por parte del Departamento de Justicia de los Estados Unidos, que utilizaba miles de perfiles falsos generados para promover propaganda pro Rusia.
Stein explicó que la capacidad de la IA para amplificar la desinformación representa una amenaza creciente para la democracia. Por ello, han lanzado la “Iniciativa para la Tecnología y la Democracia de California”, para enfrentar estas amenazas. Destacó la baja confianza en las instituciones y los medios, y las disparidades en la participación de votantes, especialmente en un año electoral donde la desinformación puede inundar el discurso político con contenido manipulado.
Aunque reconoció los beneficios potenciales de la IA –como la predicción de energía eólica por parte de Google–, Stein advirtió sobre los peligros de usar IA para predecir delitos, evaluar hipotecas o clasificar solicitudes de beneficios públicos, debido a posibles sesgos y discriminación.
Stein presentó ejemplos de desinformación creada por IA, como imágenes falsas del Papa Francisco y un video manipulado del presidente Joe Biden. Resaltó que estas falsificaciones, aunque detectables a nivel nacional, representan un desafío mayor a nivel local por la falta de cobertura y periodistas que las desmientan.
Finalmente, Stein hizo un llamado a los líderes comunitarios y a las plataformas de redes sociales para que protejan a las comunidades, promoviendo una mayor educación y escepticismo entre los votantes, y destacando la importancia de los líderes locales como mensajeros confiables en la lucha contra la desinformación.
Mientras que, Jinxia Niu, directora del programa de Compromiso Digital Chino para la Acción Afirmativa en San Francisco y gerente fundadora del primer sitio web estadounidense de verificación de datos en chino, ha abordado cómo la desinformación electoral impulsada por IA afecta a las comunidades de migrantes, especialmente a los chino-estadounidenses. Ella destacó los desafíos para organizaciones como la suya en la verificación de datos en varios idiomas y propuso soluciones, aunque reconoció que enfrentan más desafíos que soluciones.
Niu subrayó la importancia de entender la desinformación electoral, señalando que han “documentado más de 600 piezas de información falsa en el último año en redes sociales. Esta desinformación, orientada a apoyar a Trump y criticar a Biden, se ha visto acelerada por la IA. Gran parte de ella se traduce del inglés, pero también es generada por influenciadores de redes sociales en chino. Como ejemplo, están las fotos de Trump con partidarios negros y difundidas por influencers chino-estadounidenses de derecha”.
Expresó que, “un desafío crucial para las organizaciones de verificación de datos lingüísticos es la falta de información oportuna y precisa en las comunidades migrantes. Mientras que los medios principales en inglés pueden ofrecer verificaciones rápidas, las comunidades migrantes carecen de recursos y cobertura en su idioma, facilitando la propagación de desinformación. Además, tienen un personal significativamente menor en comparación con otras organizaciones de verificación de datos”.
Otro desafío notable es la sofisticación de las herramientas de IA para generar desinformación. A pesar de las múltiples opciones para crear contenido falso, las herramientas para desmentirlo son escasas. “También enfrentan campañas de desinformación coordinadas que utilizan cuentas de robots y presentadores de noticias falsos, lo que requiere una investigación rigurosa”, señaló.
“La alfabetización en IA en las comunidades inmigrantes es casi nula, haciéndolas vulnerables a estafas y manipulación en redes sociales. La desinformación circula en aplicaciones de mensajería cifradas como WeChat y Telegram, donde la moderación es casi imposible”, aseguró Niu.
Para abordar estos problemas, Niu señaló el desarrollo de Core Insights, una plataforma para desacreditar desinformación en plataformas como Telegram. Utilizan chatbots inteligentes para verificar la información en tiempo real. Sin embargo, estas iniciativas son insuficientes. Niu insistió en la necesidad de un esfuerzo colectivo para responsabilizar a las grandes plataformas y empoderar a las comunidades con inversión en programas de verificación de datos y medios étnicos, especialmente en tiempos decisivos.
Finalmente, Brandon Silverman, exdirector ejecutivo y cofundador de CrowdTangle (ahora propiedad de Meta), insistió en la relevancia de dotar a las organizaciones de noticias con herramientas para monitorear y comprender las dinámicas en las redes sociales. Resaltó que estas plataformas “son cruciales para el discurso cívico, y es esencial que periodistas y medios de comunicación puedan vigilarlas para identificar temas de interés comunitario y ajustar sus enfoques”.
Tras la adquisición de CrowdTangle por Meta, Silverman lideró durante cuatro años la transparencia en la empresa, enfocándose en combatir la desinformación. Tras su salida de Meta, se centró en políticas que exigen mayor transparencia, especialmente en lo que respecta a periodistas. Subrayó el impacto desproporcionado de las redes sociales en comunidades de color y étnicas, criticando la dependencia de la sociedad civil de estas comunidades para resolver problemas generados por las plataformas.
Silverman destacó que “mucha de la desinformación no viola reglas específicas, sino que se sitúa en una ‘zona gris` de contenido engañoso, complicando su regulación. Apuntó que las fuentes confiables y de élite en los medios de comunicación a menudo difunden desinformación, con el objetivo de inundar el espacio informativo y generar desconfianza.
Propuso un marco de tres pilares para abordar la desinformación:
1. Oferta: Quién crea la información y por qué.
2. Demanda: Qué mensajes resuenan en las comunidades y por qué.
3. Mecanismos de difusión: Los medios y plataformas que amplifican estos mensajes.
Silverman aboga por políticas mejoradas en inteligencia artificial y redes sociales, y sugirió un impuesto a la publicidad digital para financiar medios locales y periodismo étnico. Recalcó la necesidad de verificar el contenido y vigilar lo que difunden los influencers.
Finalmente, apoyó la colaboración y el intercambio de recursos entre grupos diversos para enfrentar la desinformación, citando ejemplos como la Fundación Knight en Estados Unidos. Concluyó enfatizando el papel fundamental del periodismo para mantener al público informado y la importancia de la cooperación en este esfuerzo.