En Argentina, y en el mundo, las campañas electorales se mueven cada vez con mayor dinamismo en las redes sociales, donde las fake news se han vuelto un método extendido para generar debates, apoyos e indignación sobre temáticas vinculadas a los candidatos. En este contexto, la Inteligencia Artificial (IA) resulta un método eficaz y rápido para la generación de contenidos adulterados.
“Las campañas políticas en redes han cobrado gran fuerza a partir de la candidatura de Trump, con una gran estrategia de microtargeting, esto es, llegar cada vez a segmentos más pequeños con mensajes muy específicos”, sostiene Alejandro Alessi, Head of Technology en Flux IT.
Si bien las fake news siempre han estado presentes en las campañas políticas, la emergencia de la IA generativa aplicada a la generación de contenido facilitó la posibilidad de llegar a un público pre-establecido y segmentado, logrando acuerdos y apoyos con mayor rapidez.
“Hasta hace pocos años, el diseño de los contenidos requería un importante esfuerzo de producción, esto implicaba producir placas y videos, sin importar si fueran verdaderas o falsas. Hoy, con lo que se conoce como la IA generativa es posible desarrollar el contenido de un modo mucho más rápido, profundizando y perfeccionando las estrategias de microtarget, y eliminando errores de diseño”, asegura Alessi. La capacidad de la IA de alterar contenidos originales en otros fraudulentos hace que algunas personas puedan descreer de la mayoría de las imágenes, videos o audios que circulan en las redes.
La IA generativa perfecciona el contenido de cualquier formato: audio, imagen, video; y, junto a la microsegmentación, proporciona más información sobre en qué segmentos son aceptados, o no. Además, el aumento en la productividad de los contenidos permite testear más rápidamente la reacción de esas audiencias.
Contenidos acordes a los consumos de una audiencia específica facilitan lo que se conoce como engagement, esto es, un vínculo con el target al cual se dirige. Esto potencia la interacción en redes y las reacciones alcanzadas, ya sean likes o rechazos, promoviendo un manto de veracidad sobre esos contenidos fraudulentos que circulan en las redes sociales. “Permitirían dar validez estadística a esos mismos segmentos: a más engagement, más validez estadística sobre la efectividad de los contenidos”, analiza el especialista. Se trata de un potencial multiplicador de la IA generativa, que facilita la viralización de las reproducciones y consumos.
Ante la generación y multiplicación de los contenidos adulterados, es necesario recurrir a herramientas que permitan determinar la veracidad de aquello que circula. De este modo, empieza a hacerse mucho más relevante el fact-checking para el testeo de las fake news, promoviendo el desarrollo de agencias de verificación que aplican la IA generativa. Esto es, la misma herramienta o el mismo recurso tecnológico –la IA- puede ser utilizado tanto para la generación de fake news como también para la verificación de verdad o fact-checking.
El chequeo por modelos de IA sobre un contenido puede considerarse una función válida de verificación, es un método de control. Es posible verificar el lenguaje de audio y entrenar modelos para diferentes aspectos discursivos, evaluar si hay neutralidad o no. Se trata de un conjunto de recursos tecnológicos que brindan indicadores automáticos de los textos y son utilizados en las agencias de verificación para el fact-checking.
Ante el aumento en la generación y difusión de fake news, las agencias de verificación tienen un rol fundamental. “Son parte de una paradoja, tanto para la generación como para su control, la IA es fundamental para combatir la multiplicación de contenidos desarrollados a través de ella, porque se requiere la misma tecnología”, concluye el referente tecnológico de Flux IT.