Bots y polarización: Académico UdeC analiza impacto de la desinformación digital en campañas presidenciales

Crédito: Gilles Lambert | Unsplash
El académico de Ingeniería UdeC, Dr. Carlos Navarrete Lizama, destaca la necesidad de fortalecer la alfabetización digital y la formación crítica para enfrentar los desafíos de la manipulación digital en contextos electorales.
En el marco de un nuevo proceso electoral presidencial en Chile, el debate público se ha visto nuevamente tensionado por denuncias sobre el uso de cuentas automatizadas o bots para intervenir en las conversaciones que se desarrollan en redes sociales. Este fenómeno, que también ha sido documentado en elecciones de otros países, plantea interrogantes sobre la calidad del debate democrático, la percepción ciudadana de los adversarios políticos y el papel de las plataformas digitales en el fortalecimiento o debilitamiento de la convivencia.
El académico del Departamento de Ingeniería Industrial de la Facultad de Ingeniería de la Universidad de Concepción, Dr. Carlos Navarrete Lizama, ha dedicado su trabajo de investigación a temas como polarización política, ciencia de datos y modelos computacionales aplicados a fenómenos sociales. El docente es coautor de un artículo recientemente publicado en Nature Human Behaviour, que propone una herramienta digital para detectar propuestas polarizantes en campañas políticas y su análisis sobre la divisividad electoral en Chile entre 1989 y 2021.
El Dr. Navarrete señaló que los bots pueden ser identificados por ciertos patrones: «uso de nombre ficticio, no uso de fotografía real, tipo de contenido que se publica en intervalos regulares de tiempo que, a su vez, siguen una estructura rígida». Su función, aclaró no es participar del debate, sino amplificar ciertos mensajes de manera mecánica, lo que genera una percepción distorsionada del respaldo que una postura política puede tener.
«Estas cuentas automatizadas tienden a alinearse con los mensajes de campaña de las candidaturas que apoyan, funcionando como cajas de resonancia que refuerzan ciertas narrativas y marginan otras», explicó.
A diferencia de la persuasión directa, su efecto se vincula con el alcance, la velocidad y la emocionalidad que imprimen al debate público. En este contexto, no es necesario cambiar las ideas de un electorado: basta con influir en cómo y con qué intensidad esas ideas se manifiestan en el espacio digital.
Uno de los principales riesgos asociados a esta dinámica es el incremento de la polarización afectiva, es decir, el aumento del rechazo emocional hacia quienes piensan distinto. A juicio del académico, «la polarización no se trata únicamente de cuán distantes están dos coaliciones en términos ideológicos, sino también de cuánto se percibe esa distancia. Es perfectamente plausible que las posiciones de una coalición adversaria no hayan cambiado significativamente en veinte años, pero que, producto del tipo de contenido que circula en redes sociales, yo perciba que la brecha se ha ensanchado».
Las plataformas digitales, diseñadas para maximizar la interacción, suelen privilegiar mensajes que despiertan emociones intensas. De esta forma, contenidos polémicos o divisivos ganan visibilidad frente a otros más analíticos o matizados. Según el Dr. Navarrete, este sesgo algorítmico tiene un efecto acumulativo en la percepción pública de conflicto, profundizando la sensación de antagonismo aun cuando las diferencias reales entre proyectos políticos sean estables.
Desafíos de regulación y formación ciudadana
Frente a este escenario, el docente de Ingeniería UdeC advirtió que el desafío regulatorio se vuelve complejo. «No todo contenido que circula en internet puede ser catalogado fácilmente como verdadero o falso: muchas veces se trata de afirmaciones verídicas que simplemente no calzan con nuestra visión del mundo, lo que nos lleva a descartarlas como falsas», señaló. Por ello, considera que la regulación por sí sola es insuficiente.
Entre las medidas que podrían aportar transparencia, destaca la auditabilidad de la publicidad política en redes sociales: saber quién financia los anuncios, a qué audiencia se dirigen y bajo qué condiciones se despliegan. Sin embargo, insiste en que el problema de fondo es más profundo: la necesidad de fortalecer la alfabetización digital y la formación crítica de las audiencias.
«Hoy sabemos que las personas no son necesariamente buenas detectando contenido falso o generado por inteligencia artificial, especialmente luego del lanzamiento de ChatGPT. De hecho, existe una tendencia a creer información que es ficticia, pero que se alinea con nuestras creencias previas», planteó. Por ello, más allá de las soluciones técnicas, el Dr. Carlos Navarrete enfatizó la importancia de fomentar el pluralismo informativo y reconstruir las confianzas necesarias para que una sociedad pueda deliberar incluso en medio del desacuerdo.
- Compartir
- Compartir
Noticias relacionadas
Reportajes