No se trata sólo de tener una clave del correo electrónico segura, sino que resguardar todos los sitios y acciones que se realizan en internet, así como también la información que se disponibiliza a través la red. La ciberseguridad, aunque suena a pretexto para una buena película con una trama tecnológica, es un asunto más cotidiano de lo que parece y bien vale ser precavido para no ser vulnerable a ataques cibernéticos.
Esos son algunos de los consejos que entregó el doctor en ingeniería informática y académico de la Facultad de Ingeniería de la Universidad de Concepción, Pedro Pinacho Davidson, durante la charla “Ciberseguridad en la era de la IA Generativa: Nuevos Desafíos”, que se realizó en la Biblioteca Municipal de Concepción como parte de las acciones del proyecto Ciencia Pública «Del Algoritmo al Asombro: Descubre la IA», en conjunto con el programa [genIA] UdeC y el Centro Interactivo de Ciencias, Artes y Tecnologías (Cicat).
La presentación parte de las actividades previas a la inauguración de la nueva sala permanente «Del Algoritmo al Asombro: Descubre la IA», la primera muestra sobre inteligencia artificial en Chile que abre al público de manera gratuita entre el 15 de octubre y el 15 de noviembre de 2025.
La cara B
El proyecto tiene por objetivo la creación de una experiencia interactiva, que de manera lúdica y educativa cuenta la historia de la inteligencia artificial (IA), desde 1950 a la actualidad: sus bases matemáticas y estadísticas, su funcionamiento, las áreas de trabajo, y el aporte que hace actualmente a la sociedad, con ejemplos concretos de ello en el área de la astronomía.
Esta muestra, dijo el Dr. Pinacho, entrega una visión positiva en torno al uso de la IA. Sin embargo, la exposición en ciberseguridad estuvo marcada por advertencias sobre usos maliciosos de la misma.
“La charla de hoy fue para mostrar la cara B; mostrar que esta misma tecnología en malas manos puede ser muy peligrosa. Puede ser usada para atacar a las personas, puesto que, como son versadas en el lenguaje natural, pueden ser utilizadas para generar ingeniería social, y eso es muy peligroso”, dijo.
La ingeniería social, según explicó, es una técnica de manipulación psicológica empleada por ciberdelincuentes para engañar a sus víctimas. Al hacerse pasar por entidades o personas de confianza, como técnicos o familiares, explotan emociones humanas como la curiosidad o la urgencia para que las personas revelen información confidencial (contraseñas, datos personales) o realicen acciones que los perjudiquen, todo esto sin necesidad de un ataque técnico directo a los sistemas.
Cibserseguridad es prevención activa
El Dr. Pinacho destacó que “estamos en una era donde todos deberíamos estar bastante atentos a cuáles son las amenazas. Desde ese punto de vista, ya existe un ecosistema. Antiguamente estábamos bastante solos, pero después de la Ley Marco y ese tipo de cosas, ya tenemos un CSIRT (Equipo de Respuesta ante Incidentes de Seguridad Informática) y una Agencia Nacional de Ciberseguridad que generan boletines y nos dan información al respecto”.
“Por otro lado, también [es importante] estar atento a la información que nos entregan las empresas a las cuales estamos vinculados. Por ejemplo, si yo participo de la banca o de universidades, en general, los departamentos de tecnología envían información respecto a cuáles son las amenazas que están latentes actualmente, y esas recomendaciones hay que seguirlas”, agregó.
En la misma línea, la Directora del programa [genIA] UdeC, Dra. Alejandra Maldonado Trapp, mencionó que a nivel de usuario, las acciones más críticas para proteger la información personal frente al uso no consentido por sistemas de inteligencia artificial son limitar la exposición digital, controlar el consentimiento y fortalecer la autonomía humana.
“De acuerdo con las recomendaciones de la UNESCO sobre la Ética de la Inteligencia Artificial (2021), la protección y mejora de la autonomía humana deben ser principios fundamentales al interactuar con la IA, y las medidas más efectivas se centran en el control directo de los datos, el consentimiento informado y el desarrollo de una alfabetización digital crítica”
“Es fundamental revisar la configuración de privacidad en redes sociales, evitar subir fotos o audios de alta calidad que puedan reutilizarse, eliminar metadatos antes de compartir archivos y leer con atención las políticas de privacidad para identificar el uso de datos en el entrenamiento de IA. Además, las personas deben ejercer su derecho a retener o retirar el consentimiento, asegurarse de conservar la propiedad sobre sus datos personales y no renunciar automáticamente a la privacidad al usar servicios de IA”, agregó.
La Dra. Maldonado hizo hincapié en que es importante evitar introducir información sensible en sistemas de IA generativa, proteger imágenes y contenido en línea, respetar los derechos de autor y actuar éticamente evitando la creación de material falso o manipulado.
“En términos de prevención, el uso ético y responsable de la inteligencia artificial desde la etapa formativa se convierte en la primera barrera de defensa contra futuros ataques maliciosos, ya que fomenta una cultura digital basada en la conciencia, la transparencia y la responsabilidad”, dijo.
“La Unesco destaca la importancia de educar desde edades tempranas en valores éticos, pensamiento crítico y competencias digitales que permitan comprender los riesgos y alcances de la IA. Cuando las personas aprenden a proteger sus datos, reconocer sesgos algorítmicos y evaluar de manera crítica la información automatizada, se fortalecen las capacidades colectivas para anticipar amenazas y evitar manipulaciones tecnológicas”, añadió.
Este enfoque formativo, explicó, adquiere especial relevancia ante el uso de la IA en campañas políticas, donde los algoritmos pueden amplificar desinformación, crear deepfakes o segmentar mensajes manipulativos dirigidos a influir en el voto o en la opinión pública. Formar ciudadanos capaces de identificar estos riesgos y exigir transparencia en el uso de tecnologías de IA en procesos electorales contribuye a proteger la integridad democrática. Así, la educación ética y crítica en IA no solo mejora la ciberseguridad individual, sino que también se convierte en una herramienta preventiva clave para salvaguardar la confianza social y la legitimidad de las instituciones en la era digital.