Tecnología

Manipulación y deepfake, amenazas para la democracia en la era digital

No es solo una amenaza tecnológica, también es un desafío democrático. Check Point Research advierte de que las ciberamenazas y las tecnologías deepfake afectan a la confianza en las elecciones y su proceso. Una tercera parte de las 36 campañas electorales analizadas a nivel mundial incluye material de audio y video generado por IA que tenía como objetivo la desinformación

Con las próximas elecciones al Parlamento Europeo del 6 al 9 de junio, aumenta el riesgo de ciberataques. Check Point Research, la división de Inteligencia de Amenazas Check Point® Software Technologies Ltd. (NASDAQ: CHKP), proveedor líder en soluciones de ciberseguridad en la nube basadas en IA, advierte de que las ciberamenazas y las tecnologías deepfake afectan a la confianza en las elecciones No es solo una amenaza tecnológica, también es un desafío democrático.

“Investigamos 36 elecciones parlamentarias, regionales y presidenciales celebradas entre septiembre de 2023 y febrero de 2024 y descubrimos que en al menos 10 casos se utilizaron vídeos y grabaciones de audio con clonación de voz para campañas de desinformación. A menudo son acciones coordinadas por grupos profesionales. En el contexto de las elecciones europeas, podemos esperar una nueva oleada de engaños en todos los países”, dijo Sergey Shykevich, director del grupo de inteligencia sobre amenazas de Check Point Research.

Durante las elecciones parlamentarias de Eslovaquia, los investigadores de Check Point Research detectaron clonación de voz de los candidatos, un fraude que ha podido ayudar a decidir el ganador en unas elecciones muy reñidas. Del mismo modo, también observaron maniobras para influir en las elecciones polacas usando vídeos con audio generado por IA.

Los engaños con deepfake se utilizan para difundir desinformación y manipular a la opinión pública, pero también existe la amenaza potencial de ciberataques contra la infraestructura de los sistemas electorales. Por lo tanto, se requiere vigilancia y cooperación en todos los niveles para preservar la integridad del proceso electoral. Estas tecnologías utilizan aprendizaje automático e Inteligencia Artificial para crear o editar vídeos y grabaciones de audio de forma que parezcan y suenen auténticos. En el contexto de las elecciones, dichos videos pueden dañar la reputación de los políticos y difundir noticias falsas e información errónea que puede influir en las decisiones de los votantes.

Hay, aproximadamente, entre 400 y 500 canales, y grupos en Telegram que ofrecen servicios de deepfake desde dos (2) dólares por vídeo, realizados por bots automatizados que guían a los usuarios a través de todo el proceso u opciones más complejas que gestionan directamente los ciberdelincuentes.


La clonación de voz se utiliza para replicar la voz humana con precisión. Se analizan el tono, el timbre y el estilo de la voz para que la IA pueda generar discursos falsos convincentes que imitan la voz original.

 

Para hacerlo, solo se necesitan unos segundos de audio de un vídeo online u otra grabación. Los precios van desde los 10 dólares por una suscripción mensual, pero pueden aumentar hasta cientos de dólares dependiendo de la calidad de las características proporcionadas.

El uso de estas tecnologías en campañas de desinformación representa una amenaza significativa para las elecciones al Parlamento Europeo y el proceso electoral puede ser interrumpido de varias formas:

·       Manipulación del votante: los vídeos y audios deepfake falsos pueden usarse para dañar la reputación de un candidato e influir en los votantes. Estos vídeos pueden difundirse rápidamente a través de las redes sociales. O, por el contrario, pueden surgir videos que ensalcen a candidatos y muestren acciones que en realidad nunca hicieron.

·       Debilitar la confianza pública: si los videos y grabaciones de audio deepfake se convierten en herramientas comunes, esto puede llevar a una desconfianza pública que dificulta tomar una decisión informada.

·       Desestabilización del entorno político: la difusión efectiva de engaños deepfake puede llevar a tensión e inestabilidad política si los votantes no son capaces de distinguir entre información verdadera y falsa. La consecuencia puede ser una falta de confianza en las instituciones y procesos democráticos.

·       Espionaje: los grupos de hacking nacionales y otros ciberdelincuentes también pueden intentar interrumpir las elecciones a través de una variedad de ataques sofisticados, esfuerzos de espionaje y filtración de datos para influir en los resultados electorales a favor de determinados grupos políticos o ideologías.

·       Dilema legal y ético: los vídeos deepfake plantean cuestiones sobre la interferencia con los derechos personales y las normas legales. Los marcos jurídicos pueden tener dificultades para mantenerse al día con el avance tecnológico, lo que dificultaría la regulación y el castigo de los abusos.

“La Unión Europea y los Estados miembros están tratando activamente de contrarrestar estas amenazas. Por ejemplo, la Comisión Europea ha adoptado recientemente una ley sobre Inteligencia Artificial que debería aumentar la transparencia y también limitar el uso de la IA para fines dañinos”, dijo Sergey Shykevich. “Los ciberdelincuentes y los grupos de hacking nacionales también utilizarán las elecciones europeas para difundir propaganda contra la UE y apoyar diversas iniciativas anti-UE en países individuales”.

Al mismo tiempo, podemos esperar una oleada de ataques hacktivistas, en forma de DDoS a diversos servicios y sitios web expuestos. Por ejemplo, durante las elecciones presidenciales checas, el grupo hacktivista pro-ruso NoName057(16) intentó derribar los sitios web de algunos candidatos y crear una situación de miedo.

¿Cómo defenderse?

·       Verificar las fuentes: aprender a identificar fuentes de información fiables y evitar compartir contenido poco creíble.

·       Educación: el pensamiento crítico es clave para combatir la manipulación y la desinformación. Es útil asistir a talleres o cursos sobre alfabetización mediática, por ejemplo, para identificar contenido falso.

·       Usar la tecnología para una buena causa: utilizar herramientas disponibles para detectar contenido deepfake y otro contenido susceptible de manipulación. Las redes sociales y las plataformas deberían informar a los usuarios sobre los contenidos que pueden ser manipulados.

·       Cuidar de los mensajes no deseados: no abrir correos electrónicos o archivos adjuntos de fuentes o personas desconocidas. Al mismo tiempo, no reaccionar a los mensajes, eliminarlos y denunciarlos.

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button