Tecnología

Deepfakes en las urnas: la tecnología amenaza las elecciones estadounidenses de 2024

Utilizar deepfakes para hacer vídeos o audios es sencillo -en plataformas como GitHub existen más de 3000 repositorios- y accesible: es posible obtener un vídeo desde USD $2.00. Es muy complejo parar estas prácticas puesto que hay una gran red de estafadores que difunden este contenido fraudulento de manera anónima, poniendo en riesgo la democracia y generando desconfianza entre los ciudadanos.

Mientras Estados Unidos se prepara para las elecciones de este 2024, un nuevo ciberriesgo pone en juego la integridad de estos procesos democráticos. Los avances tecnológicos traen sofisticados métodos de engaño como la tecnología deepfake, una herramienta que facilita el fraude electoral. Este fenómeno no es obra de individuos que actúan en solitario, sino de un esfuerzo coordinado de un gran número de estafadores y ciberdelincuentes que no dejan huellas digitales. Sus acciones tejen una compleja red de desinformación y manipulación, complicando la protección de la integridad electoral. 

Check Point® Software Technologies Ltd. (NASDAQ: CHKP), proveedor líder en soluciones de ciberseguridad en la nube basadas en IA, ha analizado el funcionamiento de la tecnología deepfake y las extensas capas de este submundo digital, y quiere alertar del aumento de la disponibilidad de estos servicios en la Darknet en Telegram. La tecnología deepfake permite crear contenido audiovisual hiperrealista falso y manipulado para confundir a la opinión pública o desacreditar a políticos. 

En plataformas como GitHub existen más de 3000 repositorios relacionados con la tecnología deepfake, lo que indica su amplio desarrollo y el potencial de su distribución. Telegram alberga más de 400 canales y grupos que ofrecen servicios deepfake, desde bots automatizados que guían a los usuarios en el proceso, hasta algunos personalizados. Los precios son muy asequibles, ya que se puede crear un vídeo desde USD $2.00 hasta USD $100.00, dependiendo de su complejidad. La facilidad de acceso y uso de estos servicios subraya una amenaza creciente no solo para la transparencia de las elecciones, sino también para la confianza fundamental en la que se deberían construir las instituciones democráticas.

Una de las técnicas más empleadas con tecnología deepfake es la clonación de voces, que permite replicarlas con gran precisión. Se trata de una técnica más fácil de producir y de compartir que los deepfakes de vídeo y es realmente efectiva a la hora de difundir desinformación. En enero de este mismo año, se distribuyó una llamada automática en la que se escuchaba la voz falsa de Joe Biden, el actual presidente de EE. UU. y candidato de nuevo a las elecciones, en la que incitaba a los habitantes de New Hampshire a no votar. Estados Unidos ha prohibido las llamadas automáticas generadas por Inteligencia Artificial, reflejando de este modo la creciente preocupación por la manipulación digital y su impacto en las elecciones. 

Para combatir la tecnología deepfake y poder preservar la confianza de la población en los procesos democráticos, es imprescindible que se tomen medidas legislativas, soluciones tecnológicas, y que se promueva la conciencia pública. Los ciudadanos deben estar atentos al contenido con el que interactúan y confiar exclusivamente en información de fuentes confiables y oficiales, así como tratar de no compartir noticias desactualizadas o poco fiables.

“El desarrollo de la Inteligencia Artificial y de tecnologías como la deepfake nos ha vuelto más escépticos que nunca, y es lógico cuando hasta la democracia, el pilar fundamental sobre el que se estructura nuestra sociedad forma parte de esta realidad”, afirma Manuel Rodríguez, Gerente de Ingeniería de Seguridad para NOLA de Check Point Software “Desde el ámbito de la ciberseguridad estamos tratando de dar respuesta a estos fraudes y de desentrañar los caminos de los atacantes, pero también es fundamental que la ciudadanía sea consciente del poder de la desinformación y sea cautelosa y precavida con las noticias que recibe”.

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button