Inteligencia artificial, un peligro político para 2024 con la amenaza de engañar a los votantes

Imágenes falsas pueden ser lo suficientemente realistas como para engañar a los votantes y tal vez influir en una elección

Los ingenieros informáticos y los politólogos inclinados por la tecnología han advertido durante años que las herramientas de inteligencia artificial baratas y potentes pronto permitirían que cualquiera creara imágenes, videos y audios falsos que fueran lo suficientemente realistas como para engañar a los votantes y tal vez influir en una elección.

FÁCIL DIFUSIÓN DE FAKE NEWS

Las imágenes sintéticas que surgieron a menudo eran crudas , poco convincentes y costosas de producir, especialmente cuando otros tipos de información errónea eran tan económicos y fáciles de difundir en las redes sociales.

La amenaza planteada por la IA y los llamados deepfakes siempre pareció estar a uno o dos años de distancia.

No más.

Las herramientas sofisticadas de IA generativa ahora pueden crear voces humanas clonadas e imágenes, videos y audio hiperrealistas en segundos, a un costo mínimo.

Cuando se conecta a poderosos algoritmos de redes sociales, este contenido falso y creado digitalmente puede propagarse lejos y rápido y dirigirse a audiencias muy específicas, lo que podría llevar los trucos sucios de la campaña a un nuevo nivel.

  • Las implicaciones para las campañas y elecciones de 2024 son tan grandes como preocupantes: la IA generativa no solo puede producir rápidamente correos electrónicos, textos o videos de campaña específicos, sino que también podría usarse para engañar a los votantes, hacerse pasar por candidatos y socavar las elecciones a gran escala y en una velocidad aún no vista.

“No estamos preparados para esto”, advirtió AJ Nash, vicepresidente de inteligencia de la firma de ciberseguridad ZeroFox. ”Para mí, el gran salto adelante son las capacidades de audio y video que han surgido.

Cuando puedas hacer eso a gran escala y distribuirlo en plataformas sociales, bueno, tendrá un gran impacto”.

Los expertos en IA pueden enumerar rápidamente una serie de escenarios alarmantes en los que se utiliza la IA generativa para crear medios sintéticos con el fin de confundir a los votantes, calumniar a un candidato o incluso incitar a la violencia.

Aquí hay algunos: Mensajes automáticos de llamadas automáticas, en la voz de un candidato, que instruyen a los votantes a emitir su voto en la fecha equivocada; grabaciones de audio de un candidato que supuestamente confiesa un delito o expresa opiniones racistas; imágenes de video que muestran a alguien dando un discurso o una entrevista que nunca dieron. Imágenes falsas diseñadas para parecerse a informes de noticias locales, afirmando falsamente que un candidato abandonó la carrera.