La inteligencia artificial no es todavía un peligro decisivo para las elecciones en EEUU

La inteligencia artificial no es todavía un peligro decisivo para las elecciones en EEUU

Iniciales de inteligencia artificial en una ilustración. Reuters

 

 

Cuando Estados Unidos anunció la confiscación de 32 dominios de internet vinculados a los esfuerzos rusos para acosar a los votantes estadounidenses con desinformación antes de las elecciones presidenciales de noviembre, los fiscales se apresuraron a señalar el uso de inteligencia artificial, o IA.





Por Jeff Seldin | Voz de América

La operación rusa, conocida como Doppelganger, llevó a los usuarios de internet y las redes sociales a las noticias falsas utilizando una variedad de métodos, según los documentos de acusación, incluidos anuncios que “en algunos casos fueron creados utilizando inteligencia artificial”.

También se utilizaron herramientas de inteligencia artificial para “generar contenido, incluidas imágenes y vídeos, para su uso en anuncios negativos sobre políticos estadounidenses”, añadió la acusación.

Y Rusia no es la única que recurre a la inteligencia artificial con la esperanza de influir en los votantes estadounidenses.

“Los principales actores que hemos visto en el uso electoral de esta tecnología son Irán y Rusia, aunque, como han notado varias empresas privadas, China también ha utilizado inteligencia artificial para difundir narrativas divisivas en Estados Unidos”, según un alto funcionario de inteligencia, que habló bajo condición de anonimato para poder discutir información sensible.

“Lo que hemos visto es que los actores extranjeros utilizan la inteligencia artificial para producir su contenido de manera más rápida y adaptar de manera más convincente su contenido sintético tanto en formato de audio como de video”, agregó el funcionario.

Pero otros funcionarios estadounidenses dicen que el uso de IA para difundir información errónea y desinformación en el período antes de las elecciones estadounidenses hasta ahora no ha estado a la altura de algunas de las advertencias más graves sobre cómo los deepfakes y otros materiales generados por IA podrían sacudir el panorama político estadounidense.

“La IA generativa no va a introducir nuevas amenazas en este ciclo electoral”, afirma Cait Conley, asesora principal del director de la Agencia de Seguridad de Infraestructura y Ciberseguridad, la agencia estadounidense encargada de supervisar la seguridad electoral.

“Lo que estamos viendo es consistente con lo que esperábamos ver”, dijo Conley a la Voz de América.

La IA “está exacerbando las amenazas existentes, tanto en el ámbito cibernético como en las campañas de desinformación y operaciones de influencia maligna extranjera”, afirmó. Pero poco de lo que se ha publicado hasta ahora ha sorprendido a los funcionarios de la CISA o a los innumerables gobiernos estatales y locales que organizan elecciones en todo el país.

“Este vector de amenaza no es nuevo para ellos”, afirmó Conley. “Y han tomado las medidas necesarias para asegurarse de estar preparados para responder de manera eficaz”.

Como ejemplo, Conley señaló la serie de llamadas automáticas dirigidas a ciudadanos de New Hampshire antes de las primarias del estado en enero, utilizando un audio falso del presidente estadounidense Joe Biden para decirle a la gente que se quedara en casa y “guardara su voto”.

El fiscal general de New Hampshire se apresuró a hacer pública su situación, calificando las llamadas automáticas como un aparente intento de suprimir votos y diciendo a los votantes que el incidente estaba bajo investigación.

En mayo pasado, los fiscales acusaron a un consultor político de Luisiana en relación con el plan.

Más recientemente, el supuesto uso de IA motivó el apoyo de una celebridad en la carrera presidencial estadounidense, la estrella del pop Taylor Swift.

“Recientemente me enteré de que una inteligencia artificial ‘mía’ respaldando falsamente la candidatura presidencial de Donald Trump fue publicada en su sitio”, escribió Swift en una publicación en las redes sociales Instagram el martes por la noche.

“Me llevó a la conclusión de que necesito ser muy transparente sobre mis planes reales para esta elección como votante”, escribió, y agregó: “Emitiré mi voto por Kamala Harris y Tim Walz”.

Pero los expertos y analistas dicen que, a pesar de toda la atención que está recibiendo la IA, el uso de dicha tecnología en ataques y otras operaciones de influencia ha sido limitado.

“No hay una gran cantidad de este tipo de tecnología en funcionamiento que sea particularmente exitosa en este momento, al menos que yo sepa”, dijo Katie Gray, socia principal de In-Q-Tel, la firma de inversión estratégica sin fines de lucro y centrada en tecnología de la CIA.

“La mayoría de los atacantes no utilizan los métodos más sofisticados para penetrar los sistemas”, dijo el 4 de septiembre en una cumbre de ciberseguridad en Washington.

Otros sugieren que, al menos por el momento, los temores que rodean a la IA han superado su utilidad para los actores maliciosos.

“Pasamos a la ciencia ficción apocalíptica “, dijo Clint Watts, ex agente especial del FBI y consultor antiterrorista que dirige el Centro de Análisis de Amenazas de Microsoft (MTAC).

“Pero en cambio, lo que estamos viendo es que el desafío número uno para todo esto en este momento es el acceso, simplemente llegar a las herramientas [de IA] y acceder a ellas”, dijo, hablando como Gray en la cumbre de ciberseguridad.

En los últimos 14 meses, el MTAC ha registrado cientos de casos de uso de IA por parte de China, Rusia e Irán, dijo Watts. Y los analistas descubrieron que Moscú y Teherán, en particular, han tenido dificultades para acceder a una caja de herramientas de IA completa.

Los rusos “necesitan utilizar sus propias herramientas desde el principio, en lugar de las occidentales, porque tienen miedo de que los desconecten de esos sistemas”, dijo Watts.

Irán está aún más rezagado.

“Han probado distintas herramientas”, dijo Watts. “Pero, en general, no pueden acceder a la mayoría de ellas”.

Los adversarios de Estados Unidos también parecen tener dificultades con los requisitos subyacentes para que la IA sea efectiva.

“Lanzar operaciones de IA a gran escala no es barato”, afirmó Watts. “Parte de la infraestructura y los recursos de la IA, los modelos, los datos con los que se la debe entrenar, son todo un desafío en este momento”.

Y Watts dijo que hasta que los productos generados por IA mejoren, los intentos de deepfakes probablemente tendrán problemas para resonar entre las audiencias objetivo.

“El público ha sido extraordinariamente brillante a la hora de detectar deepfakes en multitudes. Cuanto más observas a alguien, más te das cuenta de que una falsificación no es del todo correcta”, según Watts. “Todos los actores rusos que hemos visto han probado deepfakes y han vuelto a lo cotidiano, a las pequeñas manipulaciones de video”.

Lea más en Voz de América