La brecha entre la realidad y lo digital se hace cada vez más delgada. La inteligencia artificial se ha encargado de hacer más estrecha esa diferencia y un experimento de The Wall Street Journal demostró que es posible clonar la voz y la imagen de una persona para engañar a los demás.
Por Juan Ríos | Infobae
La periodista, Joanna Stern, fue la encargada de hacer estas pruebas usando dos herramientas: Synthesia para la generación de videos con su imagen y forma de hablar, como también, ElevenLabs para crear archivos de audio que replicarán su voz.
Con estos contenidos pudo pasar las verificaciones de voz de su banco, engañar al directivo de una compañía para pedirla una entrevista y confundir a su familia en llamadas y videollamadas.
Si bien los resultados aún necesitan de mucha más precisión y en ocasiones es evidente que hay una IA detrás del contenido, está claro que el crecimiento de esta tecnología abre las puertas a varios retos para las compañías, las autoridades y la sociedad.
Toda inteligencia artificial necesita información para entrenarse y generar un contenido. Esa es la base de su funcionamiento y en este caso Joanna Stern, fue quien proporcionó los datos a las dos plataformas para obtener los resultados y engañar a sus familiares.
Con Synthesia, una herramienta que crea avatares a partir de video y audio grabados, algo que también se conoce como deepfakes, la periodista logró alimenetar con 30 minutos de video y casi dos horas de audios la IA para obtener su avatar.
Esta plataforma permite mantener y crear un avatar personalizado por 1.000 dólares al año, además de una tarifa de suscripción mensual, aunque ofrece personajes de stock a un costo más bajo.
Usando esta tecnología crearon un video en TikTok para ver el alcance de la IA. Escribieron las instrucciones en texto para asegurarse de lo que iba a decir el avatar y el resultado fue satisfactorio.
Si bien en la red social se dieron cuenta de que no era una persona real por sus pocas expresiones faciales y gestos con las manos, la conclusión del experimento fue que para oraciones largas el avatar puede ser “convincente”.
Lea más en Infobae