La junta de supervisión de Meta evaluará el manejo de la pornografía deepfake por parte de la compañía en medio de crecientes preocupaciones de que la Inteligencia Artificial (IA) esté impulsando un aumento en la creación de imágenes falsas y gráficas como una forma de acoso.
Por: CNN
La junta de supervisión dijo este martes que revisará cómo Meta abordó dos imágenes gráficas generadas por inteligencia artificial de figuras públicas femeninas, una de Estados Unidos y otra de la India, para evaluar si la compañía cuenta con políticas y prácticas apropiadas para abordar dicho contenido (y si está aplicando esas políticas de manera consistente en todo el mundo).
La amenaza de la pornografía generada por IA ha llamado la atención en los últimos meses, y tanto celebridades como Taylor Swift como estudiantes de secundaria estadounidenses y otras mujeres de todo el mundo, han sido víctimas de esta forma de abuso digital. Las herramientas de IA generativa, que son muy accesibles, han hecho que crear este tipo de imágenes sea más rápido, fácil y barato. Mientras tanto, las plataformas de redes sociales permiten difundir estas imágenes rápidamente.
“La pornografía deepfake —que alude a los sistemas informáticos que permiten, mediante técnicas de Inteligencia Artificial, desarrollar videos manipulados extremadamente realistas— es una causa creciente de acoso por motivos de género en línea y se utiliza cada vez más para atacar, silenciar e intimidar a las mujeres, tanto online como offline”, dijo en un comunicado la copresidenta de la junta de supervisión de Meta, Helle Thorning-Schmidt.
Puedes leer la nota completa en CNN