Demandan a Apple por negligencia debido a la supuesta distribución de material de abuso sexual infantil - LaPatilla.com

Demandan a Apple por negligencia debido a la supuesta distribución de material de abuso sexual infantil

Logotipo de la compañía en una Apple Store. Alexander Pohl/NurPhoto via Getty Images

 

 

 





La oficina del fiscal general de Virginia Occidental demandó a Apple el jueves, alegando que el gigante tecnológico permitió que materiales de abuso sexual infantil (CSAM) se almacenaran y distribuyeran en su servicio iCloud.

Por CNN

La demanda afirma que, durante años, Apple priorizó la privacidad del usuario por sobre la seguridad infantil. La compañía tiene un control estricto sobre su hardware, software e infraestructura en la nube, lo que significa que no puede alegar desconocer el problema, argumentó la oficina del fiscal general.

Durante años, Apple ha enfrentado críticas contrapuestas: por un lado, que debería hacer más para evitar que el CSAM se almacene y comparta en sus servicios; por el otro, que debería proteger la privacidad de las fotos y documentos personales de sus usuarios.

La demanda sostiene que las empresas tecnológicas estadounidenses están obligadas por ley federal a reportar el contenido detectado al Centro Nacional para Niños Desaparecidos y Explotados. Mientras Google presentó 1.47 millones de reportes en 2023, Apple supuestamente solo presentó 267.

“Estas imágenes son un registro permanente del trauma de un niño, y ese niño es revictimizado cada vez que el material se comparte o se visualiza”, dijo el fiscal general de Virginia Occidental, JB McCuskey, en un comunicado. “Esta conducta es despreciable e inexcusable la inacción de Apple”.

“En Apple, proteger la seguridad y privacidad de nuestros usuarios, especialmente los niños, es central en lo que hacemos. Innovamos cada día para combatir amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños”, dijo un portavoz de Apple en un comentario a CNN.

Apple también se refirió a Seguridad, una función que ofrece la compañía en las comunicaciones que advierte a los niños y difumina la imagen cuando se detecta desnudez al recibir o intentar enviar contenido, y muestra una advertencia. Funciona en aplicaciones como Mensajes y FaceTime, así como en AirDrop y en la función de Carteles de Contacto del iPhone y la herramienta de selección de imágenes de la aplicación Fotos. El vocero agregó que los controles parentales y características de Apple “están diseñados con la seguridad, protección y privacidad de nuestros usuarios en su núcleo”.

McCuskey dijo durante una conferencia de prensa el jueves que grandes empresas con vastos recursos como Apple tienen la responsabilidad de abordar problemas de seguridad como estos.

“Hay una opinión social que dicta que también tienes que ser parte de la solución de estos problemas a gran escala, y uno de esos problemas es la explotación de niños en este país”, dijo.

Para seguir leyendo, clic AQUÍ.