La líder interina de TikTok, Vanessa Pappas, acaba de proponer una idea de que las empresas de redes sociales se pongan de acuerdo para advertirse entre sí acerca de los contenidos violentos y gráficos en sus plataformas. Específicamente, TikTok propone un “banco para el contenido violento y gráfico” con una preocupación especial acerca de los videos de suicidios. La empresa cree que este banco y la supresión subsiguiente a través de las plataformas del contenido cuestionable “reduciría significativamente las probabilidades de que la gente lo encuentre y soporte el daño emocional que dicho contenido puede producir”.
Sucede que yo me topé con contenido violento y gráfico hace poco. Un amigo me envió un enlace a una historia de BBC News acerca de “Soldados de Camerún encarcelados por matar mujeres y niños”. El video incluido, cuyo titular dice que “contiene escenas perturbadoras”, aparentemente presenta los asesinatos de dos mujeres y dos niños. El video podría ser un candidato para el banco propuesto por TikTok. Utilizar la BBC para asentar las ideas, examinemos los costos y beneficios de la propuesta de TikTok.
Empecemos donde está TikTok con los pies puestos sobre la tierra. Algunos de sus usuarios son personas más jóvenes y por lo tanto podrían ser protegidas del discurso extremo de maneras que los adultos no deberían serlo. Pero prevenir que los adultos vean contenidos que desean ver es paternalista. Pero aquí hay otra arruga. TikTok menciona a las personas “que encuentran” contenido cuestionable. El diccionario nos dice que encontrar es “toparse con algo o experimentar algo de manera especialmente inesperada”. Si yo elijo ver contenido riesgoso, podría sorprender pero el riesgo es parte de la elección incluso si resulta ser algo más de lo que yo hubiese querido ver antes de saber más acerca del contenido. Encontrarse con contenido parece tener más que ver con algo determinado por un algoritmo que algo que fue elegido personalmente para ser visto.
Imagínense el video de la BBC en el enlace que empezó a correr una vez que descargué la página, y también que vi los asesinatos. Quizás debería ver los asesinatos. Todos nos hemos topado con personas o eventos o ideas que han cambiado nuestras vidas para bien incluso sin haber escogido cualquiera de estos y si nos hubiesen pedido de antemano que se nos presenten, hubiésemos rechazado la oportunidad de conocer a una persona o ver algo terrible. Encontrarse con la muerte de cuatro personas podría hacerme una mejor persona o incluso un mejor empleado de Cato o de la Junta de Supervisión de Facebook. Quizás apreciaría más la fragilidad humana o la tristeza de gran parte de la humanidad.
Pero no vi el video. Si el video hubiese empezado a andar luego de descargar la página y me hubiese topado con los asesinatos, podría sospechar que los editores de la BBC se habían vuelto paternalistas con la intención de mejorar mi fibra moral mediante lecciones duras. Un enfoque en los “encuentros” en lugar de la elección mejora el caso a favor de tener un banco a través de las plataformas. La propuesta de TikTok no contiene riesgos para la expresión. Volvamos nuevamente a la historia original. Inicialmente los funcionarios de Camerún dijeron que los eventos presentados en el video eran “noticias falsas”. La BBC señala que el video capturó atención internacional y millones de descargas en Twitter. Si el grupo de TikTok lo hubiese puesto al video en el banco y este hubiese sido removido de las plataformas participantes, dicha atención internacional no se hubiese dado. Algunos podrían haber creído que los asesinatos realmente eran “noticias falsas”. Los cuatro soldados involucrados puede que no hubieran recibido 10 años cada uno en la cárcel por los asesinatos.
Podría decirse que todo eso es poco probable dada la brutalidad representada en el video. Pero mucho sucede en nuestro mundo, y más de un poco de lo que sucede es brutal o trágico. No visto puede haber sido lo mismo que desconocido en este caso. Un banco existe para guiar las censuras de una plataforma no para promover la deliberación acerca de si el contenido debería mantenerse disponible o ser removido. En un principio e incluso después, algunas empresas podrían negarse a suprimir contenido del banco sobre la base de que este es “noticioso”. Pero con el tiempo, el estigma adjunto al material dentro del banco también aplicará al contenido perturbador que debería ser visto y escuchado. Si el banco no existiera, las empresas podrían estar en desacuerdo más acerca del contenido gráfico y violento. Crear un estándar único del contenido malo significa que todos cometerán el mismo error.
Y algunos errores puede que vayan más alla del inevitable costo de oportunidad entre los falsos positivos y los falsos negativos. Los funcionarios del gobierno de Camerún no podían obligar a BBC News a enterrar el video impactante. ¿Quién decidirá qué contenido va al banco de TikTok? Sin duda muchos funcionarios gubernamentales alrededor del mundo estarán felices de ver a sus ciudadanos protegidos de contenidos gráficos. Pero también podrían estar felices de ver que se remueva contenido que va en contra de sus intereses. Muchos expertos creíbles creen que TikTok refleja los intereses del gobierno chino. ¿Podría un video de una pequeña represión en la región china de Xinjiang en 2023 encontrar su camino hacia el banco?
¿Qué tan dispuestas estarían las empresas estadounidenses a resistir las presiones de los funcionarios estadounidenses que busquen “proteger” a los usuarios de redes sociales de videos de mala conducta por parte de funcionarios estatales? Las empresas de redes sociales en EE.UU. se enfrentan a unos difíciles años de supervisión estatal y potencial regulación. Puede que no le digan que “no” a los funcionarios. De hecho, si el contenido es gráfico y las implicaciones de un video no son populares, la manera más fácil de actuar sería enviarlo banco. Los líderes de otras naciones tendrán en un momento u otro tener intereses similares de “proteger” a sus ciudadanos del contenido violento y gráfico.
Por supuesto, estamos un poco alejados de nuestro punto de partida. La BBC no suprimió el video de Camerún; puso los asesinatos detrás de un titular con una advertencia. No creo que BBC News limitó mis derechos al darme la oportunidad de elegir ver o no aquellos asesinatos. Otros (o los padres de personas más jóvenes) también podrían desear estar protegidos de esta manera limitada (El problema de ofrecer protecciones más severas a las personas más jóvenes no se resolverá con una advertencia). Las redes sociales podrían actuar razonablemente como nuestros agentes para prevenir los encuentros (pero no la selección) de contenido violento y gráfico. Pero luce poco probable que el banco promueva las advertencias mientras que si promovería la supresión de imágenes.
Muchos usuarios de redes sociales podrían desear evitar los encuentros inesperados con contenido violento y gráfico. Podrían desear que su plataforma favorita los ayude a evitar dichos contenidos mientras que les deja a los usuarios la libertad para elegir lo que desean ver. Un banco único de imágenes gráficas y violentas podría facilitar que las empresas de redes sociales ayuden a sus usuarios de esta manera. Pero concentrar el poder siempre ofrece riesgos así como beneficios. La propuesta de TikTok podría suprimir imágenes que son tanto gráficas como valiosas. Quizás nadie debería ser obligado a ver imágenes perturbadoras aunque valiosas, pero estas deberían estar disponibles en algún lugar para aquellos que son lo suficientemente fuertes como para preocuparse de dicho contenido. El banco propuesto aumentará los incentivos para que los gobiernos y los intereses organizados intenten suprimir imágenes inconvenientes. Como siempre, las redes sociales son libre de seguir las ideas que deseen. Pero en este caso los riesgos para la expresión nos aconsejan ser cautelosos.
Este artículo fue publicado originalmente en Cato At Liberty (EE.UU.) el 27 de septiembre de 2020.