Twitter actualizó el 5 de marzo sus políticas sobre conductas de incitación al odio y prohibió el contenido que deshumanice, degrade o refuerce estereotipos negativos o dañinos basados en la edad, discapacidad o enfermedad grave de una persona.
Estos cambios se suman a las actualizaciones de las políticas realizadas en julio donde se anticipaba que se borrarían los tuits que deshumanizan a los grupos religiosos.
Twitter emitió, en 2018, una prohibición amplia en torno a los discurso de odio vinculadas a la raza y el género. Desde aquel entonces, viene reforzando sus políticas para favorecer una conversación más “saludable” dentro de este entorno virtual.
Después de que lanzara esas políticas en aquel entonces, la plataforma recibió más de 8000 comentarios donde los usuarios pedían que las políticas fueran ser más claras y precisas.
En este sentido, ahora la red social se ha posicionado con mayor fuerza en contra del discurso de odio y dijo que directamente se eliminarán de la plataforma aquellos tuits que, como se mencionó anteriormente, refuercen estereotipos negativos. En su blog se compartió algunos ejemplos de los tipos de tuits a los que hacen referencia:
“Creamos nuestras reglas para mantener a las personas seguras en Twitter, y evolucionan continuamente para reflejar las realidades del mundo en el que operamos. Nuestro enfoque principal es abordar los riesgos de daños fuera de línea, y las investigaciones muestran que el lenguaje deshumanizante aumenta esos riesgos”, se menciona en el blog oficial.
Ocultar los comentarios para evitar las conversaciones tóxicas
En el marco de este tipo de iniciativas que buscan un intercambio más sano, la red social comenzó a implementar el año pasado una función que permite ocultar respuestas específicas que puedan resultar nocivas.
Gracias a esto, cualquier persona que haya tuiteado será capaz de decidir qué respuestas mantener en el hilo y cuáles estarán ocultas para que ningún otro usuario las pueda leer. En aquel entonces, tras este anuncio, Donald Hicks, vicepresidente de la compañía, declaró que estos ajustes se realizaron teniendo en cuenta un ecosistema con diferentes sectores: los autores, quienes responden, la audiencia y la plataforma. “Intentamos equilibrar la experiencia a través de los cuatro grupos”, remarcó.
Este tipo de medidas también persiguen el objetivo de darle mayor apoyo a las personas que utilizan la red social como una plataforma para denunciar sin ser víctimas de respuestas violentas o acoso por parte de otros usuarios.
Así lo reseñó Infobae