Twitter avisará a usuarios si sus respuestas son ofensivas

Twitter lleva tiempo trabajando para eliminar de su espacio las respuestas con contenido ofensivo y de odio. Foto: Reuters.

La red social Twitter probará enviar a sus usuarios un aviso cuando respondan a un mensaje utilizando "lenguaje ofensivo o dañino", en un esfuerzo por sanear las conversaciones que suceden en esa plataforma digital, informó la compañía, con sede en California, el jueves en un tuit.

Cuando los usuarios de Twitter presionen "enviar" su respuesta, se les avisará si las palabras en su tuit son similares a las de textos que han sido denunciados, y se les preguntará si quieren revisarlo o no. Twitter lleva desde hace tiempo bajo presión para eliminar el contenido abusivo y de odio de su plataforma, que es fiscalizada por usuarios que advierten de tuits que rompen las normas y por medios tecnológicos.

  • La jefa global de política para confianza y seguridad de Twitter, Sunita Saligram, dijo en una entrevista:

Estamos intentando alentar a la gente a repensar su comportamiento y su lenguaje antes de publicar, porque frecuentemente pasan por un momento crispado y podrían decir algo que lamentan".

La políticas de Twitter no permiten que los usuarios ataquen a individuos con temas racistas, sexistas o agraviantes, o con contenido degradante. La compañía tomó medidas contra casi 396 mil cuentas bajo sus políticas de abusos y más de 584 mil cuentas bajo sus políticas de conducta de odio entre enero y junio del año pasado.

Cuando se le preguntó si el experimento dará a usuarios una forma de encontrar nuevas formas de hallar lagunas en las normas de Twitter sobre lenguaje ofensivo, Saligram dijo que está dirigida a la mayoría de quienes violan las normas y no lo hacen de forma reiterada. Twitter dijo que el experimento, el primero de su tipo para la compañía, comenzará el martes y se prolongará al menos durante cinco semanas. Se realizará a nivel global, pero sólo para los mensajes en inglés.