Twitter

La red social Twitter lanzó una iniciativa para sugerir a los usuarios reconsiderar las respuestas cuando se detectan ofensivas.

Se trata de una idea que pretende frenar los comentarios ofensivos y de odio.

Twitter cuenta con 166 millones de usuarios diarios y la prueba se realizará en un grupo reducido.

El experimento social intentará disminuir las situaciones de bullyng, acoso y odio entre personas.

“Cuando las cosas se calientan, puedes decir cosas que no piensas en realidad. Para permitirte repensar una respuesta, estamos ejecutando un experimento limitado en iOS con un aviso que te da la opción de revisar tu respuesta antes de que se publique si usa un lenguaje que podría ser dañino”.

Twitter

Esa fue el comunicado que lanzó Twitter a todos los usuarios de la plataforma.

Cada vez que se detecte un comentario potencialmente ofensivo, Twitter hará el papel de mediador.

En esa instancia se advierte al usuario en cuestión la presencia de lenguaje ofensivo.

Queda claro que dentro de la categoría “ofensas” también se incluye cualquier tipo de discriminación.

Ya sea de tipo al igual que amenazas de violencia, temas de terrorismo y la amplia variedad de acosos.

Aunque el proyecto parece algo nuevo, la realidad es que la empresa contiene políticas claras al respecto.

Así, cerca de 396.000 fueron cuestionadas por contenido relacionado al abuso y más de medio millón por odio.

Las cifras corresponden a los primeros seis meses del año pasado.

Deje su respuesta aquí

Ingrese su comentario
Ingrese su nombre aquí