― Sattalat Phukkum / Shutterstock.com

Les plateformes en ligne sont souvent critiquées pour les mauvais comportements de leurs utilisateurs. Sur Twitter, bien que les internautes ne disposent que de 280 caractères pour chaque tweet, cela suffit amplement pour écrire des insultes. La semaine dernière, le réseau social a annoncé qu’il allait instaurer une nouvelle mesure pour limiter les messages haineux et offensants.

Twitter effectue des tests basés sur l’intelligence artificielle depuis l’année dernière. Ces derniers consistent notamment à détecter les insultes et remarques haineuses dans les tweets. Lorsque l’IA détecte ces éléments, un message d’avertissement est automatiquement envoyé à l’utilisateur. Celui-ci est ensuite libre de modifier, supprimer ou envoyer son message tel quel.

Cependant, l’algorithme utilisé pour ces tests était incapable de « capturer la nuance dans de nombreuses conversations et ne faisait souvent pas la différence entre un langage potentiellement offensant, le sarcasme et les plaisanteries amicales », a expliqué Anita Butler, directrice conception de produit chez Twitter. Ce problème ne serait plus d’actualité. L’entreprise a annoncé que son IA pouvait désormais faire la distinction entre « sarcasme et plaisanterie amicale » et prendre en compte « la nature de la relation entre les utilisateurs ».

Il est à noter que les tests effectués par le réseau social au cours de l’année 2020 se sont révélés concluants. En effet, 34 % des personnes averties ont révisé leur réponse initiale ou ont décidé de ne pas du tout envoyer leur réponse tandis que les utilisateurs ont créé 11 % de réponses offensantes en moins après avoir été alertés pour la première fois.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments