YouTube a affirmé avoir commis une « erreur » après la suppression automatique de phrases en mandarin critiquant le Parti communiste chinois (PCC). Toutefois, The Verge a mené l’enquête et réalisé que ce ‘dysfonctionnement’ durait depuis déjà 6 mois.
Serait-ce encore un autre indice du totalitarisme chinois ? Ou bien une erreur de YouTube ? Ou bien autre chose ? Selon le magazine américain The Verge, « YouTube supprime automatiquement les commentaires qui contiennent certaines phrases en langue chinoise critiquant le Parti communiste chinois (PCC) ». Après enquête, la plateforme a assuré qu’il pourrait s’agir d’une erreur. Mais le site rappelle que s’il s’agit d’une erreur, cette dernière serait « passée inaperçue pendant 6 mois ».
En effet, comme l’explique The Verge, les commentaires sous les vidéos et flux en direct contenant les termes en mandarin “共匪” (« bandit communiste ») ou “五毛” (« parti à 50 cents ») sont « automatiquement supprimés au bout de 15 secondes ». Comme le site américain le rappelle, “共匪” est une insulte remontant au temps du nationalisme chinois, et “五毛” est un terme servant à moquer les internautes payés 50 cents « pour éviter les discussions en ligne critiques du PCC ».
A la mi-mai, la militante Jennifer Zeng avait signalé cette situation :
#YouTube « automatically » deletes a comment in Chinese, « Gongfei », which means « communist bandit », in 15 seconds.
— Jennifer Zeng 曾錚 (@jenniferatntd) May 13, 2020
This person tested 3 times, same result. #油管 15秒內自動刪除「共匪」留言,網友連試三次皆如此。
他們找了個比李飛飛更厲害的AI專家? pic.twitter.com/MLCeko0SIY
Déjà en octobre 2019, toujours selon The Verge, 2 messages critiques du PCC avaient été supprimés automatiquement. Cela démontre que les outils automatisés de modération présentent des biais, analysés par le site spécialisé AlgorythmWatch, qui montre que l’outil utilisé par Google pour évaluer la « toxicité » d’un message, Perspective, surévalue ou sous-évalue la toxicité ou l’agressivité des termes selon leur connotation. Ainsi, selon cette étude, les messages contenant les termes « gay » ou « noir » sont surévalués par rapport à leur niveau d’agressivité. Cela serait dû à la manière dont fonctionne l’outil qui « apprend » à classer automatiquement les commentaires.
Par Marine Guichard, le
Source: The Verge
Étiquettes: chine, youtube, parti-communiste, critiques, supprimer
Catégories: Applications & VR, Brèves
L’IA est encore une enfant,il faut etre patient.