Il suffit d’un petit tour de 10 min sur Tiktok, Instagram ou encore les livesYoutube pour s’apercevoir du malaise quotidien que vive les gameuses dans le « Game space» : De la discrimination, des insultes déshonorantes et du harcèlement qui coupent l’appétit du gaming. Des comportements indignes qui sont enregistrés puis publiés sur les réseaux sociaux par les internautes cherchant à faire le buzz.
Le studio RiotGames, à l’origine du jeu en ligne League of Legend, a annoncé de nouvelles mesures pour lutter contre les comportements néfastes dans son jeu en ligne Valorant, paru en juin 2020. Ce jeu de tir à la première personne réunissait, un an après son lancement, 14 millions de joueurs, selon les chiffres avancés par le studio.
Grâce à ce nouveau dispositif, le studio pourra accéder aux échanges vocaux entre les joueurs. Lorsque l’un d’entre eux enverra un signalement pour comportement abusif (harcèlement, insultes), les modérateurs seront ainsi à même d’écouter leurs commentaires audio afin de prendre des mesures.
Ce dispositif avait été annoncé dès le 30 avril 2021, mais n’avait pas été déployé, même dans sa version de test. Le studioRiotGames a publié un communiqué de presse le 24 juin 2022 indiquant que les tests allaient finalement être amorcés. « Cette mise à jour de notre politique de confidentialité doit nous permettre de potentiellement évaluer les données vocales qui transitent via les canaux de RiotGames. [...] Si une violation est détectée, nous prendrons des mesures. Et lorsque les données auront été portées à la connaissance du joueur en question, et qu’elles n’auront plus d’utilité, elles seront supprimées de notre base », détaille RiotGames dans une note.
L’enregistrement des données permettra également, dans ce contexte, de fournir un feed-back factuel aux joueurs punis pour mauvais comportement. « Les comportements nocifs via chat vocal sont un véritable problème pour beaucoup de nos joueurs. Nous pensons que l’une des façons de les combattre est de pouvoir fournir des moyens rapides et efficaces pour signaler les abus ou le harcèlement, pour que nous sachions quand agir », souligne le studio. Avant de lancer son dispositif, RiotGames va, dans un premier temps, entraîner son intelligence artificielle dès le 13 juillet sur les serveurs de jeux américains. Les enregistrements ne seront donc pas encore utilisés pour détecter des comportements abusifs.
Aucune date n’a été communiquée pour un déploiement officiel ou concernant son expansion dans d’autres pays. «Nous savons qu’avant d’être en mesure de déployer cet outil, nous devons être sûrs de son efficacité. Et si des erreurs arrivent, nous avons des systèmes en place pour être sûrs de pouvoir les corriger », précise l’entreprise.
Le studio RiotGames, à l’origine du jeu en ligne League of Legend, a annoncé de nouvelles mesures pour lutter contre les comportements néfastes dans son jeu en ligne Valorant, paru en juin 2020. Ce jeu de tir à la première personne réunissait, un an après son lancement, 14 millions de joueurs, selon les chiffres avancés par le studio.
Grâce à ce nouveau dispositif, le studio pourra accéder aux échanges vocaux entre les joueurs. Lorsque l’un d’entre eux enverra un signalement pour comportement abusif (harcèlement, insultes), les modérateurs seront ainsi à même d’écouter leurs commentaires audio afin de prendre des mesures.
Ce dispositif avait été annoncé dès le 30 avril 2021, mais n’avait pas été déployé, même dans sa version de test. Le studioRiotGames a publié un communiqué de presse le 24 juin 2022 indiquant que les tests allaient finalement être amorcés. « Cette mise à jour de notre politique de confidentialité doit nous permettre de potentiellement évaluer les données vocales qui transitent via les canaux de RiotGames. [...] Si une violation est détectée, nous prendrons des mesures. Et lorsque les données auront été portées à la connaissance du joueur en question, et qu’elles n’auront plus d’utilité, elles seront supprimées de notre base », détaille RiotGames dans une note.
L’enregistrement des données permettra également, dans ce contexte, de fournir un feed-back factuel aux joueurs punis pour mauvais comportement. « Les comportements nocifs via chat vocal sont un véritable problème pour beaucoup de nos joueurs. Nous pensons que l’une des façons de les combattre est de pouvoir fournir des moyens rapides et efficaces pour signaler les abus ou le harcèlement, pour que nous sachions quand agir », souligne le studio. Avant de lancer son dispositif, RiotGames va, dans un premier temps, entraîner son intelligence artificielle dès le 13 juillet sur les serveurs de jeux américains. Les enregistrements ne seront donc pas encore utilisés pour détecter des comportements abusifs.
Aucune date n’a été communiquée pour un déploiement officiel ou concernant son expansion dans d’autres pays. «Nous savons qu’avant d’être en mesure de déployer cet outil, nous devons être sûrs de son efficacité. Et si des erreurs arrivent, nous avons des systèmes en place pour être sûrs de pouvoir les corriger », précise l’entreprise.
Y. E.