Petit Logo
CSGO
Actualités
Mises à jour
Forum
Se connecter
S'inscrire Fortnite FIFA 20 Pokémon GO PUBG R6: Siege Minecraft GTA 5 LoL CoD: MW Cyberpunk 2077 Apex Legends Borderlands 3
L'intelligence artificielle créée par FACEIT a permis de bannir plus de 20 000 joueurs de la plateforme
Publié le 24 octobre 2019
par Florian Lelong
92 061
points

L'intelligence artificielle créée par FACEIT a permis de bannir plus de 20 000 joueurs de la plateforme

La toxicité est sans doute l'un des problèmes les plus fréquents sur les jeux en ligne et peuvent avoir un impact relativement négatif sur les titres compétitifs, à l'instar de League of Legends ou encore de Counter-Strike: Global Offensive.
Rainbow Six: Siege : Ubisoft attaque en justice un jeune homme de 17 ans pour création et vente de logiciels de triche À lire également
Rainbow Six: Siege : Ubisoft attaque en justice un jeune homme de 17 ans...
Pour faire face à ce problème croissant, FACEIT s'est associé à Google Cloud et à Jigsaw afin de créer sa propre intelligence artificielle, dans l'unique but de signaler et de punir les joueurs ayant un comportement abusif et toxique.

L'outil en question, appelé Minerva, est opérationnel depuis quelques semaines sur FACEIT et analyse les différentes parties jouées, notamment sur CSGO. Si vous connaissez légèrement la scène esport du titre compétitif de Valve, vous ne serez pas étonné d'apprendre que Minerva a été particulièrement active, assénant plus de 90 000 avertissements et bannissant plus de 20 000 joueurs pour violences verbales et spam. En conséquence, grâce aux mesures appliquées par cette intelligence artificielle, le nombre de messages dits toxiques ont diminué de plus de 20 % sur l'unique mois de septembre.

Minerva s'améliore avec le temps en se basant sur des technologies de machine learning, littéralement apprentissage automatique, lui permettant, depuis près d'une année de perfectionner ses outils de détection, permettant de rendre la plateforme FACEIT bien plus saine pour ses milliers d'utilisateurs cherchant une expérience agréable et compétitive. L'idée d'utiliser cette technologie est venue du fait que FACEIT souhaitait investir dans une solution à long terme ne nécessitant pas d'examen manuel, en ne se souciant pas des heures auxquelles ses « infractions » étaient réalisées.
Il est devenu évident que la toxicité s'exprimait de différentes manières et que la détection et la résolution des problèmes n'étaient pas des tâches aisées. La communauté espérait qu'un administrateur impartial puisse observer et juger l'ensemble des matchs joués sur FACEIT, ce qui est, à l'heure actuelle, mission impossible.

Nous aurions pu trouver une alternative, mais cela n'aurait pas pu nous permettre d'avoir les résultats escomptés sur le long terme, car elle n'aurait pas permis d'identifier les comportements dommageables avec précision et de manière immédiate. Par conséquent, nous avons décidé de lancer un projet à long terme en créant une intelligence artificielle, jouant le rôle d'administrateur, optimisée par le machine learning.

FACEIT.
Si Minerva détecte qu'un message issu d'une discussion peut potentiellement être toxique, elle peut agir en l'espace de quelques secondes. Un avertissement est alors envoyé à l'expéditeur, ce dernier pouvant être interdit d'envoyer des messages pendant quelques minutes en fonction de la gravité de son message d'origine. Bien évidemment, les récidivistes, pour qui les quelques rappels à l'ordre n'auront eu aucun effet, se verront infliger des peines plus sévères.

FACEIT est grandement convaincu que Minerva permettra d'atteindre des résultats concrets, malgré quelques mois passés avec de nombreux faux positifs, garantissant désormais, que chaque avertissement et interdiction sont déterminés avec précision en tout impartialité. Tandis que la toxicité est en berne sur FACEIT, notamment sur Counter-Strike: Global Offensive, ce sont pas moins de sept millions de messages qui avaient été détectés comme étant toxiques au cours des deux premiers mois d'utilisation de l'intelligence artificielle.

En plus de gérer les problèmes de toxicité, Minerva a été programmée pour lutter contre les comptes boostés et les smurfs, en demandant par exemple aux utilisateurs suspectés de vérifier leur numéro de téléphone avant de se connecter pour participer à un match. En seulement deux mois, Minerva a signalé plus de 250 000 comptes, dont 50 000 ont été bloqués.

Si les performances de Minerva continuent sur leurs lancées, il ne serait pas étonnant d'apprendre que certains éditeurs, touchés par les mêmes maux que FACEIT sur CSGO, puissent faire appel aux mêmes services, les communautés de League of Legends ou encore de Rocket League ne seraient pas contre.
Source : FACEIT
Smiley tranquille0 Smiley heureux0 Smiley amoureux2 Smiley effrayé0 Smiley triste0 Smiley démon2

Ces articles pourraient vous intéresser

CSGO : Les joueurs abusant du chat vocal seront mutés automatiquement
CSGO 12 février 2020

CSGO : Les joueurs abusant du chat vocal seront mutés automatiquement

Valve a indiqué dans une publication sur son site officiel que les joueurs abusant du chat vocal lors des parties seront sanctionnés par une mise en sourdine automatique.
CSGO bat son nombre de joueurs simultanés
CSGO 10 février 2020

CSGO bat son nombre de joueurs simultanés

Près de huit ans après sa sortie, Counter-Strike: Global Offensive continue de battre ses records. Le nombre d'utilisateurs simultanés sur le FPS a ainsi été battu, dépassant la barre des 900 000.
CSGO : Mirage, Cache et Train modifiées dans la màj du 29 janvier, tous les détails
CSGO 30 janvier 2020

CSGO : Mirage, Cache et Train modifiées dans la màj du 29 janvier, tous les détails

Après plusieurs semaines sans proposer de mise à jour digne de ce nom, Valve revient en proposant une multitude d'ajustements et de corrections. Retrouvez le contenu de la mise à jour de ce 29 janvier en français dans notre article.

0 commentaire