Le harcèlement des femmes et les insultes sexistes dans le jeu vidéo en ligne et l’e-sport, c’est une longue histoire. Les joueurs masculins ne sont pas non plus épargnés par les comportements toxiques des internautes. Pour aider les plateformes à améliorer leur modération, la start-up Modulate a développé un outil de modération des messages vocaux, basé sur un algorithme d’intelligence artificielle qui scanne les contenus sur les chats des jeux en ligne. La société a annoncé le 16 août une levée de fonds de 30 millions de dollars en série A. Le tour de table est mené par Lakestar, et complété par Hyperplane Ventures, Everblue et Galaxy.
L’IA de la solution de Moderate, ToxMod, a été entraînée à partir d’une dizaine de millions d’heures de contenus audio. Elle est vouée à détecter les discours violents, inappropriés, pédophiles, la radicalisation, et suicidaires.
Comprendre le contenu et le contexte
“C’est un problème que tout le monde, dans l’industrie, a désespérément besoin de résoudre depuis longtempsexplique le PDG de Modulate dans une interview à GamesBeat. Le cœur du métier, c’est la modération vocale proactive. Plutôt que de se reposer uniquement sur les signaux des joueurs, il s’agit de s’occuper vraiment d’eux, d’identifier les mauvais comportements et de faire vraiment quelque chose pour les combattre, d’une manière plus globale.”
Moduler assure que son IA est capable de détecter le ton des messages – uniquement en anglais pour le moment -, afin de les contextualiser. La start-up communique sur une efficacité de la détection des infractions aux chartes des plateformes de 98 %, permettant aux équipes de modération de réagir 25 fois plus vite aux incidents. La start-up fondée en 2017 serait la première à proposer un outil de modération de ce genre.
Elle travaille déjà avec le jeu en ligne Rec Room, Gun Raiders, et Poker Stars VR. Modulate va utiliser une partie de sa levée de fonds pour recruter de nouveaux collaborateurs, qui atteindront le nombre de 27 fin août, at-elle précisé.