Call of Duty belauscht jetzt eure Voice-Chats, um toxische Spieler zu sperren

Veröffentlicht:

Call of Duty

Das toxisches Verhalten einiger Spieler in Multiplayer-Games nichts neues mehr sind, sollte eigentlich jeder wissen. Leider ist auch die Call of Duty Reihe nicht davon verschont geblieben, weshalb die Spieler immer mal wieder mit toxischen Gegnern und Mitspielern zu tun haben.

Das toxische Verhalten killt nicht nur den Spielspaß, sondern ist auch extrem nervtötend für jeden in der Lobby. Man hat zwar die Möglichkeit Spieler zu reporten, tatsächlich ändert das aber selten etwas an dem großen Problem. Wie bereits erwähnt, ist Call of Duty keine Ausnahme. Auch CS:GO, League of Legends, Valorant und Overwatch haben mit genau dem selben Problem zu kämpfen.

Jetzt hat Activision aber endlich zusätzliche Maßnahmen ergriffen, um die steigende Flut der Toxizität zu bekämpfen, die (leider) Hand in Hand mit dem Spielen geht. Call of Duty wird eine spezielle KI-Software einsetzen, um zu erkennen, wenn jemand beleidigend wird.

Call of Duty belauscht jetzt eure Voice-Chats

Das fragliche Tool heißt ToxMod und wird verwendet, um toxische Äußerungen wie Hassreden, diskriminierende Äußerungen, Belästigungen und vieles mehr in Echtzeit zu erkennen und zu unterbinden, und ist die einzige proaktive Lösung zur Moderation von Voice-Chats, die speziell für Spiele entwickelt wurde. Wenn ihr euch schon immer gefragt hast, ob jemand zuhört, dann ist eure Paranoia ab jetzt begründet.

Wie bereits erwähnt, kam ToxMod schon früher in Online-Spielen zum Einsatz. Allerdings waren dies viel kleinere Spiele, was bedeutet, dass Call of Duty das erste Mal sein wird, dass die Software von so vielen Spielern eingesetzt wird. Dies ist zwar ein großer Fortschritt im Kampf gegen toxisches Verhalten, aber die Software wird keine Strafen aussprechen. Dazu schrieb Activision klarstellen. „Das Call of Duty-Voice-Chat-Moderationssystem sendet nur Berichte über toxisches Verhalten, die nach der Art des Verhaltens und einem Schweregrad auf der Grundlage eines sich entwickelnden Modells kategorisiert werden. Activision legt fest, wie es Verstöße gegen die Sprachchat-Moderation durchsetzen wird.

KI gegen Toxizität – ein vielversprechendes System

Darüber hinaus wird jeder geflaggte Missbrauch nicht nur nach den verwendeten Wörtern, sondern auch nach dem Kontext beurteilt. Modulate erklärt: „Während das N-Wort üblicherweise als abscheuliche Beleidigung angesehen wird, haben viele Spieler, die sich als schwarz oder braun identifizieren, es zurückerobert und verwenden es positiv in ihren Gemeinschaften… Wenn jemand das N-Wort sagt und andere im Chat eindeutig beleidigt, wird das viel strenger bewertet als ein scheinbar zurückeroberter Gebrauch, der ganz natürlich in eine Unterhaltung integriert ist.

Ob sich das Tool als positiv herausstellt, lässt sich bis dato nur vermuten. Allerdings ist es lobenswert, das Activision aktiv gegen toxisches Verhalten in ihre Spielen vorgehen möchte. Wie bereits erwähnt ist vor allem die Call of Duty Reihe verseucht, was Toxizität betrifft.

Das neue Moderationstool wird ab dem 31. August in der Beta-Phase in Nordamerika eingeführt. Wann es für alle Nutzer verfügbar sein wird, wird Activision seinen Spielern mitteilen. Benehmt euch einfach, spielt nett und ihr solltet keine Probleme bekommen.

Hier seht ihr die News

Activision

Aktuell