Xbox meldet 450 Prozent mehr Spieler-Bestrafungen wegen „vulgärer“ Inhalte

Xbox geht weiter gegen giftige und missbräuchliche Spieler auf seinen Systemen vor und gibt bekannt, dass die Zahl der Konten, die für das Posten „vulgärer“ Inhalte gemaßregelt wurden, enorm gestiegen ist. Seit der Verbesserung des Moderationssystems hat es nach Angaben des Unternehmens einen 450-prozentigen Anstieg der „Durchsetzungsmaßnahmen“ bei solchen Inhalten gegeben, die vermutlich von der Löschung der Beiträge bis zur völligen Sperrung der Spieler reichen.

Dies geschieht auch vor dem Hintergrund, dass Xbox die Definition dessen, was als vulgäre Inhalte gilt, erweitert hat und nun auch „beleidigende Gesten, sexualisierte Inhalte und groben Humor“ einschließt. Xbox verteidigt diese verschärfte Mäßigungstaktik mit der Begründung, dass solche Inhalte andere Nutzer „vom eigentlichen Spielerlebnis ablenken“ und dass die meisten Spieler, die dieses Material gepostet haben, nur eine Verwarnung erhalten haben und nicht ganz von ihren Konten verbannt wurden.

Diese Informationen stammen aus der jüngsten Xbox-Mitteilung. Transparenzbericht über seine Moderationspraktiken. Darin beschreibt das Unternehmen, wie es versucht, eine „proaktivere“ Rolle bei der Durchsetzung seiner Geschäftsbedingungen einzunehmen und KI einzusetzen, um Material und Sprache zu erkennen, die in seinen Diensten verboten sind.

Siehe auch :  Destiny 2: Witch Queen startet heute mit 8 Bugs, die Sie kennen sollten

„Mit den Bedürfnissen der Spieler entwickeln sich auch unsere Werkzeuge weiter“, heißt es in dem Bericht. „Die Sicherheit unserer Spieler hat oberste Priorität – und um sichere Online-Erlebnisse zu fördern, werden wir weiterhin in Innovationen investieren, eng mit Branchenpartnern und Aufsichtsbehörden zusammenarbeiten und Feedback aus der Community einholen.“

80 Prozent der Inhaltsmeldungen wurden durch „proaktive Moderation“ bearbeitet, was bedeutet, dass sie entweder von einer KI oder einem Menschen entschieden werden konnten. Xbox geht nicht auf die Möglichkeit von Falschmeldungen ein, obwohl ein Großteil dieser Arbeit möglicherweise von einer KI durchgeführt wird. Wenn jedoch eine KI einen Inhalt als vulgär einstuft, müsste sich im nächsten Schritt ein Mensch den Inhalt ansehen, um sicherzustellen, dass es sich nicht um einen Fehler handelt. Es ist nur nicht klar, wie lange der Spieler darauf warten müsste, dass dies entschieden wird.

Wir haben zwar keine Informationen darüber, wie zuverlässig sich das System bewährt hat, aber es ist klar, dass Xbox mit den Ergebnissen zufrieden ist. Eines der von ihr verwendeten automatisierten Systeme, Community Sift, hat im vergangenen Jahr „20 Milliarden menschliche Interaktionen“ durchlaufen, so dass viele Berichte dieses Programm durchlaufen haben dürften.

Siehe auch :  Steam Deck wird aufgrund globaler Lieferkettenprobleme um zwei Monate verschoben

Angesichts des zunehmenden Drucks auf die Branche, Rassismus, Hassreden und Extremismus in der Gaming-Community auszumerzen, ist es nicht überraschend, dass Xbox gegen unangemessene Inhalte auf seinen Plattformen vorgeht. Am Wochenende hat eine neue Studie ergeben, dass 50 Prozent der Spieler beim Spielen von Online-Spielen mit Extremismus in Berührung kommen. Es wurde auch festgestellt, dass rassistische Sprache und Ikonographie in zahlreichen Spielen, von Call of Duty bis Roblox, durch die Filter schlüpfen. Alles in allem wurde die Branche aufgefordert, mehr zu tun, um Extremisten davon abzuhalten, Spiele als Rekrutierungsinstrument zu nutzen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert