Nowy system moderacji czatu głosowego oparty na sztucznej inteligencji trafia do Call of Duty. Activision rozpoczęło jego beta testy w Ameryce Północnej. System został dodany do Call of Duty: Modern Warfare 2 oraz Warzone 2.0. Globalnie nowa technologia będzie wdrożona wraz z premierą Call of Duty: Modern Warfare 3 w listopadzie.
Nowy system moderacji czatu głosowego w Call of Duty wykorzystuje ToxMod, technologię moderacji czatu głosowego opartą na sztucznej inteligencji od Modulate, do identyfikowania w czasie rzeczywistym i egzekwowania toksycznej mowy – w tym mowy nienawiści, dyskryminującego języka czy nękania.
To nowe rozwiązanie wzmocni bieżące systemy moderacji prowadzone przez zespół Call of Duty ds. przeciwdziałania toksyczności, które obejmują filtrowanie tekstu w 14 językach dla tekstu w grze (czat i nazwy użytkowników), a także solidny system zgłaszania graczy w grze.
Activision, twórcy serii Call of Duty
Activision opublikowało post blogowy, gdzie dokładniej opisano nowy system. Od czasu wydania Call of Duty: Modern Warfare 2, deweloperzy ograniczyli czat głosowy lub tekstowy dla ponad miliona kont. Naruszyły one kodeks postępowania z gry.
Czy nowy system moderacji czatu głosowego z Call of Duty przyniesie oczekiwane skutki?
Activision twierdzi, że 20% graczy nie popełniło ponownie żadnego wykroczenia po otrzymaniu pierwszego ostrzeżenia. Pozostałe osoby wciąż nadużywające czatu dostały odpowiednie blokady. Nowy system oparty o sztuczną inteligencję powinien znacznie szybciej wykrywać naruszenia regulaminu. Dzięki temu Call of Duty ma stać się po prostu „lepszym miejscem”.
Modern Warfare 3 zostało zaprezentowane podczas ostatniej konferencji Gamescom. W tej grze system moderacji czatu będzie wprowadzony globalnie. Obecne beta testy mają pomóc twórcom przy dopracowywaniu technologii.