Sztuczna inteligencja w Call of Duty będzie Was podsłuchiwać i zgłaszać

Call of Duty - AI będzie Was podsłuchiwać i zgłaszać
Newsy PC PS4 PS5 Xbox Series XOne

Activision nadal walczy z mową nienawiści i nieodpowiednim zachowaniem graczy. Teraz dodaje sztuczną inteligencję do gier z serii Call of Duty.

Activision lata temu wytoczyło wojnę cheaterom. Firma stara się jak może, aby uprzykrzyć im życie. Ostatnie ich pomysły zakładały m.in. publiczny lincz na czacie czy “zatrucie” ich gry za pomocą choćby halucynacji i zwidów. Odważnie, ale nie tylko hakerzy są wielkim problemem Call of Duty. W końcu czasami nawet bardziej wkurzać mogą toksyczni gracze.

Dlatego też korporacja chwali się nawiązaniem współpracy z Modulate, firmą zajmującą się rozwiązaniami związanymi ze sztuczną inteligencją. Jednym z ich największych osiągnięć jest stworzenie narzędzia ToxMod, które trafić ma właśnie do gier z cyklu CoD. Zgaduję, że pełnej implementacji doczeka się przy okazji premiery Call of Duty: Modern Warfare III.

Call of Duty w walce z mową nienawiści

Czymże jest ToxMod? W praktyce to narzędzie AI włączone cały czas w trakcie każdego meczu, które wysłuchuje na żywo czatu głosowego. Jest w stanie wykryć wszelką mowę nienawiści, obelgi, przekleństwa, seksizm i każdą inną zmorę dzisiejszych gier multiplayer.

Nowy system moderacji czatu głosowego w Call of Duty wykorzystuje ToxMod, technologię moderacji czatu głosowego opartą na sztucznej inteligencji firmy Modulate, do identyfikowania w czasie rzeczywistym i egzekwowania toksycznej mowy – w tym mowy nienawiści, dyskryminującego języka, nękania i innych. To nowe rozwiązanie wzmocni bieżące systemy moderacji prowadzone przez zespół Call of Duty ds. przeciwdziałania toksyczności, które obejmują filtrowanie tekstu w 14 językach dla tekstu w grze (czat i nazwy użytkowników), a także solidny system zgłaszania graczy w grze.

– czytamy w komunikacie na stronie CoD

Na szczęście AI samo w sobie nie będzie miało władzy nad tym, kogo zbanować. Należy to raczej traktować jako asystenta, który wirtualnie zgłosi każdą nieprawidłowość, nadając jej odpowiedni priorytet. Reszta należeć będzie już do ludzi, czyli do zespołu Ricochet zajmującego się takimi rzeczami w CoD-ach. Modulate szczyci się jednak tym, że ich narzędzie nie jest oparte wyłącznie na wyszukiwaniu słów kluczowych. Rozpoznaje też ton i intencje.

Podczas gdy słowo na “n” jest zwykle uważane za podłą obelgę, wielu graczy, którzy identyfikują się jako czarni lub brązowi, odzyskało je i używa go pozytywnie w swoich społecznościach… Jeśli ktoś powie słowo na “n” i wyraźnie obrazi innych na czacie, zostanie to ocenione znacznie surowiej niż to, co wydaje się być użyciem, które jest naturalnie włączone do rozmowy.

– chwali się Modulate

ToxMod ma więc nie wykluczać nikogo – AI niechlubnie słyną z tego, że potrafią być wręcz rasistowskie. Jednak o tym, czy narzędzie to faktycznie pomoże w walce z toksycznymi graczami, dowiemy się później. Na razie sztuczna inteligencja trafiła wyłącznie w formie testów na serwery Ameryki Północnej.

Artur Łokietek
O autorze

Artur Łokietek

Redaktor
Zamknięty w horrorach lat 80. specjalista od seriali, filmów i wszystkiego, co dziwne i niespotykane, acz niekoniecznie udane. Pała szczególnym uwielbieniem do dobrych RPG-ów i wciągających gier akcji. Ekspert od gier z dobrą fabułą, ale i koneser tych z gorszą. W przeszłości miłośnik PlayStation, obecnie skupiający się przede wszystkim na PC i relaksie przy Switchu.
Udostępnij:

Podobne artykuły

Zobacz wszystkie