FACEIT tager nyt skridt i kampen mod toxicity
Lige siden starten på det første online Counter-Strike spil har flere samtaler gået på toxicity, som bedst kan oversættes til dårlig adfærd. Mange føler, at de kan få ødelagt deres spiloplevelse af toxicity, og det prøver FACEIT nu komme til livs.
FACEIT har tidligere introduceret 'FBI Index', hvor spillere blev målt på deres opførsel af andre spillere. Men FACEIT erkender nu, at det ikke har haft den ønskede effekt. Ønsket fra brugerbasen har længe været en admin på serveren, hvorfor FACEIT kiggede den vej, og så på hvad en admin helt generelt kan bidrage med i en kamp, hvilket FACEIT beskriver har følgende effekter:
- Straks at identificere dårlig adfærd i en kamp
- Sikre at der straks skrides til handling, hvis en spiller opfører sig dårligt
- Fortælle spillerne, hvad de gør galt, så de kan rette op på opførslen
Derfor har FACEIT i samarbejde med Google Cloud og Jigsaw bygget deres Artificial Intelligence program kaldet 'Minerva, the Admin AI'. FACEIT fortæller, at programmet i dets første og nuværende udgave er bygget til at forhindre chat-toxicity. Derfor vil programmet endnu ikke kunne straffe voice-toxicity.
FACEIT skriver, at programmet i dets første måneder har analyseret mere end 200 millioner chat beskeder, og hele 7 millioner af disse blev markeret som toxic. På halvanden måned udsendte Minerva 90.000 advarsler og 20.000 bans til FACEIT-brugere.
For at forhindre, at folk med flere FACEIT-kontoer blot vil skifte bruger, har FACEIT ligeledes lanceret en SMS-bekræftigelse. Det betyder, at man kun kan have sit telefonnummer tilknyttet én bruger, og man skal kunne verificere sig via SMS, før man kan starte en kamp.
FACEIT skriver til sidst, at de vil fortsætte intenst med at udvikle på Minerva, der i løbet af de kommende uger vil få flere nye hjælpeprogrammer, der skal gøre programmet endnu bedre. Du kan læse mere om Minerva og FACEITs opdatering her.