Recomandări cheie
- ToxMod, de la compania Modulate din Boston, pretinde că detectează și acționează împotriva vorbirii perturbatoare în mod automat, în timp real.
- În loc să fie restricționat de un limbaj simplu, ToxMod folosește învățarea automată pentru a descoperi elemente intangibile precum emoția, volumul și ritmul.
- ToxMod este proiectat în prezent pentru a fi utilizat cu camere de chat în joc, dar nu există niciun motiv pentru care să nu poată ajunge pe canalul dvs. Twitch.
O companie din Boston folosește învățarea automată pentru a crea ceea ce consideră ca fiind primul serviciu de moderare vocal din lume, care poate face diferența între ceea ce se spune și ceea ce înseamnă.
ToxMod este o încercare de a rezolva paradoxul moderării oricărui spațiu deschis de pe Internet; nu există destui oameni care să țină pasul cu cererea, dar algoritmii, filtrele și un sistem de raportare nu înțeleg nuanțele.
Cu baza de date ToxMod, poate urmări factori din vorbirea jucătorilor, cum ar fi emoția și volumul, ceea ce îl ajută să facă distincția între o pierdere de moment și un model de comportament. A fost anunțat recent ca o completare la jocul de fotbal american 7v7 Gridiron, aflat în prezent în Steam Early Access.
„Toată lumea știe că hărțuirea, discursul instigator la ură și toxicitatea în chatul vocal și jocurile sunt o problemă masivă. Acest lucru este înțeles în mod obișnuit”, a declarat Carter Huffman, director de tehnologie și co-fondator al Modulate, într-o întâlnire Google cu Lifewire. „Am putea să luăm caracteristicile pe care le extrageam prin această varietate de sisteme de învățare automată și să le unim într-un sistem care să țină cont de toate aceste cunoștințe de specialitate pe care le învățam de la comunitate.„
Salutăm noii noștri roboți moderatori
Modulate a lucrat la ToxMod din toamna trecută și l-a încorporat ca unul dintre cele trei servicii de bază ale companiei. De asemenea, oferă VoiceWear, un deghizator de voce alimentat de învățare automată și VoiceVibe, un serviciu de agregare care le permite utilizatorilor să afle despre ce discută oamenii din comunitățile lor.
Când ToxMod rulează într-un chat, acesta poate fi programat prin panoul de administrare Modulate pentru a efectua o varietate de acțiuni automate, cum ar fi emiterea de avertismente, dezactivarea sunetului jucătorilor sau ajustarea individuală a volumului.
Folosește un sistem de triaj în care instanța sa locală este prima care ia măsuri, înainte de a verifica cu serverele Modulate pentru confirmare. Apoi escaladează în cele din urmă până la punctul în care ar putea necesita intervenția umană. Trecând pe rând fiecare verificare, pe care Modulate o numește „porți de triaj”, ideea este că ToxMod oferă unei echipe mici de moderatori instrumentele cu care să modereze eficient o comunitate mult mai mare.
„Adevărul trist este că toată lumea a avut acea experiență, de a încerca să folosească chatul vocal pe orice platformă pe care ai fost și de a descoperi că, băiete, a fost o idee proastă”, a spus CEO-ul Modulate Mike Pappas într-un apel video cu Lifewire. „A putea intra și spune: „Acesta nu este Vestul Sălbatic. Există reguli.” Cred că este foarte important.”
Breaking the System
Bineînțeles, a doua sau a treia întrebare pe care trebuie să o întrebați despre ToxMod este cum să-l spargeți.
Cu multe sisteme automate de moderare, cum ar fi algoritmii care guvernează Twitter, este ușor să le joci împotriva unor persoane care nu-ți plac. Doar raportați-vă în masă ținta cu câteva conturi marionete și ei vor mânca în mod sigur o interdicție.
„La un nivel de bază, ToxMod nu trebuie să se bazeze pe acele rapoarte suplimentare ale jucătorilor”, a spus Pappas. „Este încă capabil să producă estimări solide ale infracțiunilor cărora trebuie [să acordăm] atenție. Nu trebuie să vă faceți griji cu privire la jucătorii care încearcă să joace sistemul, deoarece nu există cu adevărat nimic de jucat.
Toată lumea știe că hărțuirea, discursul instigator la ură și toxicitatea în chatul vocal și jocurile sunt o problemă masivă.
„Tot ceea ce ai control ca player este propriul tău sunet”, a continuat Pappas. „Cel mai rău lucru pe care îl poți face este să fii mai puțin rău din partea unei persoane, astfel încât să nu te semnalăm ca un actor rău, ceea ce aș spune că este ceva aproape de succesul misiunii.”
În general, atunci, ideea din spatele ToxMod este o încercare activă de recuperare. Mulți jucători în acest moment au suferit o formă de hărțuire din partea unor străini întâmplători pe canalele vocale deschise, variind de la insulte aleatorii până la amenințări active. Drept urmare, jucătorii tind să evite chatul vocal în general, preferând să renunțe la comoditatea acestuia în schimbul propriei liniști sufletești.
„Ceea ce ne așteptăm să vedem [sunt actorii răi petrecând] mult mai puțin timp în chatul vocal înainte de a fi găsiți și îndepărtați”, a spus Pappas.„Acest lucru are mai mult decât un impact liniar. Când toată lumea vede chatul vocal ca un loc mai sigur, mai mulți actori buni sunt dispuși să se întoarcă la chatul vocal și să încerce. Cred că totul poate evolua într-o direcție pozitivă.”