Recomandări cheie
- Un nou instrument software permite inteligenței artificiale să monitorizeze comentariile de pe internet pentru discursuri instigatoare la ură.
- AI este necesar pentru a modera conținutul de pe internet din cauza volumului enorm de material care depășește capacitățile umane.
- Dar unii experți spun că monitorizarea AI a vorbirii ridică probleme legate de confidențialitate.
Pe măsură ce discursul instigator la ură online crește, o companie spune că ar putea avea o soluție care nu se bazează pe moderatori umani.
Un startup numit Spectrum Labs oferă furnizorilor de platforme tehnologie de inteligență artificială pentru a detecta și închide schimburile toxice în timp real. Dar experții spun că monitorizarea AI ridică și probleme de confidențialitate.
„Monitorizarea AI necesită adesea analizarea modelelor în timp, ceea ce necesită păstrarea datelor”, a declarat David Moody, asociat senior la Schellman, o companie de evaluare a conformității securității și confidențialității, într-un interviu prin e-mail pentru Lifewire. „Aceste date pot include date pe care legile le-au semnalat drept date de confidențialitate (informații de identificare personală sau PII).”
Mai multe discursuri instigatoare
Spectrum Labs promite o soluție de în altă tehnologie la vechea problemă a discursului instigator la ură.
„În medie, ajutăm platformele să reducă eforturile de moderare a conținutului cu 50% și să creștem de 10 ori detectarea comportamentelor toxice”, susține compania pe site-ul său.
Spectrum spune că a colaborat cu institute de cercetare cu experiență în anumite comportamente dăunătoare pentru a construi peste 40 de modele de identificare a comportamentului. Platforma de moderare a conținutului Guardian a companiei a fost construită de o echipă de oameni de știință și moderatori pentru a „sprijini protejarea comunităților de toxicitate.„
Există o nevoie din ce în ce mai mare de modalități de combatere a discursului instigator la ură, deoarece este imposibil ca un om să monitorizeze fiecare parte din traficul online, Dylan Fox, CEO-ul AssemblyAI, un startup care oferă recunoaștere a vorbirii și are clienți implicați în monitorizarea urii discurs, a declarat pentru Lifewire într-un interviu prin e-mail.
„Există aproximativ 500 de milioane de tweet-uri pe zi numai pe Twitter”, a adăugat el. „Chiar dacă o persoană ar putea verifica un tweet la fiecare 10 secunde, Twitter ar trebui să angajeze 60 de mii de oameni pentru a face acest lucru. În schimb, folosim instrumente inteligente precum AI pentru a automatiza procesul.”
Spre deosebire de un om, AI poate funcționa 24/7 și poate fi mai echitabil, deoarece este conceput pentru a-și aplica regulile în mod uniform tuturor utilizatorilor, fără a interfera cu convingerile personale, a spus Fox. Există, de asemenea, un cost pentru acele persoane care trebuie să monitorizeze și să modereze conținutul.
„Pot fi expuși la violență, ură și acte sordide, care pot dăuna sănătății mintale a unei persoane”, a spus el.
Spectrum nu este singura companie care încearcă să detecteze automat discursul instigator la ură online. De exemplu, Center Malaysia a lansat recent un instrument de urmărire online conceput pentru a găsi discursurile instigatoare la ură în rândul internauților din Malaezia. Software-ul pe care l-au dezvoltat, numit Tracker Benci, folosește învățarea automată pentru a detecta discursul instigator la ură online, în special pe Twitter.
Provocarea este cum să creați spații în care oamenii se pot implica cu adevărat unii cu alții în mod constructiv.
Preocupări privind confidențialitatea
În timp ce soluțiile tehnologice precum Spectrum ar putea combate discursul instigator la ură online, ele ridică și întrebări despre cât de mult ar trebui să facă computerele de poliție.
Există implicații privind libertatea de exprimare, dar nu doar pentru vorbitorii ale căror postări ar fi eliminate ca discurs instigator la ură, a declarat Irina Raicu, director de etică a internetului la Centrul Markkula pentru Etică Aplicată de la Universitatea Santa Clara, într-un e-mail pentru Lifewire. interviu.
„Permiterea hărțuirii în numele „libertății de exprimare” a determinat țintele unui astfel de discurs (mai ales atunci când sunt adresate anumitor persoane) să nu mai vorbească – să abandoneze complet diverse conversații și platforme”, a spus Raicu.„Provocarea este cum să creați spații în care oamenii să se poată implica cu adevărat unii cu alții în mod constructiv.”
Monitorizarea vorbirii AI nu ar trebui să ridice probleme de confidențialitate dacă companiile folosesc informații disponibile public în timpul monitorizării, a spus Fox. Cu toate acestea, dacă compania cumpără detalii despre modul în care utilizatorii interacționează pe alte platforme pentru a pre-identifica utilizatorii problematici, acest lucru ar putea ridica probleme de confidențialitate.
„Poate fi cu siguranță o zonă puțin gri, în funcție de aplicație”, a adăugat el.
Justin Davis, CEO-ul Spectrum Labs, a declarat într-un e-mail pentru Lifewire că tehnologia companiei poate analiza între 2 și 5 mii de rânduri de date în fracțiuni de secundă. „Cel mai important, tehnologia poate reduce cantitatea de conținut toxic la care sunt expuși moderatorii umani”, a spus el.
Este posibil să fim în pragul unei revoluții în monitorizarea AI a vorbirii umane și a textului online. Progresele viitoare includ capacități mai bune de monitorizare independentă și autonomă pentru a identifica formele necunoscute anterior de discurs instigator la ură sau orice alte modele cenzurabile care vor evolua, a spus Moody.
AI va putea, de asemenea, în curând să recunoască modele în modelele specifice de vorbire și să relaționeze sursele și celel alte activități ale acestora prin analize de știri, înregistrări publice, analiză a modelelor de trafic, monitorizare fizică și multe alte opțiuni, a adăugat el.
Dar unii experți spun că oamenii vor trebui să lucreze întotdeauna cu computere pentru a monitoriza discursul instigator la ură.
„Numai AI nu va funcționa”, a spus Raicu. „Trebuie să fie recunoscut ca un instrument imperfect care trebuie folosit împreună cu alte răspunsuri.”
Corectare 1/25/2022: S-a adăugat citat de la Justin Davis în al 5-lea paragraf de la sfârșit pentru a reflecta un e-mail post-publicare.