Recomandări cheie
- Software-ul automat de restricționare a vârstei YouTube este un motiv de îngrijorare pentru conținutul LGBTQ+ de pe platformă.
- Compania a fost afectată de controverse cu privire la creatorii de conținut LGBTQ+ care cimentează îndoielile.
- Prejudecățile în învățarea automată dă credință ideii că implementarea sa imperfectă a filtrelor ar putea restricționa accesul pe nedrept.
Cu o istorie de a viza în mod nedrept creatorii de conținut LGBTQ+ în procesul său de moderare, noua tehnologie bazată pe inteligență artificială a YouTube este văzută ca un următor pas îngrijorător pentru gigantul tehnologic.
Pe blogul oficial YouTube de săptămâna trecută, platforma de partajare a videoclipurilor a dezvăluit planuri de a lansa un nou software automat pentru a „aplica în mod mai consecvent restricțiile de vârstă” pentru videoclipurile considerate neadecvate pentru spectatorii mai tineri.
Motivat de preocupările recente legate de copiii din aplicație, noul sistem se bazează pe software-ul de inteligență artificială de învățare automată, cu capacitatea de a renunța la moderatorii umani pentru un proces mai automat. Problema? Sistemele automate YouTube au fost acuzate că au în evidență conținutul și creatorii LGBTQ+ pur și simplu pentru existență.
Chiar dacă nu este rău intenționat, ceea ce nu cred că este, este o lipsă de intervenție din partea diverselor voci sau cel puțin o lipsă de respect.
„Învățarea automată este informată și creată de oameni și este posibil să existe acele părtiniri inerente sau învățate de mașina în sine”, a declarat YouTuber Rowan Ellis într-un interviu telefonic cu Lifewire. „Prejudecățile sale în ceea ce privește conținutul [LGBTQ+] a fost evidentă în experiențele anterioare ale YouTuberilor [LGBTQ+] și nu am văzut dovezi că s-a făcut ceva pentru a împiedica acest lucru.„
Copilule, acum avem sânge rău
Ellis este o YouTuber care creează conținut educațional cu o tendință feministă și queer, iar în 2017 a publicat un videoclip despre modul restricționat al companiei. Ca o incursiune inițială în moderarea automată a conținutului, acest mod a permis utilizatorilor să pre-evalueze opțional „conținutul potențial matur” din sugestiile și recomandările de căutare.
Adunând peste 100.000 de vizionări, ea crede că a existat un efort conștient de a-și exclude canalul de la restricție din cauza opoziției sale vocale față de excesele noului pas YouTube către moderare. Alți utilizatori de pe platformă nu au fost atât de norocoși și au făcut ca YouTube să cunoască acest lucru.
Un proces colectiv împotriva YouTube a fost intentat în august 2019 de un grup de opt creatori LGBTQ+ care au acuzat compania din Silicon Valley că restricționează producătorii și conținutul video queer și trans. Procesul susține că site-ul folosește „reglementare ilegală a conținutului, distribuție și practici de monetizare care stigmatizează, restricționează, blochează, demonetizează și dăunează financiar reclamanților LGBT și comunității LGBT mai extinse.„Încă își face drum prin tribunalele din California.
Învățarea automată este informată și creată de oameni și este posibil să existe acele părtiniri inerente sau învățate de mașina în sine.
În iunie a aceluiași an, platforma a primit o atenție mare a presei după ce a refuzat să-l mustre pe popularul comentator conservator Steven Crowder pentru o campanie de hărțuire homofobă de luni de zile împotriva jurnalistului și gazdei Vox Carlos Maza. Acest lucru a cimentat ceea ce Ellis a spus că este un model cu platforma online de ignorare a provocărilor unice cu care se confruntă creatorii queer. Lipsa de încredere a creatorilor LGBTQ+ în capacitatea YouTube de a se prezenta în fața lor nu este lipsită de merit.
„Nu cred că au înțeles nevoia de a exista transparență în ceea ce privește problemele sociale și asigurarea egalității”, a spus ea. „Există încă copii din întreaga lume care au crescut cu ideea că a fi gay este greșit, iar când încep să pună la îndoială această credință, dar o găsesc închisă printr-o căutare sau o restricție sigură, aceasta va întări ideea că este greșit, nepotrivit, adult, pervers și murdar.„
Învățare automată eșuată
Cu istoria sa sordidă în ceea ce privește creatorii de conținut LGBTQ+ pe platforma sa, grijile cu privire la implementarea capacității software-ului de învățare automată de a discerne norme mai mari încă planează. Don Heider, director executiv la Centrul Markkula pentru Etică Aplicată, sugerează că potențialul de prostie este un risc prea mare pentru a juca de noroc.
„Este greu de crezut că AI poate guverna în mod eficient conținutul din mai multe țări cu norme și standarde culturale diferite”, a scris el într-un interviu prin e-mail. „AI este prea des văzută ca răspunsul la întrebări complexe. În acest moment, AI și modul în care este creată se luptă să facă față chiar și sarcinilor simple, cu atât mai puțin cu orice moderare a conținutului cu orice nivel de complexitate.”
YouTube a decis să utilizeze tehnologia AI din cauza lipsei de moderare consecventă a moderatorilor umani, potrivit blogului său. Creșterea utilizării filtrelor computerizate pentru a elimina videoclipurile considerate nepotrivite a devenit o normă, iar implementarea acelorași proceduri pentru politicile sale de restricție de vârstă este văzută ca un următor pas logic.
Fiindcă o companie care încearcă să-și îmbunătățească treptat procesele după critici de lungă durată cu privire la relația sa cu consumatorii copii, această decizie nu este o surpriză.
Nu cred că au înțeles nevoia de a exista transparență în ceea ce privește problemele sociale și asigurarea egalității.
Copiii au devenit un grup demografic cheie pentru site-ul de partajare video. În august, firma de analiză digitală a videoclipurilor Tubular a descoperit că, în afară de videoclipurile muzicale, conținutul destinat copiilor se afla în fruntea listei de sfârșit de lună pentru cele mai vizionate videoclipuri pe YouTube.
Interesul companiei de a proteja această putere profitabilă și emergentă de pe platformă are sens. Cu toate acestea, instrumentele folosite pentru a impune această protecție rămân disconfortante pentru cei care s-au trezit deja în aval de procedurile de moderare ale companiei.
„Îngrijorarea mea este că va face mult rău și nu va proteja tinerii [LGBTQ+] care au nevoie de conținut informativ, sincer și onest pe care mulți YouTuberi [LGBTQ+] l-ar putea oferi, dar sunt semnalați în sistemul său ca nepotrivit", a spus Ellis.„Chiar dacă nu este rău intenționat, ceea ce nu cred că este, este o lipsă de contribuție din partea diverselor voci sau cel puțin o lipsă de respect.
"Vedem asta tot timpul în tehnologie. Când te uiți la recunoașterea facială care nu reușește să diferențieze diferite fețe negre sau când ne uităm la medicamente și vedem că medicamentele au fost testate doar pe un anumit sex. Acestea sunt conversații mai ample, iar YouTube nu este scutit de asta."