De ce contează asta
Scăderea numărului de videoclipuri cu conspirație promovate și monetizate automat pentru vizitatorii obișnuiți ai YouTube poate ajuta doar în lupta împotriva informațiilor false și a ideologiilor extremiste.
Un nou studiu arată că planul YouTube de a nu mai recomanda videoclipuri cu conspirație în feedul său video obișnuit funcționează.
Unele context: din cauza criticilor privind promovarea videoclipurilor cu conspirație (remedii miraculoase, pământul este plat etc.), YouTube a anunțat că va lua măsuri severe împotriva unor astfel de” conținut limită în ianuarie 2019.
Unde suntem acum: Cercetătorii de la Universitatea din California, Berkeley și Fundația Mozilla, au dezvoltat un sistem pentru a clasifica dacă un videoclip este „conspirativ”, apoi a emulat algoritmul YouTube Watch-Next pentru a filtra prin valoarea unui an a ceea ce algoritmul ar promova în mod activ. Marc Faddoula, Guillaume Chaslotb și Hany Farida au descoperit că există, de fapt, o reducere a numărului de videoclipuri etichetate cu conspirație recomandate în mod activ.
Reducerea generală a recomandărilor conspirative este o tendință încurajatoare.
Acest lucru nu este rezolvat: Deși cercetătorii sunt optimiști cu prudență, își dau seama că problema radicalizării prin astfel de videoclipuri este o problemă mai mare. „Cei cu o istorie de vizionare a conținutului conspirativ pot, cu siguranță, să experimenteze YouTube ca un balon de filtrare”, au scris ei, „întărit de recomandări personalizate și abonamente la canale.„
Concluzia: Cercetătorii observă, de asemenea, că designul algoritmului YouTube are un impact chiar mai mare asupra fluxului de informații decât, să zicem, un consiliu editorial la o media mai tradițională. priza. Un astfel de instrument puternic, susțin autorii acestui studiu, ar trebui să facă obiectul unei mai multe transparențe și testări publice acum și în viitor.