Cum îi poate răni pe adolescenți prejudecățile algoritmice

Cuprins:

Cum îi poate răni pe adolescenți prejudecățile algoritmice
Cum îi poate răni pe adolescenți prejudecățile algoritmice
Anonim

Recomandări cheie

  • Prejudecățile algoritmice sunt dăunătoare adolescenților care petrec mult timp pe internet, spun experții.
  • Utilizatorii Twitter au întâmpinat recent o problemă în care fețele negre au fost eliminate în favoarea celor albe.
  • Creierul în curs de dezvoltare al adolescenților poate fi deosebit de susceptibil la efectele dăunătoare ale părtinirii algoritmice, spun cercetătorii.
Image
Image

Prejudecățile introduse în unele tehnologii, cunoscute sub numele de părtinire algoritmică, pot fi dăunătoare pentru multe grupuri, dar experții spun că este dăunătoare în special adolescenților.

Prejudecățile algoritmice, atunci când sistemele informatice arată rezultate prejudiciate, este o problemă în creștere. Utilizatorii Twitter au găsit recent un exemplu de părtinire pe platformă, când un algoritm de detectare a imaginii care decupează fotografiile tăia fețele negre în favoarea celor albe. Compania și-a cerut scuze pentru problemă, dar nu a lansat încă o remediere. Este un exemplu al părtinirii cu care se confruntă adolescenții atunci când intră online, lucru pe care îl fac mai mult decât orice altă grupă de vârstă, spun experții.

„Cei mai mulți adolescenți nu știu că companiile de social media le au pentru a promova un anumit conținut pe care cred că le va plăcea utilizatorilor [pentru] pentru a-i determina să rămână cât mai mult posibil pe platformă”, dr. Mai- Ly Nguyen Steers, profesor asistent la Școala de Nursing de la Universitatea Duquesne, care studiază utilizarea rețelelor sociale în rândul adolescenților/studenților, a declarat într-un interviu prin e-mail.

„Chiar dacă există un anumit nivel de conștientizare cu privire la algoritm, efectul de a nu obține suficiente aprecieri și comentarii este încă puternic și poate afecta stima de sine a adolescenților”, a adăugat Steers.

Dezvoltarea creierului

Prejudecățile algoritmice pot afecta adolescenții în moduri neprevăzute, deoarece cortexul lor prefrontal este încă în curs de dezvoltare, a explicat Mikaela Pisani, Chief Data Scientist la Rootstrap, într-un interviu prin e-mail.

Efectul de a nu primi suficiente aprecieri și comentarii este încă puternic și poate afecta stima de sine a adolescenților.

„Adolescenții sunt deosebit de vulnerabili la fenomenul „Fabricii sociale”, unde algoritmii creează clustere societale pe platformele online, ceea ce duce la anxietate și depresie dacă nevoile adolescentului de aprobare socială nu sunt îndeplinite”, a spus Pisani. „Algoritmii se simplifică pe baza datelor imperfecte anterioare, ceea ce duce la o suprareprezentare a stereotipurilor în detrimentul unor abordări mai nuanțate ale formării identității.

„Din punctul de vedere mai larg, suntem, de asemenea, lăsați să ne punem la îndoială, ca societate, dacă vrem algoritmi care modelează călătoriile adolescenților noștri la vârsta adultă și sprijină acest sistem mai degrabă decât înăbușă creșterea personală individuală?”

Din cauza acestor probleme, există o nevoie tot mai mare de a ține cont de adolescenți atunci când proiectăm algoritmi, spun experții.

„Pe baza contribuțiilor specialiștilor în dezvoltare, a cercetătorilor în domeniul datelor și a susținătorilor tinerilor, politicile secolului XXI privind confidențialitatea datelor și designul algoritmic ar putea fi, de asemenea, construite ținând cont de nevoile speciale ale adolescenților”, Avriel Epps-Darling, doctorand. student la Harvard, a scris recent. „Dacă, în schimb, continuăm să minimizăm sau să ignorăm modurile în care adolescenții sunt vulnerabili la rasismul algoritmic, este posibil ca răul să se răspândească în generațiile viitoare.”

Combaterea părtinirii

Până nu există o soluție, unii cercetători încearcă să găsească modalități de a reduce daunele aduse tinerilor de algoritmi părtinitori.

„Intervențiile s-au concentrat pe a-i face pe adolescenți să recunoască modelele lor de rețele sociale le afectează negativ sănătatea mintală și încearcă să vină cu strategii pentru a atenua acest lucru (de exemplu, utilizarea redusă a rețelelor sociale),” a spus Steers.

„Unii dintre studenții pe care i-am intervievat au indicat că se simt obligați să genereze conținut pentru a rămâne „relevanti”, chiar dacă nu vor să iasă sau să posteze”, a continuat ea. „Cu toate acestea, ei simt că trebuie să genereze conținut pentru a-și menține legăturile cu adepții sau prietenii lor.”

Răspunsul final ar putea fi eliminarea părtinirii umane din computere. Dar, din moment ce programatorii sunt doar oameni, aceasta este o provocare grea, spun experții.

O soluție posibilă este dezvoltarea calculatoarelor care sunt descentralizate și programate pentru a uita lucrurile pe care le-au învățat, spune John Suit, Chief Technology Officer la firma de robotică KODA.

„Printr-o rețea descentralizată, datele și analiza acestor date sunt compilate și analizate din mai multe puncte”, a spus Suit într-un interviu prin e-mail. „Datele sunt colectate și procesate nu dintr-o singură procesare a minții AI în limitele algoritmului său, ci sute sau chiar mii.

„Pe măsură ce acele date sunt colectate și analizate, vechile „concluzii” sau datele superflue sunt uitate. Prin acest sistem, un algoritm care ar putea fi început cu prejudecăți va corecta în cele din urmă și va înlocui acea părtinire dacă se dovedește a fi greșit. „

Deși părtinirea poate fi o problemă veche, pot exista modalități de a o combate, cel puțin online. Proiectarea computerelor care să ne renunțe la prejudecăți este primul pas.

Recomandat: