Recomandări cheie
- Twitter speră să remedieze ceea ce utilizatorii numesc părtinire rasială în software-ul lor de previzualizare a imaginii.
- Apelul gigantului tehnologic ar putea fi calculul cultural de care are nevoie industria pentru a aborda problemele de diversitate.
- Lipsa de diversitate a tehnologiei afectează eficacitatea progreselor sale tehnologice.
Twitter urmează să lanseze o investigație asupra algoritmului său de decupare a imaginilor, după ce a devenit un subiect în tendințe care a provocat o conversație mai amplă despre problemele de diversitate din industria tehnologiei.
Gloganul rețelelor sociale a făcut titluri după ce utilizatorii au descoperit părtiniri rasiale aparente în algoritmul său de previzualizare a imaginii. Descoperirea a avut loc după ce utilizatorul Twitter Colin Madland a folosit platforma pentru a semnala eșecul lui Zoom de a-și recunoaște colegii de culoare care au folosit tehnologia ecranului verde, dar într-un mare spectacol de ironie, a descoperit că algoritmul de decupare a imaginilor de pe Twitter s-a comportat în mod similar și a deprimat fețele negre.
Desigur, este o problemă uriașă pentru orice minoritate, dar cred că există și o problemă mult mai amplă.
Alți utilizatori au intrat în tendință, declanșând o serie de tweet-uri virale care arată că algoritmul a prioritizat în mod constant fețele albe și cu pielea mai deschisă, de la oameni la personaje de desene animate și chiar câini. Acest eșec indică o mișcare culturală mai mare în industria tehnologiei, care nu a reușit în mod constant să țină seama de grupurile minoritare, care s-a răspândit în partea tehnică.
„Face ca minoritățile să se simtă groaznice, de parcă nu ar fi importante și poate fi folosit pentru alte lucruri care ar putea provoca daune mai grave în continuare”, Erik Learned-Miller, profesor de informatică la Universitatea din Massachusetts, a spus într-un interviu telefonic.„Odată ce ați decis pentru ce poate fi folosit un software și toate daunele care pot apărea, atunci începem să vorbim despre modalitățile de a minimiza șansele ca acestea să se întâmple.”
Canary pe cronologia
Twitter folosește rețele neuronale pentru a decupa automat imaginile încorporate în tweet-uri. Algoritmul ar trebui să detecteze fețele pentru previzualizare, dar pare să aibă o părtinire albă vizibilă. Purtătorul de cuvânt al companiei, Liz Kelley, a trimis pe Twitter un răspuns la toate preocupările.
Kelley a postat pe Twitter: „Mulțumesc tuturor celor care au ridicat acest lucru. Am testat pentru părtinire înainte de a livra modelul și nu am găsit dovezi de părtinire rasială sau de gen în testarea noastră, dar este clar că avem mai multe analize pentru facem. Vom deschide sursă munca noastră, astfel încât alții să poată revizui și replica."
Coautor al cărții albe „Tehnologii de recunoaștere facială în sălbăticie: un apel pentru un oficiu federal”, Learned-Miller este un cercetător de frunte în excesele software-ului de învățare AI bazat pe față. El a discutat despre impactul negativ potențial al software-ului de învățare a imaginilor de ani de zile și a vorbit despre importanța creării unei realități în care aceste părtiniri să fie atenuate cât mai bine.
Mulți algoritmi pentru tehnologia de recunoaștere facială folosesc seturi de referință pentru date, adesea cunoscute sub denumirea de seturi de antrenament, care sunt o colecție de imagini utilizate pentru a ajusta comportamentul software-ului de învățare a imaginilor. În cele din urmă, permite AI să recunoască cu ușurință o gamă largă de fețe. Cu toate acestea, acestor seturi de referință le poate lipsi un grup divers, ceea ce duce la probleme precum cele experimentate de echipa Twitter.
„Cu siguranță, este o problemă uriașă pentru orice minoritate, dar cred că există și o problemă mult mai amplă”, a spus Learned-Miller. „Se referă la o lipsă de diversitate în sectorul tehnologic și la nevoia unei forțe de reglementare centralizate care să arate utilizările adecvate ale acestui tip de software puternic predispus la abuz și abuz.”
Tehnologia lipsită de diversitate
Twitter poate fi cea mai recentă companie tehnologică din tocatorul, dar aceasta este departe de a fi o problemă nouă. Domeniul tehnologic rămâne un domeniu predominant alb, dominat permanent de bărbați, iar cercetătorii au descoperit că lipsa diversității cauzează o reproducere a dezechilibrelor sistemice, istorice, în software-ul dezvoltat.
Într-un raport din 2019 al Institutului AI Now al Universității din New York, cercetătorii au descoperit că oamenii de culoare reprezintă mai puțin de 6% din forța de muncă la cele mai importante companii de tehnologie din țară. În mod similar, femeile reprezintă doar 26 la sută din lucrătorii din domeniu - o statistică mai mică decât ponderea lor în 1960.
Face minorităților să se simtă îngrozitor, ca și cum nu ar fi importante și poate fi folosit pentru alte lucruri care pot provoca daune mai grave în continuare.
La suprafață, aceste probleme de reprezentare pot părea banale, dar în practică, răul cauzat poate fi profund. Cercetătorii din raportul AI Now Institute sugerează că acest lucru se referă în mod cauzal la probleme cu software-ul care adesea nu ține cont de populațiile non-albi și non-masculin. Fie că este vorba despre dozatoarele de săpun cu infraroșu care nu detectează pielea mai închisă la culoare sau că software-ul AI de la Amazon nu reușește să diferențieze fețele feminine de cele ale omologilor lor masculini, eșecul de a aborda diversitatea în industria tehnologică duce la eșecul tehnologiei de a face față unei lumi diverse.
„Există o mulțime de oameni care nu s-au gândit la probleme și nu își dau seama cu adevărat cum aceste lucruri pot provoca rău și cât de semnificative sunt aceste daune”, a sugerat Learned-Miller despre învățarea imaginii AI. „Sperăm că numărul de oameni este în scădere!”