De ce software-ul pentru citirea emoțiilor v-ar putea încălca confidențialitatea

Cuprins:

De ce software-ul pentru citirea emoțiilor v-ar putea încălca confidențialitatea
De ce software-ul pentru citirea emoțiilor v-ar putea încălca confidențialitatea
Anonim

Recomandări cheie

  • Se pare că Zoom a spus că va folosi AI pentru a evalua sentimentul sau nivelul de implicare al unui utilizator.
  • Grupurile pentru drepturile omului îi cer companiei Zoom să-și regândească planul din cauza problemelor legate de confidențialitate și securitatea datelor.
  • Unele companii folosesc, de asemenea, software de detectare a emoțiilor în timpul interviurilor pentru a evalua dacă utilizatorul este atent.
Image
Image

Utilizarea tot mai mare a inteligenței artificiale (AI) pentru a monitoriza emoțiile umane provoacă îngrijorări legate de confidențialitate.

Organizațiile pentru drepturile omului îi cer companiei Zoom să-și încetinească planul de a introduce AI care analizează emoțiile în software-ul său de videoconferință. Compania a spus că va folosi AI pentru a evalua sentimentul sau nivelul de implicare al unui utilizator.

„Experții admit că analiza emoțiilor nu funcționează”, a scris consorțiul de grupuri pentru drepturile omului, inclusiv ACLU, într-o scrisoare către Zoom. „Expresiile faciale sunt adesea deconectate de emoțiile de dedesubt, iar cercetările au descoperit că nici măcar oamenii nu pot citi sau măsura cu exactitate emoțiile altora uneori. Dezvoltarea acestui instrument adaugă credibilitate pseudoștiinței și vă pune în joc reputația.”

Zoom nu a răspuns imediat la o solicitare de comentariu din partea Lifewire.

Urmărirea emoțiilor dvs

Conform articolului din Protocol, sistemul de monitorizare Zoom numit Q for Sales ar verifica rata timpului de convorbire al utilizatorilor, decalajul timpului de răspuns și schimbările frecvente ale difuzorului pentru a urmări cât de implicată este persoana respectivă. Zoom ar folosi aceste date pentru a atribui scoruri între zero și 100, scorurile mai mari indicând o implicare sau un sentiment mai mare.

Grupurile pentru drepturile omului susțin că software-ul ar putea discrimina persoanele cu dizabilități sau anumite etnii, presupunând că toată lumea folosește aceleași expresii faciale, modele de voce și limbaj corporal pentru a comunica. De asemenea, grupurile sugerează că software-ul ar putea reprezenta un risc pentru securitatea datelor.

Image
Image

„Colectarea datelor cu caracter personal profund ar putea face din orice entitate care implementează această tehnologie o țintă pentru istoria autorităților guvernamentale și a hackerilor rău intenționați”, potrivit scrisorii.

Julia Stoyanovich, profesor de informatică și inginerie la Universitatea din New York, a declarat pentru Lifewire într-un interviu prin e-mail că este sceptică cu privire la afirmațiile din spatele detectării emoțiilor.

„Nu văd cum poate lucra o astfel de tehnologie – expresia emoțională a oamenilor este foarte individuală, foarte dependentă de cultură și foarte specifică contextului”, a spus Stoyanovich.„Dar, poate și mai important, nu văd de ce am dori ca aceste instrumente să funcționeze. Cu alte cuvinte, am avea și mai multe probleme dacă ar funcționa bine. Dar poate chiar înainte de a ne gândi la riscuri, ar trebui întrebați-care sunt potențialele beneficii ale unei astfel de tehnologii?"

Zoom nu este singura companie care folosește software de detectare a emoțiilor. Theo Wills, directorul senior de confidențialitate la Kuma LLC, o companie de consultanță pentru confidențialitate și securitate, a declarat prin e-mail pentru Lifewire că software-ul pentru detectarea emoțiilor este folosit în timpul interviurilor pentru a evalua dacă utilizatorul este atent. Este, de asemenea, testat în industria transporturilor pentru a monitoriza dacă șoferii par somnoroși, pe platformele video pentru a măsura interesul și pentru a adapta recomandări și în tutoriale educaționale pentru a determina dacă o anumită metodă de predare este captivantă.

Wills a susținut că controversa în jurul software-ului de monitorizare a emoțiilor este mai mult o chestiune de etică a datelor decât de confidențialitate. Ea a spus că este vorba despre sistemul care ia decizii în lumea reală bazate pe bănuieli.

Cu această tehnologie, acum presupuneți motivul pentru care am o anumită expresie pe față, dar impulsul din spatele unei expresii variază foarte mult din cauza unor lucruri precum educația socială sau culturală, comportamentele de familie, experiențele trecute sau nervozitatea în acest moment”, a adăugat Wills. „Basarea algoritmului pe o presupunere este în mod inerent defectuoasă și potențial discriminatorie. Multe populații nu sunt reprezentate în populația pe care se bazează algoritmii, iar reprezentarea adecvată trebuie să fie prioritizată înainte ca aceasta să fie utilizată.”

Considerații practice

Problemele ridicate de software-ul de urmărire a emoțiilor pot fi atât practice, cât și teoretice. Matt Heisie, co-fondatorul Ferret.ai, o aplicație bazată pe inteligență artificială care oferă informații despre relații, a declarat într-un e-mail pentru Lifewire că utilizatorii trebuie să întrebe unde se face analiza fețelor și ce date sunt stocate. Studiul se face pe înregistrări de apeluri, procesate în cloud sau pe dispozitivul local?

De asemenea, Heisie a întrebat, pe măsură ce algoritmul învață, ce date colectează despre fața sau mișcările unei persoane care ar putea fi dezlegate de algoritm și folosite pentru a recrea datele biometrice ale cuiva? Stochează compania instantanee pentru a verifica sau valida învățarea algoritmului și utilizatorul este notificat cu privire la aceste noi date derivate sau imagini stocate care pot fi colectate din apelurile lor?

„Toate acestea sunt probleme pe care multe companii le-au rezolvat, dar există și companii care au fost zguduite de scandal atunci când se dovedește că nu au făcut acest lucru corect”, a spus Heisie. „Facebook este cel mai important caz al unei companii care și-a anulat platforma de recunoaștere facială din cauza preocupărilor legate de confidențialitatea utilizatorilor. Compania-mamă Meta retrage acum funcții AR de la Instagram în unele jurisdicții precum Illinois și Texas, din cauza legilor privind confidențialitatea referitoare la datele biometrice.”

Recomandat: