De ce noul software de profilare ridică probleme de confidențialitate

Cuprins:

De ce noul software de profilare ridică probleme de confidențialitate
De ce noul software de profilare ridică probleme de confidențialitate
Anonim

Recomandări cheie

  • Software-ul care folosește inteligența artificială pentru a profila oamenii ridică probleme legate de confidențialitate.
  • Cryfe combină tehnicile de analiză comportamentală cu inteligența artificială.
  • Compania chineză Alibaba s-a confruntat recent cu critici după ce ar fi spus că software-ul său ar putea detecta uigurii și alte minorități etnice.
Image
Image

Noul software alimentat de inteligență artificială, care este destinat angajatorilor să-și profileze angajații, ridică probleme legate de confidențialitate.

O nouă platformă software, numită Cryfe, combină tehnicile de analiză comportamentală cu inteligența artificială. Dezvoltatorul susține că, analizând indicii minuscule, software-ul poate dezvălui intențiile oamenilor în timpul interviurilor. Dar unii observatori spun că Cryfe și alte tipuri de software care analizează comportamentul pot invada confidențialitatea.

„Companiile se bazează din ce în ce mai mult pe inteligența artificială pentru profilare”, a declarat expertul în inteligență artificială Vaclav Vincale într-un interviu prin e-mail. „Dar chiar și oamenii care codifică acești algoritmi, cu atât mai puțin o persoană de asistență pentru clienți la care ajungeți la telefon, nu vă pot spune de ce fac o anumită recomandare.”

Mai mult decât cuvinte

Cryfe a fost dezvoltat de o companie elvețiană ai cărei angajați au fost instruiți de FBI în tehnici de profilare. „Cryfe, în orice comunicare interpersonală, nu doar ascultă cuvintele, ci identifică alte semnale emise de om, cum ar fi emoțiile, micro-expresiile și toate gesturile”, a spus Caroline Matteucci, fondatorul Cryfe, într-un interviu prin e-mail.

„În timpul recrutării, de exemplu, acest lucru ne permite să mergem să căutăm personalitatea reală a interlocutorului nostru.”

Matteucci a spus că confidențialitatea utilizatorilor este protejată, deoarece compania este transparentă cu privire la modul în care funcționează software-ul său. „Utilizatorul, înainte de a putea folosi platforma, trebuie să accepte condițiile generale”, a spus ea.

"Acolo se precizează că utilizatorul nu poate în niciun caz depune un interviu spre analiză fără a fi primit acordul scris al interlocutorului."

Cryfe nu este singurul software bazat pe inteligență artificială care își propune să analizeze comportamentul uman. Există și Humantic, care pretinde că analizează comportamentul consumatorilor. „Tehnologia inovatoare a lui Humantic prezice comportamentul tuturor fără ca aceștia să fie nevoiți să facă vreodată un test de personalitate”, potrivit site-ului web al companiei.

Image
Image

Compania pretinde că folosește inteligența artificială pentru a crea profiluri psihologice ale solicitanților pe baza cuvintelor pe care le folosesc în CV-uri, scrisori de intenție, profiluri LinkedIn și orice alt text pe care îl trimit.

Software-ul comportamental s-a confruntat cu provocări legale în trecut. În 2019, Bloomberg Law a raportat că Comisia pentru șanse egale în muncă (EEOC) a analizat cazuri de presupusă discriminare ilegală din cauza unor decizii asistate de algoritmi, legate de resursele umane.

„Va trebui să se rezolve toate acestea, deoarece viitorul recrutării este inteligența artificială”, a declarat avocatul Bradford Newman pentru Bloomberg.

Unii observatori au probleme cu companiile care folosesc software de urmărire a comportamentului, deoarece nu este suficient de precis. Într-un interviu, Nigel Duffy, lider global în inteligență artificială la firma de servicii profesionale EY, a declarat pentru InformationWeek că este tulburat de software-ul care utilizează chestionare pe rețelele sociale și detectează afectarea.

„Cred că există o literatură cu adevărat convingătoare despre potențialul de detectare a afectelor, dar înțeleg că modul în care este implementat adesea este destul de naiv”, a spus el.

"Oamenii fac concluzii că știința nu sprijină cu adevărat [cum ar fi] să decidă că cineva este un angajat potențial bun pentru că zâmbește mult sau decid că cuiva îi plac produsele tale pentru că zâmbește mult."

Companiile chineze profilează minorități

Urmărirea comportamentului ar putea avea și scopuri mai sinistre, spun unele grupuri pentru drepturile omului. În China, gigantul pieței online Alibaba a făcut recent furori după ce ar fi susținut că software-ul său ar putea detecta uiguri și alte minorități etnice..

The New York Times a raportat că afacerea de cloud computing a companiei avea software care scanează imagini și videoclipuri.

Dar chiar și oamenii care codifică acești algoritmi… nu v-au putut spune de ce fac vreo recomandare.

The Washington Post a mai raportat recent că Huawei, o altă companie chineză de tehnologie, a testat software care ar putea alerta forțele de ordine atunci când camerele sale de supraveghere au detectat fețe uiguri.

O cerere de brevet din 2018 a Huawei a susținut că „identificarea atributelor pietonilor este foarte importantă” în tehnologia de recunoaștere facială.„Atributele obiectului țintă pot fi sexul (masculin, femeie), vârsta (cum ar fi adolescenții, vârsta mijlocie, bătrânii) [sau] rasa (Han, Uyghur),” a spus aplicația.

Un purtător de cuvânt al Huawei a declarat pentru CNN Business că funcția de identificare a etniei nu ar trebui „nu ar fi trebuit să devină niciodată parte a aplicației.”

Utilizarea în plină expansiune a inteligenței artificiale pentru a sorta cantități mari de date va ridica neapărat probleme legate de confidențialitate. S-ar putea să nu știi niciodată cine sau ce te analizează data viitoare când mergi la un interviu de angajare.

Recomandat: