Recomandări cheie
- Se pare că o companie de software colectează informații din rețelele sociale pentru a crea profiluri care pot fi folosite pentru a identifica persoanele care prezintă riscuri de securitate.
- Voyager Labs a încheiat un acord semnificativ cu o agenție guvernamentală japoneză.
- Dar experții avertizează că software-ul de predicție AI poate fi păcălit.
Informațiile dvs. online ar putea fi folosite pentru a prezice dacă ați putea comite o infracțiune.
Se pare că Voyager Labs colectează informații din rețelele sociale pentru a crea profiluri care pot fi folosite pentru a identifica persoanele care prezintă riscuri de securitate. Face parte dintr-un efort tot mai mare de a folosi inteligența artificială (AI) pentru a investiga potențialii criminali. Dar unii experți spun că mișcarea este plină de potențiale probleme.
„Este foarte greu de prezis comportamentul uman”, a declarat Matthew Carr, cercetător de securitate la Atumcell Group, pentru Lifewire într-un interviu prin e-mail. „Nu suntem nici măcar capabili să ne anticipăm propriul comportament, darămite al altcuiva. Cred că este posibil ca IA să poată fi folosită în viitor în acest scop, dar suntem departe de a putea face acest lucru în prezent. „
Crearea profilurilor
După cum a raportat recent The Guardian, departamentul de poliție din Los Angeles a analizat utilizarea software-ului de predicție a criminalității Voyager Lab. De asemenea, compania a anunțat că a încheiat un acord semnificativ cu o agenție guvernamentală japoneză.
Acordul japonez oferă agenției guvernamentale o platformă de investigare bazată pe inteligență artificială care analizează cantități masive de informații din orice sursă, inclusiv date deschise și profunde.
„Mă bucur că colaborăm în lupta împotriva terorii și criminalității”, a declarat Divya Khangarot, director general APAC la Voyager Labs, în comunicatul de presă. „Folosind soluțiile de inteligență de ultimă oră ale Voyager Lab, clienții noștri obțin capacități unice de a identifica și de a perturba în mod proactiv potențialele amenințări. Aducem straturi suplimentare de informații profunde de investigare folosind o combinație de AI, Machine Learning și OSINT pentru a descoperi trasee ascunse, informații încălcate, și actori răi."
Nu atât de inteligent?
Dar într-un interviu prin e-mail, Matt Heisie, co-fondatorul Ferret.ai, care folosește și inteligența artificială pentru a prezice infracțiunile, a pus la îndoială unele dintre afirmațiile Voyager Labs.
„Există o legătură la fel de clară între, să zicem, un dosar de arestare și un viitor comportament criminal, precum există o pată neagră pe un test și dezvoltarea unei tumori?” el a spus. „Gândiți-vă la toate potențialele confuzii care au intrat în acea arestare - în ce cartier locuia persoana, cantitatea și calitatea, chiar părtiniri, ale poliției din zona respectivă. Vârsta persoanei, sexul, aspectul fizic, toate acestea au efecte intersectate asupra probabilității ca persoana respectivă să aibă un dosar de arestare, complet separat de predispoziția reală de a comite infracțiunea pe care încercăm să o prevedem.”
Inculpații cu avocați mai buni sunt mai susceptibili de a suprima înregistrările pentru a deveni disponibile public, a spus Heisie. Unele jurisdicții limitează eliberarea de fotografii sau înregistrări de arestare pentru a proteja acuzatul.
"Computerul va învăța pe baza datelor pe care i le oferiți și va încorpora toate părtinirile care au intrat în acea colectare de date…"
„Toate acestea adaugă mai multă părtinire algoritmilor”, a adăugat el. „Computerul va învăța pe baza datelor pe care i le oferiți și va încorpora în procesul de învățare și interpretare toate părtinirile care au intrat în colectarea de date.”
Au existat mai multe încercări de a crea IA care prevăd criminalitatea și cu rezultate adesea scandaloase, a spus Heisie.
COMPAS, un algoritm folosit de forțele de ordine pentru a prezice recidiva, este adesea folosit pentru a stabili sentința și cauțiunea. S-a confruntat cu scandal din 2016 din cauza prejudecăților rasiale, prezicând că acuzații de culoare prezentau un risc mai mare de recidivă decât au avut de fapt și invers pentru inculpații albi.
Peste 1.000 de tehnologi și oameni de știință, inclusiv academicieni și experți în inteligență artificială de la Harvard, MIT, Google și Microsoft, s-au pronunțat în 2020 împotriva unei lucrări care susținea că cercetătorii au dezvoltat un algoritm care ar putea prezice criminalitatea bazat exclusiv pe un fața persoanei, spunând că publicarea unor astfel de studii întărește părtinirile rasiale preexistente în sistemul de justiție penală, a remarcat Heisie.
China este cea mai mare și cu cea mai rapidă creștere a pieței pentru acest tip de tehnologie, în primul rând datorită accesului pe scară largă la date private, cu peste 200 de milioane de camere de supraveghere și cercetare avansată AI concentrată pe această problemă de mulți ani, a spus Heisie.. Sisteme precum CloudWalk's Police Cloud sunt acum folosite pentru a prezice și urmări infractorii și pentru a identifica forțele de ordine.
„Cu toate acestea, sunt raportate părtiniri substanțiale și acolo”, a spus Heisie.
Heisie a adăugat că compania sa organizează cu atenție datele care intră și nu folosește fotografii sau înregistrări de arestare, „concentrându-se în schimb pe criterii mai obiective.”
„IA noastră a învățat din datele organizate, dar, mai important, învață și de la oameni, care ei înșiși analizează, organizează și evaluează înregistrările și ne povestesc despre interacțiunile lor cu alții”, a adăugat el. „De asemenea, menținem transparența deplină și accesul gratuit și public la aplicația noastră (de câte ori le putem lăsa în versiune beta) și salutăm informații despre procesele și procedurile noastre.”