Recomandări cheie
- O nouă lucrare susține că inteligența artificială poate determina care proiecte de cercetare ar putea avea nevoie de mai multă reglementare decât altele.
- Face parte dintr-un efort tot mai mare de a descoperi ce fel de IA poate fi periculos.
-
Un expert spune că adevăratul pericol al inteligenței artificiale este că ar putea face oamenii muți.
Inteligenta artificiala (AI) ofera multe beneficii, dar si cateva pericole potentiale. Și acum, cercetătorii au propus o metodă prin care să țină cont de creațiile lor computerizate.
O echipă internațională spune într-o nouă lucrare că AI poate determina ce tipuri de proiecte de cercetare ar putea avea nevoie de mai multă reglementare decât altele. Oamenii de știință au folosit un model care combină concepte din biologie și matematică și face parte dintr-un efort tot mai mare de a descoperi ce fel de IA poate fi periculoasă.
„Desigur, în timp ce utilizarea periculoasă „științifico-fantastică” a IA poate apărea dacă decidem așa […], ceea ce face AI periculoasă nu este IA în sine, ci [cum o folosim]”, Thierry Rayna, președintele Technology for Change, de la École Polytechnique din Franța, a declarat pentru Lifewire într-un interviu prin e-mail. „Implementarea AI poate fi fie îmbunătățirea competențelor (de exemplu, întărește relevanța abilităților și cunoștințelor umane/lucrătorului), fie distrugerea competențelor, adică AI face abilitățile și cunoștințele existente mai puțin utile sau depășite.”
Păstrarea filelor
Autorii lucrării recente au scris într-o postare că au construit un model pentru a simula competiții ipotetice de inteligență artificială. Au rulat simularea de sute de ori pentru a încerca să prezică cum ar putea funcționa cursele AI din lumea reală.
„Variabila pe care am găsit-o a fi deosebit de importantă a fost „lungimea” cursei – timpul necesar curselor noastre simulate pentru a-și atinge obiectivul (un produs AI funcțional),” au scris oamenii de știință. „Când cursele cu inteligență artificială și-au atins obiectivul rapid, am descoperit că concurenții pe care i-am codificat să treacă mereu cu vederea măsurile de siguranță au câștigat întotdeauna.”
În schimb, cercetătorii au descoperit că proiectele AI pe termen lung nu erau la fel de periculoase, deoarece câștigătorii nu erau întotdeauna cei care treceau cu vederea siguranța. „Având în vedere aceste constatări, va fi important ca autoritățile de reglementare să stabilească cât de mult vor dura diferite curse AI, aplicând reglementări diferite în funcție de intervalele de timp așteptate”, au scris ei. „Descoperirile noastre sugerează că o singură regulă pentru toate cursele cu inteligență artificială – de la sprinturi la maratoane – va duce la niște rezultate care sunt departe de a fi ideale.”
David Zhao, directorul general al Coda Strategy, o companie care oferă consultanță în domeniul AI, a declarat într-un interviu prin e-mail cu Lifewire că identificarea AI periculoasă poate fi dificilă. Provocările constă în faptul că abordările moderne ale inteligenței artificiale au o abordare de învățare profundă.
„Știm că învățarea profundă produce rezultate mai bune în numeroase cazuri de utilizare, cum ar fi detectarea imaginilor sau recunoașterea vorbirii”, a spus Zhao. „Cu toate acestea, este imposibil pentru oameni să înțeleagă cum funcționează un algoritm de învățare profundă și cum își produce rezultatul. Prin urmare, este dificil de spus dacă o IA care produce rezultate bune este periculoasă, deoarece este imposibil pentru oameni să înțeleagă ce se întâmplă. „
Software-ul poate fi „periculos” atunci când este utilizat în sisteme critice, care au vulnerabilități care pot fi exploatate de actori răi sau pot produce rezultate incorecte, a declarat Matt Shea, director de strategie la firma AI MixMode, prin e-mail. El a adăugat că AI nesigură ar putea duce și la clasificarea necorespunzătoare a rezultatelor, pierderea datelor, impactul economic sau deteriorarea fizică.
„Cu software-ul tradițional, dezvoltatorii codifică algoritmi care pot fi examinați de o persoană pentru a afla cum să astupe o vulnerabilitate sau să remedieze o eroare uitându-se la codul sursă”, a spus Shea.„Cu AI, totuși, o mare parte a logicii este creată din datele în sine, codificate în structuri de date precum rețelele neuronale și altele asemenea. Acest lucru are ca rezultat sisteme care sunt „cutii negre” care nu pot fi examinate pentru a găsi și remedia vulnerabilități. ca software-ul normal."
Dangers Ahead?
În timp ce AI a fost prezentată în filme precum The Terminator ca o forță malefica care intenționează să distrugă umanitatea, pericolele reale ar putea fi mai prozaice, spun experții. Rayna, de exemplu, sugerează că AI ne-ar putea face mai proști.
„Poate priva oamenii de a-și antrena creierul și de a-și dezvolta expertiza”, a spus el. „Cum poți deveni un expert în capital de risc dacă nu îți petreci cea mai mare parte a timpului citind aplicațiile startup-urilor? Mai rău, AI este notoriu „cutie neagră” și puțin explicabilă. A nu ști de ce a fost luată o anumită decizie AI înseamnă că va fi foarte puțin de învățat din ea, la fel cum nu poți deveni un alergător expert conducând pe stadion cu un Segway.„
Este greu de spus dacă o IA care produce rezultate bune este periculoasă, deoarece este imposibil pentru oameni să înțeleagă ce se întâmplă.
Poate cea mai imediată amenințare din partea inteligenței artificiale este posibilitatea ca aceasta să ofere rezultate părtinitoare, a declarat Lyle Solomon, un avocat care scrie despre implicațiile juridice ale inteligenței artificiale, într-un interviu prin e-mail.
„AI poate ajuta la adâncirea diviziunilor societale. AI este construită în esență din date colectate de la ființe umane”, a adăugat Solomon. „[Dar], în ciuda datelor vaste, conține subseturi minime și nu ar include ceea ce crede toată lumea. Astfel, datele colectate din comentarii, mesaje publice, recenzii etc., cu părtiniri inerente, vor face ca AI să amplifice discriminarea și ura.”