Recomandări cheie
- Companiile folosesc din ce în ce mai mult AI care explică modul în care obțin rezultate.
- LinkedIn și-a crescut recent veniturile din abonamente după ce a folosit AI care a prezis clienții riscați să se anuleze și a descris cum a ajuns la concluzii.
- Comisia Federală pentru Comerț a spus că AI care nu este explicabilă ar putea fi investigată.
Una dintre cele mai populare tendințe noi în software ar putea fi inteligența artificială (AI), care explică modul în care își realizează rezultatele.
Explainable AI dă roade, deoarece companiile de software încearcă să facă AI mai ușor de înțeles. LinkedIn și-a crescut recent veniturile din abonamente după ce a folosit AI care a prezis clienții care riscă să se anuleze și a descris cum a ajuns la concluzii.
„Intelligence artificială explicabilă se referă la posibilitatea de a avea încredere în rezultat și de a înțelege cum a ajuns mașina acolo”, a declarat Travis Nixon, CEO SynerAI și Chief Data Science, Financial Services la Microsoft, într-un interviu prin e-mail pentru Lifewire..
„„Cum?” este o întrebare adresată multor sisteme AI, mai ales atunci când se iau decizii sau se produc rezultate care nu sunt ideale”, a adăugat Nixon. „De la tratarea nedreptă a diferitelor rase până la confundarea unui chel cu o minge de fotbal, trebuie să știm de ce sistemele AI își produc rezultatele. Odată ce înțelegem „cum”, poziționează companiile și indivizii să răspundă „ce urmează?”.
Cunoașterea AI
AI sa dovedit a fi precis și face multe tipuri de predicții. Dar AI este adesea capabil să explice cum a ajuns la concluziile sale.
Și autoritățile de reglementare iau notă de problema explicabilității AI. Comisia Federală pentru Comerț a spus că AI care nu este explicabilă ar putea fi investigată. UE are în vedere adoptarea Legii privind inteligența artificială, care include cerințe ca utilizatorii să poată interpreta predicțiile AI.
Linkedin se numără printre companiile care cred că AI explicabilă poate ajuta la creșterea profiturilor. Înainte, agenții de vânzări LinkedIn se bazau pe cunoștințele lor și petreceau o cantitate imensă de timp verificând datele offline pentru a identifica ce conturi ar putea continua să facă afaceri și ce produse ar putea fi interesați în timpul următoarei reînnoiri a contractului. Pentru a rezolva problema, LinkedIn a lansat un program numit CrystalCandle care identifică tendințele și îi ajută pe vânzători.
Într-un alt exemplu, Nixon a spus că în timpul creării unui model de stabilire a cotelor pentru forța de vânzări a unei companii, compania sa a reușit să încorporeze AI explicabilă pentru a identifica ce caracteristici indică o nouă angajare de succes.
„Cu acest rezultat, conducerea acestei companii a fost capabilă să recunoască ce agenți de vânzări să pună pe „căiul rapid” și care aveau nevoie de coaching, toate înainte să apară probleme majore”, a adăugat el.
Multe utilizări pentru AI explicabilă
Explainable AI este utilizat în prezent ca o verificare intestinală pentru majoritatea cercetătorilor de date, a spus Nixon. Cercetătorii își execută modelul prin metode simple, se asigură că nimic nu este complet deranjat, apoi expediază modelul.
„Acest lucru se datorează, în parte, faptului că multe organizații din domeniul științei datelor și-au optimizat sistemele în jurul „timpului peste valoare” ca KPI, ceea ce duce la procese grăbite și modele incomplete”, a adăugat Nixon.
Mi-e îngrijorată că revenirea de la modelele iresponsabile ar putea restabili industria AI într-un mod serios.
De multe ori, oamenii nu sunt convinși de rezultate pe care AI nu le poate explica. Raj Gupta, directorul de inginerie la Cogito, a declarat într-un e-mail că compania sa a chestionat clienții și a constatat că aproape jumătate dintre consumatori (43%) ar avea o percepție mai pozitivă despre o companie și despre inteligența artificială dacă companiile ar fi mai explicite cu privire la utilizarea lor. a tehnologiei.
Și nu doar datele financiare primesc o mână de ajutor din AI explicabilă. Un domeniu care beneficiază de pe urma noii abordări sunt datele de imagine, unde este ușor să indicați ce părți ale unei imagini consideră algoritmul esențiale și unde este ușor pentru un om să știe dacă aceste informații au sens, Samantha Kleinberg, profesor asociat la Stevens. Institutul de Tehnologie și un expert în inteligență artificială explicabilă, a declarat pentru Lifewire prin e-mail.
„Este mult mai greu să faci asta cu un EKG sau un monitor continuu al glicemiei”, a adăugat Kleinberg.
Nixon a prezis că AI explicabilă va fi baza fiecărui sistem AI în viitor. Și fără AI explicabilă, rezultatele ar putea fi îngrozitoare, a spus el.
„Sper că vom progresa pe acest front suficient de departe pentru a considera AI explicabilă de la sine înțeles în anii următori și că ne uităm în urmă la acel moment astăzi surprinși că cineva ar fi suficient de nebun pentru a implementa modele pe care nu le-a înțeles, el a adăugat.„Dacă nu ne întâlnim cu viitorul în acest fel, îmi este îngrijorată că revenirea din partea modelelor iresponsabile ar putea restabili industria AI într-un mod serios.”