AI poate ajunge din urmă cu raționamentul uman

Cuprins:

AI poate ajunge din urmă cu raționamentul uman
AI poate ajunge din urmă cu raționamentul uman
Anonim

Recomandări cheie

  • Cercetătorii au creat tehnici care le permit utilizatorilor să clasifice rezultatele comportamentului unui model de învățare automată.
  • Experții spun că metoda arată că mașinile ajung la nivelul abilităților de gândire ale oamenilor.
  • Avansele în inteligența artificială ar putea accelera dezvoltarea capacității computerelor de a înțelege limbajul și ar putea revoluționa modul în care interacționează inteligența artificială și oamenii.
Image
Image

O nouă tehnică care măsoară puterea de raționament a inteligenței artificiale (AI) arată că mașinile ajung din urmă pe oameni în abilitățile lor de a gândi, spun experții.

Cercetătorii de la MIT și IBM Research au creat o metodă care permite unui utilizator să ierarhească rezultatele comportamentului unui model de învățare automată. Tehnica lor, numită Interes comun, încorporează valori care compară cât de bine se potrivește gândirea unui model cu cea a oamenilor.

„Astăzi, IA este capabilă să atingă (și, în unele cazuri, să depășească) performanța umană în anumite sarcini, inclusiv recunoașterea imaginilor și înțelegerea limbajului”, Pieter Buteneers, director de inginerie în învățarea automată și AI la comunicații. compania Sinch, a declarat pentru Lifewire într-un interviu prin e-mail. „Prin procesarea limbajului natural (NLP), sistemele AI pot interpreta, scrie și vorbi limbi la fel de bine ca oamenii, iar AI își poate chiar ajusta dialectul și tonul pentru a se alinia cu semenii săi umani.”

Smart Artificial

AI produce adesea rezultate fără a explica de ce acele decizii sunt corecte. Iar instrumentele care îi ajută pe experți să înțeleagă raționamentul unui model oferă adesea doar informații, doar un exemplu la un moment dat. AI este de obicei antrenat folosind milioane de intrări de date, ceea ce face dificil pentru un om să evalueze suficiente decizii pentru a identifica modele.

Într-o lucrare recentă, cercetătorii au spus că interesul comun ar putea ajuta un utilizator să descopere tendințe în luarea deciziilor unui model. Și aceste informații ar putea permite utilizatorului să decidă dacă un model este gata să fie implementat.

„În dezvoltarea interesului comun, scopul nostru este să putem extinde acest proces de analiză, astfel încât să puteți înțelege la un nivel mai global care este comportamentul modelului dvs.”, Angie Boggust, co-autor al lucrării., se spune în comunicatul de presă.

Shared Interest folosește o tehnică care arată modul în care un model de învățare automată a luat o anumită decizie, cunoscută sub numele de metode de proeminență. Dacă modelul clasifică imagini, metodele de proeminentă evidențiază zone ale unei imagini care sunt importante pentru model atunci când acesta ia decizia. Shared Interest funcționează prin compararea metodelor de proeminență cu adnotările generate de oameni.

Cercetătorii au folosit interesul comun pentru a ajuta un dermatolog să determine dacă ar trebui să aibă încredere într-un model de învățare automată conceput pentru a ajuta la diagnosticarea cancerului din fotografiile cu leziuni ale pielii. Interesul comun ia permis dermatologului să vadă rapid exemple de predicții corecte și incorecte ale modelului. Dermatologul a decis că nu poate avea încredere în model, deoarece a făcut prea multe predicții bazate pe artefacte ale imaginii, mai degrabă decât pe leziuni reale.

„Valoarea aici este că, folosind interesul comun, putem vedea aceste modele care apar în comportamentul modelului nostru. În aproximativ o jumătate de oră, dermatologul a reușit să decidă dacă să aibă sau nu încredere în model și dacă îl implementează sau nu”, a spus Boggust.

Raționamentul din spatele deciziei unui model este important atât pentru cercetătorul de învățare automată, cât și pentru factorul de decizie.

Măsurarea progresului

Lucrările cercetătorilor MIT ar putea fi un pas semnificativ înainte pentru progresul AI către inteligența la nivel uman, a declarat Ben Hagag, șeful de cercetare la Darrow, o companie care utilizează algoritmi de învățare automată, a declarat că a declarat pentru Lifewire într-un interviu prin e-mail..

„Raționamentul din spatele deciziei unui model este important atât pentru cercetătorul de învățare automată, cât și pentru decident”, a spus Hagag. „Primul vrea să înțeleagă cât de bun este modelul și cum poate fi îmbunătățit, în timp ce cel din urmă vrea să dezvolte un sentiment de încredere în model, așa că trebuie să înțeleagă de ce a fost prezis rezultatul.”

Dar Hagag a avertizat că cercetarea MIT se bazează pe presupunerea că înțelegem sau putem adnota înțelegerea umană sau raționamentul uman.

„Cu toate acestea, există posibilitatea ca acest lucru să nu fie exact, așa că este nevoie de mai multă muncă pentru înțelegerea procesului decizional uman”, a adăugat Hagag.

Image
Image

Avansele în inteligența artificială ar putea accelera dezvoltarea capacității computerelor de a înțelege limbajul și ar putea revoluționa modul în care IA și oamenii interacționează, a spus Buteneers. Chatboții pot înțelege sute de limbi simultan, iar asistenții AI pot scana corpuri de text pentru răspunsuri la întrebări sau nereguli.

„Unii algoritmi pot identifica chiar dacă mesajele sunt frauduloase, ceea ce poate ajuta companiile și consumatorii deopotrivă să elimine mesajele spam”, a adăugat Buteneers.

Dar, a spus Buteneers, AI face încă niște greșeli pe care oamenii nu le-ar face niciodată. „Deși unii își fac griji că AI va înlocui locurile de muncă umane, realitatea este că vom avea întotdeauna nevoie de oameni care lucrează alături de roboții AI pentru a-i ajuta să-i țină sub control și să țină la distanță aceste greșeli, menținând în același timp o notă umană în afaceri”, a adăugat el..

Recomandat: