Recomandări cheie
- Un nou model de învățare automată halucinează o imagine a apariției unei propoziții într-o limbă pentru a ajuta traducerea.
- Sistemul AI, numit VALHALLA, a fost conceput pentru a imita modul în care oamenii percep limbajul.
- Noul sistem face parte dintr-o mișcare în creștere de utilizare a inteligenței artificiale pentru a înțelege limbajul.
Metoda umană de a vizualiza imagini în timp ce traduceți cuvinte ar putea ajuta inteligența artificială (AI) să vă înțeleagă mai bine.
Un nou model de învățare automată halucinează o imagine a cum arată o propoziție într-o limbă. Potrivit unui studiu recent, tehnica folosește apoi vizualizarea și alte indicii pentru a ajuta la traducere. Face parte dintr-o mișcare în creștere de a folosi AI pentru a înțelege limbajul.
„Cum vorbesc și scriu oamenii este unic, deoarece toți avem tonuri și stiluri ușor diferite”, a declarat Beth Cudney, profesor de analiză a datelor la Universitatea Maryville, care nu a fost implicată în cercetare, pentru Lifewire într-un interviu prin e-mail.. „Înțelegerea contextului este dificilă, deoarece este ca și cum ai trata date nestructurate. Aici este utilă procesarea limbajului natural (NLP). NLP este o ramură a AI care abordează diferențele în modul în care comunicăm folosind înțelegerea citirii automate. Diferența cheie în NLP, ca ramură a inteligenței artificiale, nu se concentrează pur și simplu pe semnificațiile literale ale cuvintelor pe care le rostim sau le scriem. Se uită la sensul.”
Du-te, intreaba-l pe Alice
Noul sistem AI, numit VALHALLA, creat de cercetători de la MIT, IBM și Universitatea din California din San Diego, a fost conceput pentru a imita modul în care oamenii percep limbajul. Potrivit oamenilor de știință, utilizarea informațiilor senzoriale, cum ar fi multimedia, împreună cu cuvinte noi și nefamiliare, cum ar fi cardurile cu imagini, îmbunătățește achiziția și reținerea limbajului.
Aceste sisteme cresc puterea chatbot-urilor care sunt în prezent doar antrenați și capabili de conversații specifice…
Echipa susține că metoda lor îmbunătățește acuratețea traducerii automate față de traducerea numai text. Oamenii de știință au folosit o arhitectură codificator-decodor cu două transformatoare, un tip de model de rețea neuronală potrivit pentru date dependente de secvență, cum ar fi limbajul, care poate acorda atenție cuvintelor cheie și semanticii unei propoziții. Un transformator generează o halucinație vizuală, iar celăl alt efectuează translație multimodală folosind ieșirile de la primul transformator.
„În scenariile din lumea reală, este posibil să nu aveți o imagine cu privire la propoziția sursă”, a spus Rameswar Panda, unul dintre membrii echipei de cercetare, într-un comunicat de presă. „Deci, motivația noastră a fost în esență: în loc să folosim o imagine externă în timpul inferenței ca intrare, putem folosi halucinația vizuală - abilitatea de a imagina scene vizuale - pentru a îmbunătăți sistemele de traducere automată?"
Înțelegerea AI
Cercetarea considerabilă se concentrează pe promovarea NLP, a subliniat Cudney. De exemplu, Elon Musk a co-fondat Open AI, care lucrează la GPT-3, un model care poate conversa cu un om și este suficient de priceput pentru a genera cod software în Python și Java.
Google și Meta lucrează, de asemenea, pentru a dezvolta IA conversațională cu sistemul lor numit LAMDA. „Aceste sisteme măresc puterea chatbot-urilor care în prezent sunt doar instruiți și capabili de conversații specifice, ceea ce probabil va schimba fața asistenței pentru clienți și a birourilor de asistență”, a spus Cudney.
Aaron Sloman, co-fondatorul CLIPr, o companie de tehnologie AI, a declarat într-un e-mail că modelele de limbă mari precum GPT-3 pot învăța din foarte puține exemple de instruire pentru a îmbunătăți rezumatele textului bazate pe feedback uman. De exemplu, a spus el, puteți oferi unui model de limbă mare o problemă de matematică și puteți cere AI să gândească pas cu pas.
„Ne putem aștepta la extragerea unor perspective și raționament mai mari din modelele de limbaj mari, pe măsură ce aflăm mai multe despre abilitățile și limitările lor”, a adăugat Sloman. „De asemenea, mă aștept ca aceste modele lingvistice să creeze procese mai asemănătoare omului, pe măsură ce modelatorii dezvoltă modalități mai bune de a ajusta modelele pentru anumite sarcini de interes.”
Profesorul de calcul din Georgia Tech, Diyi Yang, a prezis într-un interviu prin e-mail că vom vedea o utilizare mai mare a sistemelor de procesare a limbajului natural (NLP) în viața noastră de zi cu zi, de la asistenți personalizați bazați pe NLP la ajutor cu e-mailuri și apeluri telefonice, la sisteme de dialog cu cunoștințe pentru căutarea de informații în călătorii sau asistență medicală.„Precum și sisteme AI corecte care pot îndeplini sarcini și pot ajuta oamenii într-un mod responsabil și fără părtiniri”, a adăugat Yang.
Modele enorme de IA care folosesc trilioane de parametri precum GPT-3 și DeepText vor continua să lucreze la un singur model pentru toate aplicațiile lingvistice, a prezis Stephen Hage, inginer de învățare automată la Dialexa, într-un interviu prin e-mail. El a spus că vor exista și noi tipuri de modele create pentru utilizări specifice, cum ar fi cumpărăturile online comandate vocal.
„Un exemplu ar putea fi un cumpărător care spune „Arătați-mi acest fard de pleoape în albastru miez de noapte cu mai multă aureolă”, pentru a arăta acea nuanță pe ochii persoanei cu un anumit control asupra modului în care este aplicat”, a adăugat Hage.