Abilitatea Alexa de a imita rudele moarte poate fi cel mai înfiorător lucru vreodată

Cuprins:

Abilitatea Alexa de a imita rudele moarte poate fi cel mai înfiorător lucru vreodată
Abilitatea Alexa de a imita rudele moarte poate fi cel mai înfiorător lucru vreodată
Anonim

Recomandări cheie

  • Asistentul vocal Alexa de la Amazon poate copia o voce cu doar un minut de sunet.
  • Poți cere Alexa să citească o poveste cu vocea unui părinte decedat.
  • Este aceeași idee ca falsurile profunde, folosite doar pentru puterile binelui.
Image
Image

Cel mai recent truc al lui Amazon Alexa este să înveți să imite vocea unei persoane dragi moarte, astfel încât să poată vorbi cu tine de dincolo de mormânt.

Alexa are nevoie de doar un minut de sunet vorbit pentru a imita convingător o voce. Amazon îl prezintă ca pe o caracteristică reconfortantă care vă poate pune în legătură cu cei dragi, dar ar putea fi și o experiență destul de înfiorătoare. Și arată cât de ușor este să faci sunet fals profund, suficient de bun pentru a ne păcăli, chiar și atunci când vocea este una pe care o cunoaștem foarte bine.

„Amazon a intrat cu siguranță într-un teritoriu destul de unic și bizar, cu anunțul că Alexa va putea în curând să învețe și apoi să folosească vocea rudelor moarte în curând”, a declarat Bill Mann, expert în confidențialitate la Restore Privacy. Lifewire prin e-mail. „Pentru unii oameni, nu este deloc înfiorător. De fapt, poate fi destul de emoționant.”

Ghost in the Machine

Ca parte a conferinței sale anuale re:MARS, Amazon prezintă caracteristica într-un scurt videoclip. În ea, un copil o întreabă pe Alexa dacă bunica poate să-l citească în continuare „Vrăjitorul din Oz”, lucrarea din domeniul public favorită a fiecărui copil. Și este un moment destul de emoționant. Este greu să nu simți emoții umane când bunica începe să citească.

„Oamenii se luptă cu mortalitatea, în special în cultura occidentală. Timp de secole am încercat să găsim modalități de a-i aminti pe morți, de la măști mortale, la șuvițe de păr, la fotografii vechi, la vizionarea de filme vechi”, Andrew Selepak, un profesor de social media la Universitatea din Florida, a declarat pentru Lifewire prin e-mail. „Deepfakes folosesc cea mai recentă tehnologie pentru a crea o nouă mască mortuală a unei persoane dragi decedate. Dar, în funcție de perspectiva cuiva, este înfricoșător sau este o modalitate de a aminti și de a vă ține pe cineva iubit după ce acesta a murit?”

Dar un memento mori poate fi atât reconfortant, cât și înfiorător. Prietenul unui membru al familiei a murit, dar încă îl poți auzi vorbind. Nu ajută cu nimic faptul că Alexa are o istorie de comportament ciudat și uneori terifiant. În 2018, când editorialistul de opinie de la NYT Farhad Manjoo se ducea în pat, Amazon Echo „a început să se plângă, ca un copil care țipă într-un vis de film de groază.”

La scurt timp după, Amazon a recunoscut că Alexa râdea uneori în hohote, care, alături de adolescenți și pivnițe, este filmul de groază 101.

Se poate întreba doar cum te-ai simți dacă Alexa ar folosi aceleași trucuri în vocea bunicii.

Deep Fake

Aparenta ușurință cu care Alexa învață să imite o voce ne conduce la utilizări mai nefaste ale clonării vocii: falsuri profunde.

Image
Image

"Sunetul deepfake nu este nou, chiar dacă este puțin înțeles și puțin cunoscut. Tehnologia a fost disponibilă de ani de zile pentru a recrea vocea unui individ cu inteligență artificială și învățare profundă, folosind relativ puțin sunet real de la persoană, " spune Selepak. „O astfel de tehnologie ar putea fi, de asemenea, periculoasă și distructivă. O persoană deranjată ar putea recrea vocea unui fost iubit sau prietenă decedată și poate folosi noul sunet pentru a spune lucruri urâtoare și rănitoare.”

Asta doar în contextul Alexa. Sunetul fals profund ar putea merge mult dincolo de asta, convingându-i pe oameni că politicienii de seamă cred lucruri pe care ei nu le cred, de exemplu. Dar, pe de altă parte, cu cât ne obișnuim mai mult cu aceste falsuri profunde - poate sub forma acestor voci Alexa - cu atât vom fi mai sceptici față de falsurile mai nefaste. Apoi, din nou, având în vedere cât de ușor este să răspândești minciuni pe Facebook, poate că nu.

Amazon nu a spus dacă această funcție vine la Alexa sau dacă este doar o demonstrație de tehnologie. Sper să fie așa. Tehnologia este cea mai bună atunci când este folosită într-o manieră umanistă ca aceasta și, deși reacția ușoară este să o numiți înfiorător, așa cum spune Selepak, chiar nu este atât de diferită de a viziona videoclipuri vechi sau de a asculta mesajele vocale salvate, ca un personaj dintr-o emisiune TV cu scenarii alene.

Și dacă tehnologia pentru falsuri profunde este ușor disponibilă, de ce să nu o folosim pentru a ne consola?

Recomandat: