Recomandări cheie
- Un număr tot mai mare de programe vă pot înțelege discursul.
- Noua tehnologie generează zgomot audio personalizat în fundal în timp ce vorbiți pentru a încurca software-ul care ar putea fi ascultat.
-
Noua tehnică realizează performanțe în timp real prin prognoza unui atac asupra viitorului semnalului sau al cuvântului.
Multe programe vă pot înțelege vorbirea în timpul apelurilor telefonice sau video, iar experții spun că acestea pot reprezenta o amenințare pentru confidențialitate.
O nouă tehnologie dezvoltată de cercetătorii de la Universitatea Columbia, numită Neural Voice Camouflage, poate oferi o apărare. Acesta generează zgomot audio personalizat în fundal în timp ce vorbiți, derutând inteligența artificială (AI) care ascultă și transcrie vocile.
„Prezența transcripției AI ridică probleme de încredere”, Michael Huth, co-fondator al Xayn, un motor de căutare care protejează confidențialitatea, și șeful Departamentului de calcul de la Imperial College London, care nu a fost implicat în cercetarea, a declarat pentru Lifewire într-un interviu prin e-mail. „Participanții la întâlnire pot fi mai atenți la punctele pe care le ridică și la modul în care este transcris discursul lor. Acesta poate fi un lucru bun, deoarece poate îmbunătăți comportamentul respectuos, dar poate fi și un lucru rău, deoarece conversația poate fi mai puțin deschisă din cauza rezerve cu privire la tehnologia utilizată."
Ascultare și învățare
Cercetătorii de la Columbia au lucrat la proiectarea unui algoritm care ar putea rupe rețelele neuronale în timp real. Noua abordare folosește „atacuri predictive” - un semnal care poate perturba orice cuvânt pe care modelele de recunoaștere automată a vorbirii sunt antrenate să-l transcrie. În plus, atunci când sunetele de atac sunt redate prin aer, acestea trebuie să fie suficient de puternice pentru a perturba orice microfon de „ascultare” necinstit care ar putea fi departe.
„O provocare tehnică cheie pentru a realiza acest lucru a fost de a face totul să funcționeze suficient de repede”, a declarat Carl Vondrick, profesor de informatică la Columbia și unul dintre autorii unui studiu care descrie noua abordare, într-o știre. eliberare. „Algoritmul nostru, care reușește să împiedice un microfon necinstiți să vă audă corect cuvintele în 80% din timp, este cel mai rapid și mai precis de pe patul nostru de testare.”
Noua tehnică realizează performanțe în timp real prin prognoza unui atac asupra viitorului semnalului sau al cuvântului. Echipa a optimizat atacul, astfel încât acesta are un volum similar cu zgomotul de fundal normal, permițând oamenilor dintr-o cameră să converseze în mod natural și fără a fi monitorizați cu succes de un sistem automat de recunoaștere a vorbirii.
Participanții la întâlnire pot fi mai atenți la punctele pe care le ridică și la modul în care este transcris discursul lor.
Oamenii de știință au spus că tehnica lor funcționează chiar și atunci când nu știi nimic despre microfonul necinstiți, cum ar fi locația lui sau chiar despre software-ul computerului care rulează pe el. Camuflează vocea unei persoane prin aer, ascunzând-o de aceste sisteme de ascultare și fără a deranja conversația dintre persoanele din cameră.
„Până acum, metoda noastră funcționează pentru majoritatea vocabularului limbii engleze și intenționăm să aplicăm algoritmul pe mai multe limbi și, în cele din urmă, să facem ca șoapta să sune complet imperceptibilă”, Mia Chiquier, autorul principal a studiului și un doctorand în laboratorul lui Vondrick, a spus în comunicatul de presă.
Păstrarea conversațiilor private
De parcă toate acestea nu ar fi de ajuns, reclamele ar putea să vă vizeze și pe baza sunetului colectat de pe smartphone-ul dvs. sau de pe dispozitivele de acasă inteligente.
„Cu dispozitive precum [Amazon Echo] și omologii lor, aceste dispozitive nu numai că sunt întotdeauna în casa ta, ascultând în mod constant tot ce spui sau faci, dar, prin ani de colectare de date de la utilizatorii lor, au procesarea limbajului natural perfecționat (transformarea cuvintelor rostite în text/date utilizabile pentru dispozitive printr-o combinație de microfoane, software și AI), a declarat Erik Haig, asociat la Harbour Research, o firmă de consultanță în strategie și dezvoltare de riscuri, într-un e-mail.
Trancrierile AI ale vorbirii conversaționale sunt acum o parte standard a software-ului comercial standard, a spus Huth. De exemplu, Microsoft Teams are o opțiune de înregistrare a întâlnirilor cu transcripții AI încorporate care pot fi văzute de toți participanții în timp real. Transcrierea completă poate servi drept înregistrare a întâlnirii. De obicei, astfel de transcrieri permit luarea de minute (alias de luare de note), unde procesele-verbale ar fi aprobate la următoarea întâlnire.
„Oamenii ar putea fi îngrijorați să fie spionați atunci când transcrierea AI este activată”, a adăugat Huth. „Acest lucru pare foarte asemănător cu preocuparea de a avea o conversație înregistrată fără consimțământ sau în mod clandestin.”
Dar nu toată lumea este de acord că dispozitivele inteligente reprezintă o amenințare. Majoritatea oamenilor nu trebuie să-și facă griji cu privire la programele care vă ascultă conversațiile, a declarat Brad Hong, un lider de succes pentru clienți la firma de securitate cibernetică Horizon3, a declarat pentru Lifewire prin e-mail. El a spus că cea mai importantă preocupare acum nu este cine te înregistrează, ci mai degrabă cum stochează datele.
„Toate poveștile pe care le aude despre activarea unui microfon pe computer sau dispozitive mobile, ascultarea Alexa sau Google Home, sau chiar supravegherea guvernamentală, este adevărat că toate acestea fac să se învârtă stomacul neprofesionului”, a adăugat Hong.. „Dar per total, oamenii se află rareori într-o situație care necesită de fapt camuflarea vocii lor.”