Recomandări cheie
- Noua politică a Apple împotriva materialelor de abuz sexual asupra copiilor a provocat controverse în rândul utilizatorilor și experților în confidențialitate.
- Tehnologia funcționează prin scanarea imaginilor în iCloud pentru CSAM și prin utilizarea învățării automate pentru a identifica fotografiile explicite în Messages.
- Experții spun că, indiferent cât de privată ar spune Apple este tehnologia sa de scanare, aceasta permite totuși deschiderea unei uși din spate acolo unde s-ar putea întâmpla orice.
Apple a introdus recent o nouă tehnologie pentru a identifica materialele de abuz sexual asupra copiilor (CSAM), dar este mai mult criticată decât laude din partea comunității de confidențialitate.
Deși Apple a fost anterior salutat ca fiind una dintre singurele companii Big Tech cărora le pasă de fapt confidențialitatea utilizatorilor, noua tehnologie de scanare CSAM introdusă săptămâna trecută pune o cheie mare în asta. Experții spun că, deși Apple promite confidențialitatea utilizatorilor, tehnologia îi va pune în pericol pe toți utilizatorii Apple.
„Apple coboară pe o pantă foarte alunecoasă; au dezvoltat un instrument care riscă pentru ușile din spate guvernamentale și pentru utilizarea abuzivă de către actori răi”, a declarat Farah Sattar, fondatorul și cercetătorul de securitate la DCRYPTD. către Lifewire într-un interviu prin e-mail.
Planul Apple nu este privat
Noua tehnologie funcționează în două moduri: în primul rând, prin scanarea unei imagini înainte de a fi copiată de rezervă pe iCloud - dacă o imagine corespunde criteriilor CSAM, Apple primește datele voucherului criptografic. Ceal altă parte folosește învățarea automată de pe dispozitiv pentru a identifica și estompa imaginile sexual explicite pe care le primesc copiii prin intermediul mesajelor.
Apple coboară o pantă foarte alunecoasă; au dezvoltat un instrument care riscă pentru ușile din spate guvernamentale și pentru utilizarea abuzivă de către actori răi.
Experții sunt îngrijorați de funcția Mesaje, deoarece ar pune capăt efectiv criptării end-to-end (E2EE) pe care Apple a susținut-o.
„Introducerea de către Apple a scanării la nivelul clientului este o invazie a confidențialității, deoarece aceasta distruge efectiv E2EE”, a spus Sattar.
Scopul E2EE este de a face un mesaj imposibil de citit pentru orice parte, cu excepția expeditorului și destinatarului, dar scanarea la nivelul clientului va permite terților să acceseze conținutul în cazul unei potriviri. Aceasta creează precedentul că dvs. datele sunt E2EE… până când nu sunt.”
În timp ce Apple a spus într-o pagină de Întrebări frecvente publicată recent, care abordează preocupările oamenilor cu privire la noua sa politică că nu va schimba garanțiile de confidențialitate ale Messages și nu va avea acces la comunicații, organizațiile sunt încă ferite de promisiunile Apple.
„Din moment ce detectarea unei „imagini sexuale explicite” va folosi învățarea automată de pe dispozitiv pentru a scana conținutul mesajelor, Apple nu va mai putea apela sincer iMessage „criptat de la capăt la capăt”. Electronic Frontier Foundation (EFF) a scris ca răspuns la politica Apple.
"Apple și susținătorii săi ar putea argumenta că scanarea înainte sau după ce un mesaj este criptat sau decriptat păstrează intactă promisiunea „de la capăt la capăt”, dar aceasta ar fi o manevră semantică pentru a acoperi o schimbare tectonică a companiei. atitudine față de criptarea puternică."
Potențial de utilizare greșită
Îngrijorarea principală a multor experți este existența unei uși din spate care, indiferent de ce ar afirma Apple, este încă deschisă unei potențiale utilizări greșite.
Deși această politică este menită să fie aplicabilă numai utilizatorilor sub 13 ani, acest instrument este, de asemenea, potrivit pentru utilizare greșită, deoarece nu există nicio garanție că utilizatorul are de fapt sub 13 ani. O astfel de inițiativă prezintă un risc pentru tinerii LGBTQ+ și pentru persoanele aflate în relații abuzive, deoarece poate exista ca o formă de urmărire”, a spus Sattar.
EFF a spus că cea mai mică presiune externă (în special din partea guvernului) ar deschide ușa pentru abuz și a subliniat cazurile în care acestea s-au întâmplat deja. De exemplu, EFF a spus că tehnologiile create inițial pentru a scana și hash CSAM au fost reutilizate pentru a crea o bază de date cu conținut „terorist” la care companiile pot contribui și acces pentru a interzice astfel de conținut.
"Tot ce ar fi nevoie pentru a lărgi ușa îngustă pe care o construiește Apple este o extindere a parametrilor de învățare automată pentru a căuta tipuri suplimentare de conținut sau o modificare a steagurilor de configurare pentru a scana, nu doar pentru copii, ci conturile oricui", a spus EFF.
Edward Snowden a condamnat chiar noua tehnologie Apple drept o „problemă de securitate națională” și „dezastruoasă”, iar organizația sa, Freedom of the Press Foundation, este una dintre multele care au semnat o nouă scrisoare prin care cer Apple să pună capăt acestei probleme. politica chiar înainte de a începe.
Scrisoarea a fost semnată de peste 7.400 de organizații și experți în securitate și confidențialitate, cerând Apple să oprească imediat această tehnologie și să emită o declarație prin care reafirmă angajamentul companiei față de criptarea end-to-end și confidențialitatea utilizatorilor.
„Cursa actuală a Apple amenință să submineze decenii de muncă a tehnologilor, academicilor și a susținătorilor politicilor pentru ca măsuri puternice de conservare a confidențialității să fie o normă pentru majoritatea dispozitivelor electronice de consum și cazuri de utilizare”, se arată în scrisoare.
Time va spune cum intenționează Apple să implementeze această tehnologie, în ciuda controverselor masive care o înconjoară, dar afirmațiile companiei privind prioritizarea confidențialității nu vor fi cu siguranță niciodată aceleași.