În august 2021, Apple și-a dezvăluit planurile de a scana iPhone-uri pentru a găsi imagini de abuz sexual asupra copiilor. Măsura a atras aplauze din partea grupurilor de protecție a copilului, dar a ridicat îngrijorarea în rândul experților în confidențialitate și securitate că această caracteristică ar putea fi utilizată în mod abuziv.
Apple a planificat inițial să includă tehnologia de scanare a materialelor de abuz sexual asupra copiilor (CSAM) în iOS 15; în schimb, a întârziat în mod nedefinit lansarea funcției pentru a solicita feedback înainte de lansarea sa completă.
Deci, de ce funcția de detectare CSAM a devenit un subiect de dezbateri aprinse și ce a făcut Apple să-și amâne lansarea?
Ce face funcția de scanare foto Apple?
Apple a anunțat că va implementa funcția de scanare a fotografiilor în speranța de a combate abuzurile sexuale asupra copiilor. Toate fotografiile din dispozitivele utilizatorilor Apple vor fi scanate pentru conținut pedofil folosind algoritmul „NueralHash” creat de Apple.
În plus, orice dispozitiv Apple utilizat de copii ar avea o caracteristică de siguranță care va avea automat estompează fotografiile adulților dacă sunt primite de un copil, iar utilizatorul va fi avertizat de două ori dacă încearcă să deschidă lor.
În afară de minimizarea expunerii la conținutul pentru adulți, dacă părinții înregistrează dispozitivele deținute de copiii lor pentru siguranță suplimentară, părinții ar fi informați în cazul în care copilul primește conținut explicit de la oricine pe net.
Citeste mai mult: Ce trebuie să știți despre protecția Apple pentru siguranța copiilor
În ceea ce privește adulții care folosesc Siri pentru a căuta ceva care sexualizează copiii, Siri nu va efectua această căutare și nu va sugera alte alternative.
Datele de pe orice dispozitiv care conține 10 sau mai multe fotografii considerate suspecte de algoritmi vor fi decriptate și supuse examinării umane.
Dacă acele fotografii sau oricare alta din dispozitiv se dovedesc a se potrivi cu ceva din baza de date furnizată de Centrul Național pentru Copii Dispăruți și Exploatați, va fi raportat autorităților și contul utilizatorului va fi suspendat.
Principalele preocupări legate de funcția de scanare foto
Funcția de detectare CSAM s-ar fi activat odată cu lansarea iOS 15 în septembrie 2021, dar în față de strigăte răspândite, Apple a decis să-și ia mai mult timp pentru a colecta feedback și pentru a îmbunătăți acest lucru caracteristică. Aici este Declarația completă a Apple cu privire la întârziere:
"Luna trecută am anunțat planuri pentru caracteristici destinate să protejeze copiii de prădătorii care utilizați instrumente de comunicare pentru a le recruta și a le exploata și pentru a limita răspândirea abuzului sexual asupra copiilor Material.
Pe baza feedback-ului de la clienți, grupuri de advocacy, cercetători și alții, am decis să ne ocupăm de timp suplimentar lunile următoare pentru a colecta contribuții și a face îmbunătățiri înainte de a elibera aceste siguranțe importante pentru copii Caracteristici".
Aproape jumătate dintre preocupările legate de funcția de scanare a fotografiilor Apple se învârt în jurul confidențialității; restul argumentelor includ inexactitatea probabilă a algoritmilor și utilizarea abuzivă potențială a sistemului sau a lacunelor sale.
Să-l împărțim în patru părți.
Utilizare abuzivă potențială
Știind că orice material care se potrivește cu pornografie infantilă sau imagini cunoscute ale abuzului sexual asupra copiilor va introduce un dispozitiv în lista „suspectă” poate pune în mișcare infractorii cibernetici.
Aceștia pot bombarda intenționat o persoană cu conținut neadecvat prin iMessage, WhatsApp sau orice alt mijloc și pot suspenda contul acelei persoane.
Apple a asigurat că utilizatorii pot depune o contestație în cazul în care conturile lor au fost suspendate din cauza unei neînțelegeri.
Abuzul din interior
Deși concepută pentru o cauză binevoitoare, această caracteristică se poate transforma într-un dezastru total pentru anumite persoane, dacă dispozitivele lor sunt înregistrate în sistem, cu sau fără știrea lor, de rudele interesate să monitorizeze comunicarea acestora.
Chiar dacă acest lucru nu se întâmplă, Apple a creat un backdoor pentru a face datele utilizatorilor accesibile la sfârșitul zilei. Acum este o chestiune de motivație și determinare ca oamenii să acceseze informațiile personale ale altor persoane.
Legate de: Ce este un Backdoor și ce face?
Nu facilitează doar o încălcare majoră a vieții private, ci și deschide calea către abuziv, toxic sau control rude, tutori, prieteni, iubiți, îngrijitori și foști pentru a invada în continuare spațiul personal al cuiva sau a le restrânge libertate.
Pe de o parte, este menită să combată abuzurile sexuale asupra copiilor; pe de altă parte, poate fi folosit pentru a perpetua în continuare alte tipuri de abuz.
Supravegherea Guvernului
Apple s-a autodenumit întotdeauna ca o marcă mai atentă la confidențialitate decât concurenții săi. Dar acum, s-ar putea să pătrundă într-o pantă alunecoasă de a trebui să îndeplinească cerințele nesfârșite de transparență în datele utilizatorilor de către guverne.
Sistemul pe care l-a creat pentru detectarea conținutului pedofil poate fi utilizat pentru a detecta orice tip de conținut de pe telefoane. Asta înseamnă că guvernele cu o mentalitate cultă pot monitoriza utilizatorii la un nivel mai personal dacă pun mâna pe el.
Apăsant sau nu, implicarea guvernului în viața dvs. zilnică și personală poate fi deranjantă și este o invazie a vieții private. Ideea că trebuie să fii îngrijorat de astfel de invazii numai dacă ai făcut ceva greșit este o gândire greșită și nu reușește să vadă panta alunecoasă menționată anterior.
Alarme false
Una dintre cele mai mari preocupări legate de utilizarea algoritmilor pentru a potrivi imaginile cu baza de date sunt alarmele false. Algoritmii Hashing pot identifica în mod eronat două fotografii ca potriviri chiar și atunci când nu sunt la fel. Aceste erori, numite „coliziuni”, sunt deosebit de alarmante în contextul conținutului de abuz sexual asupra copiilor.
Cercetătorii au descoperit mai multe coliziuni în „NeuralHash” după ce Apple a anunțat că va folosi algoritmul pentru scanarea imaginilor. Apple a răspuns întrebărilor cu privire la alarmele false, subliniind că rezultatul va fi examinat de un om la sfârșit, astfel încât oamenii nu trebuie să-și facă griji.
Pauza CSAM a Apple este permanentă?
Există multe avantaje și dezavantaje ale caracteristicii propuse de Apple. Fiecare dintre ele este autentic și deține greutate. Încă nu este clar ce modificări specifice ar putea introduce Apple în funcția de scanare CSAM pentru a-și satisface criticii.
Ar putea limita scanarea la albumele iCloud partajate în loc să implice dispozitivele utilizatorilor. Este foarte puțin probabil ca Apple să renunțe la toate aceste planuri, deoarece compania nu este de obicei înclinată să renunțe la planurile sale.
Cu toate acestea, reiese din reacția larg răspândită și din faptul că Apple își menține planurile, că companiile ar trebui să încorporeze comunitatea de cercetare de la început, în special pentru o persoană care nu a fost testată tehnologie.
Copiii sunt ținte principale pentru prădătorii și ciberbullii online. Aceste sfaturi la îndemână îi pot învăța pe părinți cum să-i păstreze în siguranță online.
Citiți în continuare
- Securitate
- IPhone
- Confidențialitate smartphone
- măr
- Confidențialitate online
- Supraveghere
Fawad este inginer IT și comunicare, aspirant la antreprenor și scriitor. A intrat în arena scrierii de conținut în 2017 și a lucrat cu două agenții de marketing digital și numeroși clienți B2B și B2C de atunci. El scrie despre securitate și tehnologie la MUO, cu scopul de a educa, distra și atrage publicul.
Aboneaza-te la newsletter-ul nostru
Alăturați-vă newsletter-ului pentru sfaturi tehnice, recenzii, cărți electronice gratuite și oferte exclusive!
Faceți clic aici pentru a vă abona