Cititorii ca tine ajută la sprijinirea MUO. Când efectuați o achiziție folosind link-uri de pe site-ul nostru, este posibil să câștigăm un comision de afiliat. Citeşte mai mult.

Apple a anunțat că intenționează să scaneze conținutul tău iCloud pentru materiale de abuz sexual asupra copiilor (CSAM) în august 2021 pentru a proteja copiii de abuzul de către prădători.

Compania plănuia să lanseze o nouă funcție de detectare CSAM în iCloud Photos, care va scana pentru un astfel de conținut și va raporta Apple imagini care se potrivesc, menținând în același timp confidențialitatea utilizatorului.

Cu toate acestea, noua caracteristică a fost întâmpinată cu reacții mixte. La peste un an de la anunțul inițial, Apple renunță oficial la planul de a scana fotografii iCloud pentru CSAM.

Apple renunță la planul de a scana iCloud pentru materiale de abuz asupra copiilor

Potrivit unui raport al CABLAT, Apple renunță la planul său de a vă scana iCloud-ul pentru conținut de abuz asupra copiilor. Instrumentul ar scana fotografiile stocate pe iCloud pentru a le găsi pe cele care se potrivesc cu imaginile CSAM cunoscute identificate de organizațiile pentru siguranța copiilor. Ar putea apoi raporta acele imagini, deoarece deținerea de imagini CSAM este ilegală în majoritatea jurisdicțiilor, inclusiv în SUA.

instagram viewer

De ce Apple și-a anulat planul de a scana fotografii iCloud

După anunțul inițial din 2021, Apple s-a confruntat cu reacții din partea clienților, grupurilor și persoanelor care pledează pentru confidențialitatea și securitatea digitală la nivel mondial. iPhone-urile oferă de obicei mai multă securitate decât dispozitivele Androidși mulți au văzut acest lucru ca un pas înapoi. Deși a fost o victorie pentru organizațiile pentru siguranța copiilor, peste 90 de grupuri de politici au scris o scrisoare deschisă către Apple mai târziu în aceeași lună, spunându-i companiei să anuleze planul.

Scrisoarea a susținut că, în timp ce instrumentul intenționează să proteja copiii de abuzuri, ar putea fi folosit pentru a cenzura libertatea de exprimare și a amenința confidențialitatea și securitatea utilizatorilor. Din cauza presiunii crescânde, Apple și-a oprit planurile de lansare pentru a colecta feedback și pentru a face ajustările necesare caracteristicii. Cu toate acestea, feedback-ul nu a favorizat planul Apple de a scana fotografii iCloud, așa că compania renunță oficial la planuri definitiv.

Într-o declarație pentru WIRED, compania a spus:

"Avem... am decis să nu avansăm cu instrumentul nostru de detectare CSAM propus anterior pentru fotografii iCloud. Copiii pot fi protejați fără ca companiile să analizeze datele personale și vom continua să lucrăm cu guvernele, susținătorii copiilor și alte companii pentru a ajuta la protejarea tinerilor, la păstrarea dreptului lor la intimitate și pentru a face internetul un loc mai sigur pentru copii și pentru noi toate."

Noul plan Apple pentru protejarea copiilor

Apple își redirecționează eforturile de îmbunătățire a caracteristicilor de siguranță a comunicațiilor anunțate în august 2021 și lansate în decembrie același an.

Siguranța comunicării este opțională și poate fi folosită de părinți și tutori pentru a proteja copiii atât de trimiterea, cât și de primirea de imagini cu caracter sexual explicit în iMessage. Funcția estompează automat astfel de fotografii, iar copilul va fi avertizat despre pericolele implicate. De asemenea, avertizează pe oricine dacă încearcă să caute CSAM pe dispozitivele Apple.

Cu planurile de a lansa un instrument de detectare CSAM anulate, compania așteaptă cu nerăbdare să îmbunătățească în continuare funcția și să o extindă la mai multe aplicații de comunicare.