Apple a anunțat recent noi protecții pentru siguranța copiilor care vor veni în această toamnă odată cu introducerea iOS 15, iPadOS 15 și macOS Monterey.

Vom analiza mai îndeaproape aceste caracteristici extinse de siguranță pentru copii și tehnologia din spatele acestora de mai jos.

Scanarea materialelor privind abuzul sexual asupra copiilor

Cea mai notabilă schimbare este că Apple va începe să utilizeze o nouă tehnologie pentru a detecta imagini care descriu imagini de abuz asupra copiilor stocate în iCloud Photos.

Aceste imagini sunt cunoscute sub denumirea de materiale privind abuzul sexual al copiilor sau CSAM, iar Apple va raporta cazuri la Centrul Național pentru Copii Dispăruți și Exploatați. NCMEC este un centru de raportare pentru CSAM și lucrează cu agențiile de aplicare a legii.

Scanarea CSAM a Apple va fi limitată la Statele Unite la lansare.

Apple spune că sistemul folosește criptografia și a fost conceput având în vedere confidențialitatea. Imaginile sunt scanate pe dispozitiv înainte de a fi încărcate în iCloud Photos.

instagram viewer

Potrivit Apple, nu este nevoie să vă faceți griji cu privire la faptul că angajații Apple vă văd fotografiile reale. În schimb, NCMEC oferă Apple cu hash-uri de imagini CSAM. Un hash preia o imagine și returnează un șir lung, unic de litere și cifre.

Apple ia acele hash-uri și transformă datele într-un set ilizibil de hash-uri stocate în siguranță pe un dispozitiv.

Legate de: Cum iOS 15 vă protejează confidențialitatea iPhone-ului mai bine ca niciodată

Înainte ca imaginea să fie sincronizată cu iCloud Photos, aceasta este comparată cu imaginile CSAM. Cu o tehnologie criptografică specială - intersecția setului privat - sistemul determină dacă există o potrivire fără a dezvălui un rezultat.

Dacă există o potrivire, un dispozitiv creează un cupon de siguranță criptografic care codifică potrivirea împreună cu mai multe date criptate despre imagine. Acest voucher este încărcat în iCloud Photos cu imaginea.

Cu excepția cazului în care un cont iCloud Photos depășește un anumit prag de conținut CSAM, sistemul se asigură că tichetele de siguranță nu pot fi citite de Apple. Asta datorită unei tehnologii criptografice numită partajare secretă.

Potrivit Apple, pragul necunoscut oferă o cantitate mare de precizie și asigură mai puține șanse de unu la un trilion de a semnaliza incorect un cont.

Atunci când pragul este depășit, tehnologia va permite Apple să interpreteze voucherele și imaginile CSAM potrivite. Apple va revizui apoi manual fiecare raport pentru a confirma o potrivire. Dacă este confirmat, Apple va dezactiva contul unui utilizator și apoi va trimite un raport către NCMEC.

Va exista un proces de apel pentru reintegrare dacă un utilizator consideră că contul său a fost semnalat în mod eronat de tehnologie.

Dacă aveți probleme de confidențialitate cu noul sistem, Apple a confirmat că nicio fotografie nu va fi scanată folosind tehnologia criptografică dacă dezactivați iCloud Photos. Puteți face acest lucru îndreptându-vă către Setări> [Numele tău]> iCloud> Fotografii.

Există câteva dezavantaje atunci când dezactivați iCloud Photos. Toate fotografiile și videoclipurile vor fi stocate pe dispozitivul dvs. Acest lucru ar putea cauza probleme dacă aveți multe imagini și videoclipuri și un iPhone mai vechi, cu spațiu de stocare limitat.

De asemenea, fotografiile și videoclipurile capturate pe dispozitiv nu vor fi accesibile pe alte dispozitive Apple folosind contul iCloud.

Legate de: Cum se accesează iCloud Photos

Apple explică mai multe despre tehnologia utilizată în detectarea CSAM într-un hârtie albă PDF. De asemenea, puteți citi un Întrebări frecvente despre Apple cu informații suplimentare despre sistem.

În Întrebări frecvente, Apple notează că sistemul de detectare CSAM nu poate fi utilizat pentru a detecta altceva decât CSAM. Compania mai spune că în Statele Unite și în multe alte țări, deținerea imaginilor CSAM este o infracțiune și că Apple este obligată să informeze autoritățile.

Compania mai spune că va refuza orice cerere a guvernului de a adăuga o imagine care nu este CSAM pe lista hash. De asemenea, explică de ce imaginile non-CSAM nu au putut fi adăugate la sistem de către o terță parte.

Din cauza recenziei umane și a faptului că hashurile utilizate provin din imagini CSAM cunoscute și existente, Apple spune asta sistemul a fost conceput pentru a fi corect și pentru a evita problemele cu alte imagini sau utilizatorii nevinovați să fie raportate la NCMEC.

Protocol suplimentar de siguranță în comunicare în mesaje

O altă caracteristică nouă va fi adăugarea protocoalelor de siguranță în aplicația Mesaje. Aceasta oferă instrumente care îi vor avertiza pe copii și pe părinții lor atunci când trimit sau primesc mesaje cu fotografii explicite sexual.

La primirea unuia dintre aceste mesaje, fotografia va fi neclară și copilul va fi, de asemenea, avertizat. Ei pot vedea resurse utile și li se spune că este în regulă dacă nu vizualizează imaginea.

Funcția va fi doar pentru conturile configurate ca familii în iCloud. Părinții sau tutorii vor trebui să opteze pentru a activa caracteristica de siguranță a comunicării. De asemenea, pot alege să fie anunțați atunci când un copil de 12 ani sau mai puțin trimite sau primește o imagine sexuală explicit.

Pentru copiii cu vârste cuprinse între 13 și 17 ani, părinții nu sunt anunțați. Dar copilul va fi avertizat și întrebat dacă vrea să vizualizeze sau să împărtășească o imagine sexuală explicit.

Legate de: Cum iOS 15 folosește inteligența pentru a vă face iPhone-ul mai inteligent ca niciodată

Mesaje utilizează învățarea automată pe dispozitiv pentru a determina dacă un atașament sau o imagine este sexuală. Apple nu va primi niciun acces la mesaje sau la conținutul imaginii.

Funcția va funcționa atât pentru mesaje SMS obișnuite, cât și pentru mesaje iMessage și nu este legată de funcția de scanare CSAM pe care am detaliat-o mai sus.

Îndrumări de siguranță extinse în Siri și Căutare

În cele din urmă, Apple va extinde orientările atât pentru funcțiile Siri, cât și pentru funcțiile de căutare, pentru a ajuta copiii și părinții să rămână în siguranță online și să primească ajutor în situații nesigure. Apple a arătat un exemplu în care utilizatorii care îi întreabă pe Siri cum pot raporta CSAM sau exploatarea copiilor vor primi resurse cu privire la modul de depunere a unui raport autorităților.

Actualizările vor ajunge la Siri și Căutare atunci când cineva efectuează interogări de căutare legate de CSAM. O intervenție va explica utilizatorilor că interesul pentru subiect este dăunător și problematic. De asemenea, vor arăta resurse și parteneri pentru a ajuta la obținerea de ajutor cu problema.

Mai multe modificări care vin cu cel mai recent software Apple

Dezvoltate împreună cu experți în materie de siguranță, cele trei caracteristici noi de la Apple sunt concepute pentru a ajuta copiii să fie în siguranță online. Chiar dacă caracteristicile ar putea cauza îngrijorare în unele cercuri axate pe confidențialitate, Apple a apărut în legătură cu tehnologia și modul în care va echilibra problemele de confidențialitate cu protecția copilului.

AcțiuneTweetE-mail
15 Funcții ascunse în iOS 15 și iPadOS 15 pe care Apple nu le-a menționat la WWDC

Ați auzit deja despre modificările majore aduse iOS 15, dar iată toate modificările ascunse pe care Apple le-a exclus din WWDC.

Citiți în continuare

Subiecte asemănătoare
  • IPhone
  • Mac
  • măr
  • Confidențialitate smartphone
  • Parenting și tehnologie
Despre autor
Brent Dirks (186 articole publicate)

Născut și crescut în vestul însorit al Texasului, Brent a absolvit Universitatea Texas Tech cu o licență în jurnalism. Scrie despre tehnologie de mai bine de 5 ani și se bucură de toate lucrurile Apple, accesorii și securitate.

Mai multe de la Brent Dirks

Aboneaza-te la newsletter-ul nostru

Alăturați-vă newsletter-ului pentru sfaturi tehnice, recenzii, cărți electronice gratuite și oferte exclusive!

Faceți clic aici pentru a vă abona