Toată lumea crede că poate identifica un videoclip fals, dar tehnologia îmbunătățită rapid, inclusiv instrumentele AI, face ca identificarea unui videoclip fals să fie mai dificilă ca niciodată.
Recomandări cheie
- Deepfake-urile reprezintă amenințări semnificative pentru societate, inclusiv răspândirea dezinformării, deteriorarea reputației prin uzurparea identității și instigarea conflictelor pentru securitatea națională.
- În timp ce tehnologia AI oferă instrumente pentru detectarea deepfake-urilor, acestea nu sunt perfecte, iar discreția umană rămâne crucială în identificarea deepfake-urilor.
- Oamenii și instrumentele de detectare AI au puncte forte și puncte slabe diferite în identificarea deepfake-urilor și combinarea abilităților lor poate îmbunătăți ratele de succes în detectarea și atenuarea pericolelor deepfake-ului tehnologie.
Deepfake-urile amenință fiecare aspect al societății. Capacitatea noastră de a identifica conținutul fals este esențială pentru anularea dezinformarii, dar pe măsură ce tehnologia AI se îmbunătățește, în cine putem avea încredere pentru a detecta deepfakes: om sau mașină?
Pericolele Deepfakes
Pe măsură ce tehnologia AI avansează, pericolele deepfake-urilor reprezintă o amenințare din ce în ce mai mare pentru noi toți. Iată un rezumat rapid al unora dintre cele mai presante probleme pe care le prezintă deepfake-urile:
- Dezinformare: Videoclipurile false și înregistrările vocale pot răspândi dezinformare, cum ar fi știrile false.
- Impersonarea: Prin uzurparea identității unor persoane, deepfake-urile pot deteriora reputația oamenilor sau pot înșela pe oricine sunt cunoscuți.
- Securitate naționala: Scenariul evident al apocalipsei cu deepfakes este înregistrări sau audio fabricate ale unui lider global care instigă la conflict.
- Tulburări civile: Imaginile și sunetul înșelătoare pot fi, de asemenea, folosite de părți pentru a stârni furia și tulburările civile în rândul anumitor grupuri.
- Securitate cibernetică: Infractorii cibernetici folosesc deja instrumente de clonare a vocii AI pentru a viza indivizi cu mesaje convingătoare de la oameni pe care îi cunosc.
- Confidențialitate și consimțământ: Utilizarea rău intenționată a deepfake-urilor ia asemănarea unor indivizi fără consimțământul acestora.
- Încredere și încredere: Dacă nu poți distinge între adevăr și înșelăciune, informațiile exacte devin la fel de nedemne de încredere.
Deepfake-urile vor deveni doar mai convingătoare, așa că avem nevoie de instrumente și procese robuste pentru a le detecta. AI oferă un astfel de instrument sub formă de modele de detecție a falsurilor profunde. Cu toate acestea, ca algoritmi conceputi pentru a identifica scrisul generat de AI, instrumentele de detectare a falsurilor profunde nu sunt perfecte.
În acest moment, discreția umană este singurul alt instrument pe care ne putem baza. Deci, suntem mai buni decât algoritmii în identificarea deepfake-urilor?
Algoritmii pot detecta Deepfakes mai bine decât oamenii?
Deepfake-urile reprezintă o amenințare suficient de serioasă încât giganții tehnologici și grupurile de cercetare dedică resurse vaste cercetării și dezvoltării. În 2019, oameni precum Meta, Microsoft și Amazon au oferit premii de 1.000.000 USD în timpul unei Provocare de detectare a falsurilor profunde pentru cel mai precis model de detectare.
Modelul cu cele mai bune performanțe a avut o acuratețe de 82,56% față de un set de date de videoclipuri disponibile public. Cu toate acestea, atunci când aceleași modele au fost testate pe un „set de date cutie neagră” de 10.000 de videoclipuri nevăzute, modelul cu cele mai bune performanțe a avut o precizie de doar 65,18%.
Avem, de asemenea, o mulțime de studii care analizează performanța instrumentelor de detectare a falsurilor profunde AI împotriva ființelor umane. Desigur, rezultatele variază de la un studiu la altul, dar, în general, oamenii fie egalează, fie depășesc rata de succes a instrumentelor de detectare a deepfake-ului.
Un studiu din 2021 publicat pe PNAS a constatat că „observatorii umani obișnuiți” au obținut o rată de precizie puțin mai mare decât instrumentele principale de detectare a deepfake-ului. Cu toate acestea, studiul a mai constatat că participanții umani și modelele AI au fost susceptibile la diferite tipuri de greșeli.
Interesant este că cercetările efectuate de Universitatea din Sydney a descoperit că creierul uman este, în mod inconștient, mai eficient în identificarea deepfake-urilor decât eforturile noastre conștiente.
Detectarea indicii vizuale în Deepfakes
Știința detectării deepfake este complexă, iar analiza necesară variază, în funcție de natura filmării. De exemplu, infamul videoclip deepfake al liderului nord-coreean Kim Jong-un din 2020 este practic un videoclip cu cap vorbitor. În acest caz, cea mai eficientă metodă de detectare a deepfake-ului ar putea fi analiza visemelor (mișcări ale gurii) și fonemelor (sunete fonetice) pentru inconsecvențe.
Experții umani, spectatorii ocazionali și algoritmii pot efectua toți acest tip de analiză, chiar dacă rezultatele variază. The MIT definește opt întrebări pentru a ajuta identifica videoclipuri deepfake:
- Acordați atenție feței. Manipulările DeepFake de vârf sunt aproape întotdeauna transformări faciale.
- Atenție la obraji și frunte. Pielea pare prea netedă sau prea încrețită? Este îmbătrânirea pielii similară cu cea a părului și a ochilor? DeepFakes pot fi incongruente pe anumite dimensiuni.
- Acordați atenție ochilor și sprâncenelor. Apar umbre în locuri la care v-ați aștepta? DeepFakes poate să nu reprezinte pe deplin fizica naturală a unei scene.
- Atenție la ochelari. Există vreo strălucire? Există prea multă strălucire? Se schimbă unghiul strălucirii atunci când persoana se mișcă? Încă o dată, DeepFakes ar putea să nu reprezinte pe deplin fizica naturală a luminii.
- Acordați atenție părului facial sau lipsei acestuia. Acest păr facial pare real? DeepFakes ar putea adăuga sau elimina mustața, perciunile sau barba. Cu toate acestea, DeepFakes poate să nu reușească să facă transformările părului facial complet naturale.
- Acordați atenție alunițelor faciale. Alunița pare reală?
- Atenție la clipirea. Persoana clipește suficient sau prea mult?
- Acordați atenție mișcărilor buzelor. Unele deepfake-uri se bazează pe sincronizarea buzelor. Mișcările buzelor par naturale?
Cele mai recente instrumente de detectare a falsurilor profunde AI pot analiza aceiași factori, din nou, cu diferite grade de succes. Oamenii de știință de date dezvoltă constant și noi metode, cum ar fi detectarea fluxului natural de sânge pe fețele difuzoarelor de pe ecran. Noile abordări și îmbunătățiri ale celor existente ar putea duce la ca instrumentele de detectare a falsurilor profunde ale inteligenței artificiale să depășească în mod constant oamenii în viitor.
Detectarea indicii audio în Deepfakes
Detectarea sunetului deepfake este o provocare complet diferită. Fără indiciile vizuale ale videoclipului și posibilitatea de a identifica inconsecvențele audiovizuale, deepfake detectarea se bazează în mare măsură pe analiza audio (alte metode precum verificarea metadatelor pot ajuta, în unele cazuri).
Un studiu publicat de Colegiul Universitar din Londra în 2023, s-a descoperit că oamenii pot detecta vorbirea deepfake în 73% din timp (engleză și mandarină). Ca și în cazul videoclipurilor deepfake, ascultătorii umani detectează adesea în mod intuitiv modele de vorbire nenaturale în vorbirea generată de inteligență artificială, chiar dacă nu pot specifica ceea ce pare neplăcut.
Semnele comune includ:
- Sluring
- Lipsa de exprimare
- Zgomot de fond sau interferență
- Incoerențe vocale sau de vorbire
- Lipsa de „plinătate” în voci
- Livrare prea scrisă
- Lipsa imperfecțiunilor (porniri false, corecții, curățarea gâtului etc.)
Încă o dată, algoritmii pot analiza și vorbirea pentru aceleași semnale deepfake, dar noile metode fac instrumentele mai eficiente. Cercetare de către USENIX au identificat modele în reconstrucția tractului vocal AI care nu reușesc să emuleze vorbirea naturală. Acesta rezumă că generatoarele de voce AI produc tracturi vocale înguste care se potrivesc audio (aproximativ de dimensiunea unui pai de băut) fără mișcările naturale ale vorbirii umane.
Cercetări anterioare de la Institutul Horst Görtz a analizat sunetul autentic și deepfake în engleză și japoneză, dezvăluind diferențe subtile în frecvențele mai înalte ale vorbirii autentice și deepfake.
Atât tractul vocal, cât și inconsecvențele de înaltă frecvență sunt perceptibile de ascultătorii umani și de modelele de detectare AI. În cazul diferențelor de înaltă frecvență, modelele AI ar putea, teoretic, să devină din ce în ce mai precise – deși același lucru s-ar putea spune și pentru deepfakes AI.
Oamenii și algoritmii sunt amândoi păcăliți de Deepfake, dar în moduri diferite
Studiile sugerează că oamenii și cele mai recente instrumente de detectare AI sunt capabile în mod similar să identifice deepfake-urile. Ratele de succes pot varia între 50% și 90+%, în funcție de parametrii de testare.
Prin extensie, oamenii și mașinile sunt, de asemenea, păcăliți de deepfake-uri în măsuri similare. În mod esențial, totuși, suntem susceptibili în diferite moduri, iar acesta ar putea fi cel mai mare atu al nostru în abordarea pericolelor tehnologiei deepfake. Combinarea punctelor forte ale oamenilor și a instrumentelor de detectare a falsurilor profunde va atenua punctele slabe ale fiecăruia și va îmbunătăți ratele de succes.
De exemplu, MIT Cercetările au descoperit că oamenii au fost mai buni la identificarea deepfakes ale liderilor mondiali și ale oamenilor celebri decât modelele AI. De asemenea, a dezvăluit că modelele AI se luptă cu înregistrări cu mai multe persoane, deși a sugerat că acest lucru ar putea rezulta din antrenamentul algoritmilor pe filmări cu un singur difuzor.
În schimb, același studiu a constatat că modelele AI au depășit oamenii cu imagini de calitate scăzută (neclare, granulate, întunecate etc.) care ar putea fi folosite în mod intenționat pentru a înșela spectatorii umani. De asemenea, metodele recente de detectare AI, cum ar fi monitorizarea fluxului sanguin în anumite regiuni faciale, includ analize de care oamenii nu sunt capabili.
Pe măsură ce se dezvoltă mai multe metode, capacitatea AI de a detecta semne pe care le putem nu numai se va îmbunătăți, dar la fel se va îmbunătăți și capacitatea sa de a înșela. Marea întrebare este dacă tehnologia de detectare a deepfake-urilor va continua să depășească ei înșiși deepfake-urile.
A vedea lucrurile diferit în epoca Deepfakes
Instrumentele de detectare a deepfake-urilor AI se vor îmbunătăți în continuare, la fel ca și calitatea conținutului deepfake în sine. Dacă capacitatea AI de a înșela depășește capacitatea sa de a detecta (cum a făcut-o în cazul textului generat de AI), discreția umană poate fi singurul instrument care ne rămâne pentru a lupta împotriva falsurilor profunde.
Toată lumea are responsabilitatea de a învăța semnele deepfake-urilor și cum să le detecteze. Pe lângă faptul că ne protejăm de escrocherii și amenințările de securitate, tot ceea ce discutăm și distribuim online este vulnerabil la dezinformare dacă pierdem înțelegerea realității.