Tehnologia deepfake poate fi distractiv de jucat, dar potențialul ei de dăunare este semnificativ. Iată ce ar putea aduce viitorul deepfake-urilor.
Semnele revelatoare ale unei imagini deepfake erau odinioară ușor de observat, dar AI generativă ne face să punem la îndoială aproape tot ceea ce vedem și auzim acum. Odată cu fiecare nou model AI care este lansat, semnele revelatoare ale unei imagini false scad și se adaugă la confuzie, acum puteți crea videoclipuri deepfake, clone de voce ale celor dragi și puteți fabrica articole false doar secunde.
Pentru a nu fi păcălit de deepfakes AI, merită să știți ce fel de pericole prezintă.
Evoluția Deepfakes
Un deepfake arată o persoană făcând ceva ce nu s-a întâmplat niciodată în viața reală. Este complet fals. Râdem de deepfakes atunci când sunt distribuite pe internet ca meme sau glumă, dar foarte puțini oameni consideră că este amuzant când sunt obișnuiți să ne inducă în eroare.
În trecut, deepfake-urile erau create prin luarea unei fotografii existente și modificarea acesteia într-un software de editare a imaginilor precum Photoshop. Dar ceea ce diferențiază un deepfake AI este că poate fi generat de la zero folosind algoritmi de învățare profundă.
The Dicționar Merriam-Webster definește un deepfake ca:
O imagine sau o înregistrare care a fost modificată și manipulată în mod convingător pentru a denatura pe cineva ca făcând sau spunând ceva ce nu a fost de fapt făcut sau spus.
Dar, odată cu progresele în tehnologia AI, această definiție începe să pară depășită. Odată cu utilizarea instrumentelor AI, deepfake-urile includ acum imagini, text, videoclipuri și clonarea vocii. Uneori, toate cele patru moduri de generare a AI sunt utilizate simultan.
Deoarece este un proces automatizat, care este incredibil de rapid și ieftin de utilizat, este instrumentul perfect pentru producere. deepfakes la un ritm pe care nu l-am mai văzut până acum — toate fără a fi nevoie să știți un singur lucru despre cum să editați fotografii, videoclipuri sau audio.
Marile pericole ale AI Deepfakes
O serie de Generatoare video AI există deja, alături de multe Generatoare de voce AI. Aruncă o model de limbă mare precum GPT-4 și aveți o rețetă pentru a crea cele mai credibile deepfake-uri pe care le-am văzut în istoria modernă până acum.
A fi conștient de diferitele tipuri de deepfake AI și de modul în care acestea ar putea fi folosite pentru a te păcăli, este o modalitate de a evita să fii indus în eroare. Iată doar câteva exemple serioase despre modul în care tehnologia AI deepfake reprezintă o amenințare reală.
1. Furtul de identitate AI
Poate le-ați văzut. Printre primele deepfake cu adevărat virale ale inteligenței artificiale care au fost răspândite în întreaga lume s-au numărat o imagine a lui Donald Trump arestat și una a Papei Francisc într-o jachetă puf albă.
În timp ce unul pare o re-imaginare nevinovată a ceea ce o figură religioasă celebră ar putea să-și îmbrace într-o zi răcoroasă la Roma; cealaltă imagine, care arată o personalitate politică într-o situație gravă cu legea, are consecințe mult mai mari dacă este considerată reală.
Până acum, oamenii au vizat în principal celebrități, personalități politice și alte persoane celebre atunci când au creat deepfake AI. În parte, acest lucru se datorează faptului că indivizi celebri au o mulțime de fotografii cu ei pe internet, ceea ce probabil a ajutat la formarea modelului în primul rând.
În cazul unui generator de imagini AI precum Midjourney – folosit atât în deepfake-ul lui Trump, cât și în The Pope – un utilizator trebuie pur și simplu să introducă text care descrie ceea ce vrea să vadă. Cuvintele cheie pot fi folosite pentru a specifica stilul artistic, cum ar fi o fotografie sau un fotorealism, iar rezultatele pot fi reglate fin prin mărirea rezoluției.
Poți la fel de ușor învață să folosești Midjourney și testați acest lucru singur, dar din motive morale și legale evidente, ar trebui să evitați să postați aceste imagini în mod public.
Din păcate, a fi o ființă umană obișnuită, necelebră, nu vă va garanta că sunteți ferit de deepfakes AI.
Problema constă în o caracteristică cheie oferită de generatorii de imagini AI: capacitatea de a vă încărca propria imagine și de a o manipula cu AI. Și un instrument ca Pictură în DALL-E 2 poate extinde o imagine existentă dincolo de granițele ei introducând un mesaj text și descriind ce altceva doriți să generați.
Dacă altcineva ar face asta cu fotografiile tale, pericolele ar putea fi semnificativ mai mari decât falsul Papei într-o jachetă albă – îl pot folosi oriunde, pretinzând că ești tu. În timp ce majoritatea oamenilor folosesc în general inteligența artificială cu intenții bune, există foarte puține restricții care îi împiedică pe oameni să-l folosească pentru a provoca rău, în special în cazurile de furt de identitate.
2. Deepfake Voice Clone Escrocherii
Cu ajutorul AI, deepfake-urile au depășit o linie pentru care majoritatea dintre noi nu eram pregătiți: clonele false de voce. Cu doar o cantitate mică de sunet original – poate dintr-un videoclip TikTok pe care l-ați postat odată sau dintr-un videoclip YouTube în care apăreți – un model AI vă poate replica vocea.
Este atât ciudat, cât și înfricoșător să-ți imaginezi că primești un apel telefonic care sună la fel ca un membru al familiei, un prieten sau un coleg. Clonele de voce deepfake sunt o preocupare destul de serioasă încât Comisia Federală pentru Comerț (FTC) a emis un avertisment în acest sens.
Nu ai încredere în voce. Sună persoana care se presupune că te-a contactat și verifică povestea. Folosește un număr de telefon despre care știi că este al lor. Dacă nu puteți contacta persoana iubită, încercați să luați legătura cu ea prin alt membru al familiei sau prietenii acestuia.
The Washington Post a raportat cazul unui cuplu de 70 de ani care a primit un telefon de la cineva care suna exact ca nepotul lor. Era în închisoare și avea nevoie urgent de bani pentru cauțiune. Neavând alt motiv să se îndoiască cu cine vorbeau, au mers înainte și au predat banii escrocului.
Nu doar generația mai în vârstă este în pericol, The Guardian a raportat Un alt exemplu de manager de bancă care a aprobat o tranzacție de 35 de milioane de dolari după o serie de „apeluri falsificate” de la cineva despre care credea a fi director de bancă.
3. Știri false produse în masă
Modele mari de limbaj, cum ar fi ChatGPT sunt foarte, foarte buni la producerea de text care sună exact ca un om și, în prezent, nu avem instrumente eficiente pentru a identifica diferența. În mâinile greșite, știrile false și teoriile conspirației vor fi ieftine de produs și vor dura mai mult pentru dezmințire.
Răspândirea dezinformării nu este ceva nou, desigur, ci o lucrare de cercetare publicat pe arXiv în ianuarie 2023 explică că problema constă în cât de ușor este să extinzi rezultatele cu instrumente AI. Ei se referă la aceasta ca „campanii de influență generate de inteligență artificială”, despre care spun că ar putea fi, de exemplu, folosite de politicieni pentru a-și externaliza campaniile politice.
Combinarea a mai mult de o sursă generată de AI creează un deepfake la nivel înalt. De exemplu, un model AI poate genera o știre bine scrisă și convingătoare, care să meargă alături de imaginea falsă a arestării lui Donald Trump. Acest lucru îi conferă mai multă legitimitate decât dacă imaginea ar fi partajată singură.
Știrile false nu se limitează nici la imagini și scriere, evoluțiile în generarea de videoclipuri AI înseamnă că vedem că apar mai multe videoclipuri deepfake. Iată unul dintre Robert Downey Jr. grefat pe un videoclip cu Elon Musk, postat de Canalul YouTube Deepfakery.
Crearea unui deepfake poate fi la fel de simplă ca și descărcarea unei aplicații. Puteți folosi o aplicație ca TokkingHeads pentru a transforma imaginile statice în avatare animate, care vă permite să vă încărcați propria imagine și sunet pentru a face să pară că persoana vorbește.
În cea mai mare parte, este distractiv și distractiv, dar există și potențial de probleme. Ne arată cât de ușor este să folosiți imaginea cuiva pentru a face să pară că acea persoană a rostit cuvinte pe care nu le-a spus niciodată.
Nu vă lăsați păcăliți de un AI Deepfake
Deepfake-urile pot fi implementate rapid la un cost foarte mic și cu un nivel scăzut de expertiză sau putere de calcul necesară. Ele pot lua forma unei imagini generate, a unei clone de voce sau a unei combinații de imagini, sunet și text generate de AI.
Înainte era mult mai dificil și mai laborios să produci un deepfake, dar acum, cu o mulțime de aplicații AI, aproape oricine are acces la instrumentele folosite pentru a crea deepfake. Pe măsură ce tehnologia AI deepfake devine din ce în ce mai avansată, merită să urmăriți cu atenție pericolele pe care le prezintă.