Inteligența artificială poate suna ca președintele. Sau poate suna ca tine sau ca mine. Deci, ce risc pentru securitatea cibernetică prezintă software-ul de clonare a vocii AI?
Inteligența artificială (IA) este o tehnologie puternică care promite să ne transforme viața. Niciodată nu a fost atât de clar ca astăzi, când instrumente puternice sunt disponibile pentru oricine are o conexiune la internet.
Aceasta include generatoare de voce AI, software avansat capabil să mimeze vorbirea umană atât de competent încât poate fi imposibil să se facă distincția între cele două. Ce înseamnă asta pentru securitatea cibernetică?
Cum funcționează generatoarele de voce AI?
Sinteza vorbirii, procesul de producere artificială a vorbirii umane, există de zeci de ani. Și ca orice tehnologie, a suferit schimbări profunde de-a lungul anilor.
Cei care au folosit Windows 2000 și XP s-ar putea să-și amintească de Microsoft Sam, vocea masculină implicită a sistemului de operare de text-to-speech. Microsoft Sam a făcut treaba, dar sunetele pe care le producea erau robotice, rigide și nenaturale. Instrumentele pe care le avem la dispoziție astăzi sunt considerabil mai avansate, în mare parte datorită învățării profunde.
Învățarea profundă este o metoda de învățare automată care se bazează pe rețele neuronale artificiale. Datorită acestor rețele neuronale, inteligența artificială modernă este capabilă să prelucreze date aproape așa cum neuronii din creierul uman interpretează informații. Adică, cu cât IA devine mai asemănătoare omului, cu atât emulează mai bine comportamentul uman.
Pe scurt, așa funcționează generatoarele moderne de voce AI. Cu cât sunt expuși mai multe date despre vorbire, cu atât devin mai adepți la emularea vorbirii umane. Datorită progreselor relativ recente ale acestei tehnologii, software-ul de ultimă oră pentru text-to-speech poate replica în esență sunetele pe care le furnizează.
Cum folosesc actorii de amenințări generatoarele de voce AI
Deloc surprinzător, această tehnologie este abuzată de actorii amenințărilor. Și nu doar infractorii cibernetici în sensul tipic al cuvântului, ci și de către agenții de dezinformare, escrocii, agenții de marketing cu pălărie neagră și troli.
În momentul în care ElevenLabs a lansat o versiune beta a software-ului său de text-to-speech în ianuarie 2023, trolii de extremă dreapta de pe panoul de mesaje 4chan au început să abuzeze de el. Folosind IA avansată, ei au reprodus vocile unor indivizi precum David Attenborough și Emma Watson, făcând să pară că celebritățile ar fi făcut tirade josnice și pline de ură.
La fel de Viciu raportat la acea vreme, ElevenLabs a recunoscut că oamenii au folosit greșit software-ul său, în special clonarea vocii. Această caracteristică permite oricui să „cloneze” vocea altei persoane; tot ce trebuie să faceți este să încărcați o înregistrare de un minut și să lăsați AI să facă restul. Probabil, cu cât o înregistrare este mai lungă, cu atât rezultatul este mai bun.
În martie 2023, un videoclip viral TikTok a atras atenția The New York Times. În videoclip, celebrul podcaster Joe Rogan și Dr. Andrew Huberman, un invitat frecvent la The Joe Rogan Experience, au fost auziți discutând despre o băutură cu cofeină „care stimulează libidoul”. Videoclipul a făcut să pară că atât Rogan, cât și Huberman susțin fără echivoc produsul. În realitate, vocile lor au fost clonate folosind AI.
Aproximativ în același timp, Silicon Valley Bank din Santa Clara, California, sa prăbușit din cauza unor greșeli de gestionare a riscurilor și a altor probleme și a fost preluată de guvernul statului. Acesta a fost cel mai mare faliment bancar din Statele Unite de la criza financiară din 2008, așa că a generat unde de șoc pe piețele globale.
Ceea ce a contribuit la panică a fost o înregistrare audio falsă a președintelui american Joe Biden. În înregistrare, se pare că Biden a fost auzit avertizând despre un „colaps” iminent și îndrumarea administrației sale să „folosească toată forța mass-media pentru a calma publicul”. Verificatorii de fapte ca PolitiFact s-au grăbit să dezminți clipul, dar este probabil că milioane de oameni l-au auzit până în acel moment.
Dacă generatoarele de voce AI pot fi folosite pentru a uzurpa identitatea celebrităților, ele pot fi folosite și pentru a uzurpa identitatea oamenilor obișnuiți și exact asta au făcut infractorii cibernetici. Conform ZDNet, mii de americani se îndrăgostesc de escrocherii cunoscute ca vishing sau phishing vocal in fiecare an. Un cuplu în vârstă a făcut titluri naționale în 2023, când a primit un apel telefonic de la „nepotul” lor, care a pretins că este în închisoare și a cerut bani.
Dacă ați încărcat vreodată un videoclip YouTube (sau ați apărut într-unul), ați participat la un apel de grup mare cu persoane pe care nu le cunoașteți știți sau v-ați încărcat vocea pe internet într-o anumită calitate, dvs. sau cei dragi ați putea fi, teoretic, în pericol. Ce l-ar împiedica pe un escroc să vă încarce vocea într-un generator AI, să o cloneze și să vă contacteze familia?
Generatorii de voce AI perturbă peisajul securității cibernetice
Nu este nevoie de un expert în securitate cibernetică pentru a recunoaște cât de periculoasă poate fi IA în mâinile greșite. Și, deși este adevărat că același lucru poate fi spus pentru toată tehnologia, AI este o amenințare unică din mai multe motive.
În primul rând, este relativ nou, ceea ce înseamnă că nu știm cu adevărat la ce să ne așteptăm de la el. Instrumentele moderne de inteligență artificială le permit infractorilor cibernetici să își extindă și să automatizeze operațiunile într-un mod fără precedent, profitând în același timp de ignoranța relativă a publicului în ceea ce privește această chestiune. De asemenea, IA generativă le permite actorilor de amenințări cu puține cunoștințe și abilități să facă creați cod rău intenționat, construiți site-uri de înșelătorie, răspândiți spam, scrieți e-mailuri de phishing, genera imagini realisteși produc ore nesfârșite de conținut audio și video fals.
În mod esențial, acest lucru funcționează în ambele sensuri: AI este folosit și pentru a proteja sistemele și probabil va fi în deceniile următoare. Nu ar fi nerezonabil să presupunem că ceea ce ne așteaptă este un fel de cursă a înarmărilor AI între criminali cibernetici și industria securității cibernetice, deoarece capacitățile defensive și ofensive ale acestor instrumente sunt în mod inerent egal.
Pentru omul obișnuit, apariția IA generativă pe scară largă necesită un radical regândirea practicilor de securitate. Oricât de interesantă și utilă ar fi AI, poate cel puțin estompa linia dintre ceea ce este real și ce nu este și, în cel mai rău caz, exacerbează problemele de securitate existente și creează un nou spațiu de manevră pentru actorii amenințărilor în.
Generatoarele de voce arată potențialul distructiv al inteligenței artificiale
De îndată ce ChatGPT a apărut pe piață, discuțiile privind reglementarea AI s-au intensificat. Orice încercare de a restrânge această tehnologie ar necesita probabil o cooperare internațională într-o măsură pe care nu am mai văzut-o de zeci de ani, ceea ce o face puțin probabilă.
Geniul a ieșit din sticlă și tot ce putem face este să ne obișnuim. Asta și sperăm că sectorul securității cibernetice se adaptează în consecință.