Te-ai alăturat unei aplicații de întâlniri? Sau cauți iubire în altă parte? Escrocii pot profita de tine folosind inteligența artificială. Iată cum.
Aplicațiile de întâlniri online au fost întotdeauna un focar pentru escrocherii romantice. Infractorii cibernetici merg mai presus de a fura bani, informații personale și fotografii explicite. Veți găsi profilurile lor false peste tot.
Și odată cu proliferarea instrumentelor AI generative, înșelătoriile romantice devin și mai ușor de executat. Ele coboară barierele de intrare. Iată șapte moduri obișnuite în care escrocii romantici exploatează inteligența artificială, plus cum vă puteți proteja.
1. Trimiterea de e-mailuri generate de AI în masă
E-mailurile spam sunt din ce în ce mai greu de filtrat. Escrocii romantici abuzează de instrumentele AI generative pentru a scrie mesaje înșelătoare, convingătoare și pentru a crea mai multe conturi în câteva ore. Se apropie de sute aproape instantaneu.
Veți vedea mesaje spam generate de AI pe diverse platforme, nu doar în căsuța dvs. de e-mail. Luați
înșelătorie de număr greșit ca exemplu. Escrocii trimit selfie-uri drăguțe sau fotografii sugestive în masă. Și dacă cineva răspunde, o va interpreta ca pe o greșeală nevinovată.Odată ce cineva este pe linie, va fi transferat pe o altă platformă de mesagerie (de exemplu, WhatsApp sau Telegram). Majoritatea schemelor rulează săptămâni întregi. Escrocii își construiesc treptat încrederea înainte de a cere țintelor să se alăture schemelor de investiții, să-și asume facturile sau să plătească pentru călătorii.
Rămâneți în siguranță evitând complet mesajele spam. Limitați-vă implicarea cu străinii, indiferent de cum arată aceștia sau de ce oferă.
2. Răspuns rapid la mai multe conversații
Boții se răspândesc ca un incendiu online. Imperva raportează că boții răi au reprezentat 30% din traficul web automat în 2022. Veți găsi unul în câteva secunde de la trecerea prin potrivirile Tinder.
Unul dintre motivele pentru această creștere bruscă a roboților este proliferarea instrumentelor AI generative. Ei produc roboți în vrac. Doar introduceți promptul potrivit și instrumentul dvs. va prezenta un fragment de cod complet și eficient pentru generarea de bot.
Aflați când vorbiți cu un bot. Deși AI folosește un ton natural, conversațional, dialogul său încă sună monoton și ciudat. La urma urmei, chatboții doar urmează tipare. Poate produce răspunsuri similare la diferite întrebări, afirmații și cereri.
3. Crearea de identități multiple din imagini furate
Generatoare de artă AI manipula imaginile. Luați ca exemplu demonstrația de mai jos. Am oferit Playground AI o fotografie sinceră a unui cântăreț celebru – platforma a produs trei variații în câteva secunde.
Da, au defecte. Dar rețineți că am folosit un instrument gratuit care rulează un model învechit text-to-image. Escrocii produc rezultate mai realiste cu iterații sofisticate. Pot reda rapid sute de fotografii personalizate, manipulate din doar câteva mostre.
Din păcate, imaginile AI sunt greu de detectat. Cel mai bun pariu ar fi să faci o căutare inversă a imaginilor și verificați rezultatele relevante.
4. Construirea de profiluri cu aspect înșelător de autentic
Boții abordează victimele în masă. Deci, escrocii romantici care preferă o schemă țintită creează doar unul sau două profiluri cu aspect autentic. Vor folosi AI pentru a părea convingător. Instrumentele AI generative pot compune descrieri cu aspect autentic, care sună natural și autentic; gramatica proastă nu va mai fi o problemă.
Iată ChatGPT care sugerează câteva hobby-uri de enumerat pe un profil de întâlniri.
Și iată ChatGPT care scrie o biografie întreagă pentru profilul tău de întâlniri.
Deoarece acest proces consumă atât de mult timp, necesită și un profit mai mare. Deci, escrocii tind să ceară mai mult. Odată ce îți câștigă încrederea, ei vor cere ajutor pentru diverse „probleme”, cum ar fi facturile de spital, plățile împrumutului sau taxele de școlarizare. Unii vor pretinde chiar că vă vizitează dacă le puneți pe umăr biletul.
Acești criminali cibernetici sunt pricepuți să manipuleze victimele. Cea mai bună tactică este de a evita interacțiunea cu ei chiar de la început. Nu-i lăsa să spună nimic. În caz contrar, s-ar putea să cădeți treptat în înșelăciunea și metodele lor de iluminare cu gaz.
5. Exploatarea tehnologiei Deepfake pentru extorcare sexuală
AI a avansat instrumente de deepfake la un ritm alarmant de rapid. Noile tehnologii reduc imperfecțiuni minore în videoclipurile deepfake, cum ar fi clipirea nenaturală, tonurile neuniforme ale pielii, sunetul distorsionat și elementele inconsecvente.
Din păcate, aceste erori servesc și drept semnale roșii. Permiterea utilizatorilor să le elimine face diferența dintre videoclipurile legitime și cele false mai dificile.
Bloomberg arată cum oricine are cunoștințe de bază în tehnologie își poate manipula vocea și imaginile pentru a-i reproduce pe alții.
Pe lângă crearea de profiluri de întâlniri realiste, escrocii exploatează instrumente deepfake pentru extorcare sexuală. Ei îmbină fotografii și videoclipuri publice cu pornografia. După manipularea conținutului ilicit, vor șantaja victimele și vor cere bani, date personale sau favoruri sexuale.
Nu cedați dacă sunteți vizat. Sunați la 1-800-CALL-FBI, trimiteți un pont FBI sau vizitați biroul local FBI dacă vă aflați în această situație.
6. Integrarea modelelor AI cu sistemele de hacking cu forță brută
În timp ce modelele de limbaj open-source susțin unele progrese ale AI, ele sunt, de asemenea, predispuse la exploatare. Criminalii vor profita de orice. Nu vă puteți aștepta ca ei să ignore algoritmul din spatele modelelor de limbaj extrem de sofisticate, cum ar fi Lamă și OpenAssistant.
În escrocherii romantice, hackerii integrează adesea modele de limbaj cu spargerea parolelor. Capacitățile AI de NLP și de învățare automată permit sistemelor de hacking cu forță brută să producă combinații de parole rapid și eficient. Ei ar putea chiar să facă predicții informate dacă li se oferă suficient context.
Nu aveți control asupra a ceea ce fac escrocii. Pentru a vă proteja conturile, asigurați-vă că creați o parolă cu adevărat sigură cuprinzând caractere speciale, combinații alfanumerice și peste 14 caractere.
7. Imitând oameni reali cu clonarea vocii
Generatoarele de voce AI au început ca o jucărie cool. Utilizatorii ar transforma piese mostre ale artiștilor lor preferați în cover-uri sau chiar melodii noi. Luați Heart on My Sleeve ca exemplu. Utilizator TikTok Ghostwriter977 a făcut o melodie super-realistă, imitând-o pe Drake și The Weeknd, deși niciunul dintre artiști nu a cântat-o.
În ciuda glumelor și memelor din jur, sinteza vorbirii este foarte periculoasă. Le permite criminalilor să execute atacuri sofisticate. De exemplu, escrocii de dragoste exploatează instrumentele de clonare a vocii pentru a apela ținte și a lăsa înregistrări înșelătoare. Victimele care nu sunt familiarizate cu sinteza vorbirii nu vor observa nimic neobișnuit.
Protejați-vă de înșelătoriile clonelor de voce AI studiind modul în care sună ieșirile sintetizate. Explorați aceste generatoare. Ele creează doar clone aproape identice - veți observa în continuare unele imperfecțiuni și inconsecvențe.
Protejați-vă împotriva escrocilor de întâlniri AI
Pe măsură ce instrumentele AI generative avansează, escrocii de dragoste vor dezvolta noi modalități de a le exploata. Dezvoltatorii nu pot opri acești criminali. Asumați un rol proactiv în combaterea infracțiunilor cibernetice în loc să aveți încredere că restricțiile de securitate funcționează. Puteți folosi în continuare aplicații de întâlniri. Dar asigurați-vă că cunoașteți persoana de cealaltă parte a ecranului înainte de a interacționa cu ea.
Și ai grijă la alte scheme asistate de AI. Pe lângă înșelătoriile romantice, infractorii folosesc inteligența artificială pentru furtul de identitate, extorcarea cibernetică, șantajul, atacurile ransomware și hacking-ul cu forță brută. Învață să combati și aceste amenințări.