ChatGPT poate fi un instrument util, indiferent dacă intențiile tale sunt bune sau rele. Aceasta înseamnă că dacă doriți să vă implicați în fraude, ChatGPT vă poate ajuta.
Deși mulți nativi digitali laudă ChatGPT, unii se tem că face mai mult rău decât bine. Știrile despre escrocii care deturnează IA au făcut tururi pe internet, crescând neliniștea printre sceptici. Ei chiar consideră ChatGPT un instrument periculos.
Chatboții AI nu sunt perfecți, dar nu trebuie să îi eviți cu totul. Iată tot ce ar trebui să știi despre modul în care escrocii abuzează de ChatGPT și ce poți face pentru a-i opri.
ChatGPT vă va compromite informațiile personale?
Cele mai multe preocupări de securitate front-end cu privire la ChatGPT provin din speculații și rapoarte neverificate. Platforma a fost lansată abia în noiembrie 2022, până la urmă. Este firesc ca utilizatorii noi să aibă concepții greșite despre confidențialitatea și securitatea instrumentelor necunoscute.
Conform Termenii de utilizare ai OpenAI, iată cum tratează ChatGPT următoarele date:
Informații de identificare personală
Zvonurile spun că ChatGPT vinde informații de identificare personală (PII).
Platforma a fost lansată de OpenAI, un laborator de cercetare AI de renume, finanțat de investitori în tehnologie precum Microsoft și Elon Musk. ChatGPT ar trebui să utilizeze numai datele clienților pentru a furniza serviciile menționate în Politica de confidențialitate.
Mai mult, ChatGPT solicită informații minime. Vă puteți crea un cont doar cu numele și adresa de e-mail.
Conversații
OpenAI păstrează conversațiile ChatGPT în siguranță, dar își rezervă dreptul de a le monitoriza. Trainerii AI caută continuu zone de îmbunătățire. Deoarece platforma cuprinde seturi de date vaste, dar limitate, rezolvarea erorilor, erorilor și vulnerabilităților necesită actualizări la nivel de sistem.
Cu toate acestea, OpenAI poate monitoriza convoațiile numai în scopuri de cercetare. Distribuirea sau vânzarea acestora către terți încalcă propriii termeni de utilizare.
Informatii publice
In conformitate cu BBC, OpenAI a instruit ChaGPT pe 300 de miliarde de cuvinte. Acesta colectează date din pagini web publice, cum ar fi platforme de social media, site-uri web de afaceri și secțiuni de comentarii. Cu excepția cazului în care ați ieșit din rețea și v-ați șters amprenta digitală, ChatGPT are probabil informațiile dvs.
Ce riscuri de securitate prezintă ChatGPT?
Deși ChatGPT nu este în mod inerent periculos, platforma prezintă în continuare riscuri de securitate. Escrocii pot ocoli restricțiile pentru a executa diverse atacuri cibernetice.
1. E-mailuri convingătoare de phishing
În loc să petreacă ore în șir scriind e-mailuri, escrocii folosesc ChatGPT. Este rapid și precis. Modelele de limbaj avansate (cum ar fi GPT-3.5 și GPT-4) pot produce sute de e-mailuri de phishing coerente și convingătoare în câteva minute. Ei adoptă chiar tonuri și stiluri de scriere unice.
Deoarece ChatGPT face mai dificilă identificarea încercărilor de hacking, aveți grijă suplimentară înainte de a răspunde la e-mailuri. Ca regulă generală, evitați divulgarea informațiilor. Rețineți că companiile și organizațiile legitime rareori solicită informații personale confidențiale prin e-mailuri aleatorii.
Învață să identifici încercările de hacking. Deși furnizorii de e-mail filtrează mesajele spam, unele viclene ar putea cădea prin fisuri. Ar trebui să știți în continuare cum arată mesajele de phishing.
2. Furtul de date
ChatGPT folosește un LLM open-source, pe care oricine îl poate modifica. Codificatorii cunoscători în modelele lingvistice mari (LLM) și în învățarea automată integrează adesea modele AI pregătite în prealabil în sistemele lor moștenite. Antrenarea AI pe noile seturi de date modifică funcționalitatea. De exemplu, ChatGPT devine un pseudo-expert în fitness dacă îi hrăniți cu rețete și rutine de exerciții.
Deși colaborativ și convenabil, sursele deschise lasă tehnologiile vulnerabile la abuz. Criminalii calificați exploatează deja ChatGPT. Îl antrenează pe volume mari de date furate, transformând platforma într-o bază de date personală pentru fraudă.
Amintiți-vă: nu aveți control asupra modului în care funcționează escrocii. Cea mai bună abordare este să contactați Comisia Federală pentru Comerț (FTC) odată ce observați semne de furt de identitate.
3. Producția de malware
ChatGPT scrie fragmente de cod utilizabile în diferite limbaje de programare. Majoritatea mostrelor necesită modificări minime pentru a funcționa corect, mai ales dacă structurați un prompt concis. Puteți folosi această funcție pentru a dezvolta aplicații și site-uri.
Deoarece ChatGPT a fost instruit pe miliarde de seturi de date, cunoaște și practici ilicite, cum ar fi dezvoltarea de malware și viruși. OpenAI interzice chatbot-urilor să scrie coduri rău intenționate. Dar escrocii ocolesc aceste restricții prin restructurarea solicitărilor și punând întrebări precise.
Fotografia de mai jos arată că ChatGPT respinge scrierea codului în scopuri rău intenționate.
Între timp, fotografia de mai jos arată că ChatGPT vă va oferi informații dăunătoare dacă exprimați corect solicitările.
4. Furtul de proprietate intelectuală
Bloggerii lipsiți de etică rotesc conținut folosind ChatGPT. Deoarece platforma rulează pe LLM-uri avansate, poate reformula rapid mii de cuvinte și poate evita etichetele de plagiat.
ChatGPT a reformulat textul de mai jos în 10 secunde.
Desigur, spinning-ul încă se clasifică drept plagiat. Articolele parafrazate AI se clasează uneori din întâmplare, dar Google preferă, în general, conținutul original din surse de renume. Trucuri ieftine și hack-uri SEO nu pot învinge scrierea veșnic verde de înaltă calitate.
De asemenea, Google lansează mai multe actualizări de bază anual. În curând, se va concentra pe eliminarea pieselor leneșe și neoriginale generate de AI din SERP-uri.
5. Generarea de răspunsuri neetice
Modelele de limbaj AI nu au părtiniri. Ei oferă răspunsuri analizând solicitările utilizatorilor și extragând date din baza lor de date existentă.
Luați ChatGPT ca exemplu. Când trimiteți o solicitare, acesta răspunde în funcție de seturile de date folosite de OpenAI pentru antrenament.
În timp ce politicile de conținut ale ChatGPT blochează solicitările neadecvate, utilizatorii le ocolesc cu solicitări de jailbreak. Îi furnizează instrucțiuni precise și inteligente. ChatGPT produce răspunsul de mai jos dacă îi cereți să portretizeze un personaj fictiv psihopat.
Vestea bună este OpenAI nu a pierdut controlul asupra ChatGPT. Eforturile sale continue de înăsprire a restricțiilor împiedică ChatGPT să producă răspunsuri lipsite de etică, indiferent de intrarea utilizatorului. Jailbreaking-ul nu va fi la fel de ușor înainte.
6. O favoare pentru alta
Creșterea rapidă a tehnologiilor noi, necunoscute, cum ar fi ChatGPT, creează oportunități pentru atacuri contrar. Sunt tactici de inginerie socială în care escrocii atrage victimele cu oferte false.
Majoritatea oamenilor nu au explorat încă ChatGPT. Iar hackerii exploatează confuzia răspândind promoții, e-mailuri și anunțuri înșelătoare.
Cele mai notorii cazuri implică aplicații false. Utilizatorii noi nu știu că pot accesa ChatGPT doar prin OpenAI. Ei descarcă fără să știe programe și extensii spam.
Majoritatea vor doar descărcări de aplicații, dar alții fură informații de identificare personală. Escrocii îi infectează cu malware și link-uri de phishing. De exemplu, în martie 2023, a extensia falsă ChatGPT Chrome a furat acreditările Facebook de la peste 2.000 de utilizatori zilnic.
Pentru a combate încercările de contrapartidă, evitați aplicațiile terță parte. OpenAI nu a lansat niciodată o aplicație mobilă autorizată, un program de calculator sau o extensie de browser pentru ChatGPT. Orice pretinde ca atare este o înșelătorie.
Utilizați ChatGPT în siguranță și responsabil
ChatGPT nu este o amenințare în sine. Sistemul are vulnerabilități, dar nu vă va compromite datele. În loc să vă temeți de tehnologiile AI, cercetați modul în care escrocii le încorporează în tacticile de inginerie socială. În acest fel, vă puteți proteja în mod proactiv.
Dar dacă mai aveți îndoieli cu privire la ChatGPT, încercați Bing. Noul Bing dispune de un chatbot alimentat de AI care rulează pe GPT-4, extrage date de pe internet și urmează măsuri stricte de securitate. S-ar putea să o găsești mai potrivită nevoilor tale.