Chatboții și oamenii lor ar putea părea distractive, dar sunt utile și hackerilor. Iată de ce cu toții trebuie să cunoaștem riscul de securitate al AI.

AI a avansat semnificativ în ultimii ani. Modelele de limbaj sofisticate pot compune romane de lungă durată, pot codifica site-uri web de bază și pot analiza probleme de matematică.

Deși impresionantă, AI generativă prezintă și riscuri de securitate. Unii oameni folosesc doar chatbot-uri pentru a înșela examenele, dar alții îi exploatează pentru infracțiuni cibernetice. Iată opt motive pentru care aceste probleme vor persista, nu doar în ciuda progresele AI dar deoarece si dintre ei.

1. Chatbot-urile AI cu sursă deschisă dezvăluie coduri back-end

Mai multe companii AI furnizează sisteme open-source. Își împărtășesc în mod deschis modelele lingvistice în loc să le păstreze închise sau proprietare. Luați Meta ca exemplu. Spre deosebire de Google, Microsoft și OpenAI, acesta permite milioanelor de utilizatori să acceseze modelul său lingvistic, Lamă.

Deși codurile de sursă deschisă pot avansa AI, este și riscant. OpenAI are deja probleme la controlul ChatGPT, chatbot-ul său proprietar, așa că imaginați-vă ce ar putea face escrocii cu software-ul liber. Ei au control total asupra acestor proiecte.

Chiar dacă Meta își retrage brusc modelul de limbaj, zeci de alte laboratoare AI și-au lansat deja codurile. Să ne uităm la HuggingChat. Deoarece dezvoltatorul său HuggingFace se mândrește cu transparență, își afișează seturile de date, modelul de limbă și versiunile anterioare.

2. Îndemnuri de jailbreaking Trick LLMs

AI este inerent amorală. Nu înțelege bine și greșit – chiar și sistemele avansate urmează instrucțiunile de instruire, liniile directoare și seturile de date. Ei recunosc doar modele.

Pentru a combate activitățile ilicite, dezvoltatorii controlează funcționalitatea și limitările prin stabilirea de restricții. Sistemele AI accesează în continuare informații dăunătoare. Dar regulile de securitate îi împiedică să le partajeze utilizatorilor.

Să ne uităm la ChatGPT. Deși răspunde la întrebări generale despre troieni, nu va discuta despre procesul de dezvoltare a acestora.

Acestea fiind spuse, restricțiile nu sunt sigure. Utilizatorii ocolesc limitele prin reformularea solicitărilor, folosind un limbaj confuz și compunând instrucțiuni detaliate în mod explicit.

Citiți mai jos Solicitare de jailbreak ChatGPT. Păcălește ChatGPT să folosească un limbaj nepoliticos și să facă predicții fără temei – ambele acte încalcă regulile OpenAI.

Iată ChatGPT cu o declarație îndrăzneață, dar falsă.

3. AI compromite securitatea pentru versatilitate

Dezvoltatorii AI acordă prioritate versatilității în detrimentul securității. Ei își cheltuiesc resursele platformelor de instruire pentru a îndeplini o gamă mai diversă de sarcini, reducând în cele din urmă restricțiile. La urma urmei, piața salută chatbot-uri funcționale.

comparați ChatGPT și Bing Chat, de exemplu. În timp ce Bing dispune de un model de limbaj mai sofisticat care extrage date în timp real, utilizatorii continuă să apeleze la opțiunea mai versatilă, ChatGPT. Restricțiile rigide ale Bing interzic multe sarcini. În mod alternativ, ChatGPT oferă o platformă flexibilă care produce rezultate foarte diferite, în funcție de solicitările dvs

Iată jocul de rol ChatGPT ca personaj fictiv.

Și iată că Bing Chat refuză să joace un personaj „imoral”.

Codurile open source permit startup-urilor să se alăture cursei AI. Le integrează în aplicațiile lor în loc să construiască modele de limbaj de la zero, economisind resurse masive. Chiar și programatorii independenți experimentează cu coduri open-source.

Din nou, software-ul neproprietar ajută la dezvoltarea inteligenței artificiale, dar lansarea în masă a sistemelor slab pregătite, dar sofisticate, face mai mult rău decât bine. Escrocii vor abuza rapid de vulnerabilități. Ar putea chiar să antreneze instrumente AI nesigure pentru a efectua activități ilicite.

În ciuda acestor riscuri, companiile de tehnologie vor continua să lanseze versiuni beta instabile ale platformelor bazate pe inteligență artificială. Cursa AI recompensează viteza. Probabil că vor rezolva erorile la o dată ulterioară decât amânarea lansării de noi produse.

5. IA generativă are bariere scăzute la intrare

Instrumentele AI reduc barierele de intrare pentru infracțiuni. Criminalii cibernetici redactează e-mailuri spam, scriu coduri malware și construiesc legături de phishing exploatându-le. Nici măcar nu au nevoie de experiență în tehnologie. Deoarece AI accesează deja seturi de date vaste, utilizatorii trebuie doar să-l păcălească pentru a produce informații dăunătoare și periculoase.

OpenAI nu a conceput niciodată ChatGPT pentru activități ilicite. Are chiar linii directoare împotriva lor. Inca Escrocii au primit aproape instantaneu programe malware de codare ChatGPT și scrierea de e-mailuri de phishing.

Deși OpenAI a rezolvat rapid problema, subliniază importanța reglementării sistemului și a gestionării riscurilor. AI se maturizează mai repede decât a anticipat oricine. Chiar și liderii tehnologiei se tem că această tehnologie superinteligentă ar putea cauza daune masive în mâinile greșite.

6. AI este încă în evoluție

AI este încă în evoluție. In timp ce utilizarea AI în cibernetică datează din 1940, sistemele moderne de învățare automată și modelele lingvistice au apărut abia recent. Nu le puteți compara cu primele implementări ale AI. Chiar și instrumentele relativ avansate precum Siri și Alexa palid în comparație cu chatboții LLM.

Deși pot fi inovatoare, caracteristicile experimentale creează și noi probleme. Accident de mare profil cu tehnologiile de învățare automată variază de la SERP-uri Google defecte la chatbot părtinitoare care scuipă insulte rasiale.

Desigur, dezvoltatorii pot rezolva aceste probleme. Rețineți că escrocii nu vor ezita să exploateze chiar și bug-urile aparent inofensive - unele daune sunt ireversibile. Prin urmare, aveți grijă când explorați noi platforme.

7. Mulți nu înțeleg încă AI

În timp ce publicul larg are acces la modele și sisteme lingvistice sofisticate, doar puțini știu cum funcționează. Oamenii ar trebui să înceteze să trateze AI ca pe o jucărie. Aceiași chatbot care generează meme și răspund la trivia codifică viruși în masă.

Din păcate, instruirea centralizată AI este nerealistă. Liderii tehnologici globali se concentrează pe lansarea de sisteme bazate pe inteligență artificială, nu pe resurse educaționale gratuite. Drept urmare, utilizatorii au acces la instrumente robuste și puternice pe care abia le înțeleg. Publicul nu poate ține pasul cu cursa AI.

Luați ChatGPT ca exemplu. Infractorii cibernetici abuzează de popularitatea sa păcălind victimele cu spyware deghizat în aplicații ChatGPT. Niciuna dintre aceste opțiuni nu vine de la OpenAI.

8. Hackerii cu pălărie neagră au mai multe de câștigat decât cei cu pălărie albă

Hackerii cu pălărie neagră au de obicei mai mult de câștigat decât hackerii etici. Da, testarea stiloului pentru liderii mondiali în tehnologie plătește bine, dar doar un procent din profesioniștii în securitate cibernetică obțin aceste locuri de muncă. Majoritatea lucrează independent online. Platforme ca HackerOne și Aglomerație de bug-uri plătiți câteva sute de dolari pentru bug-uri obișnuite.

Alternativ, escrocii fac zeci de mii prin exploatarea nesiguranțelor. Ei ar putea șantaja companiile prin scurgerea de date confidențiale sau să comită furt de identitate cu furat Informații de identificare personală (PII).

Fiecare instituție, mică sau mare, trebuie să implementeze sisteme AI în mod corespunzător. Contrar credinței populare, hackerii merg dincolo de startup-urile tehnologice și IMM-urile. Unele dintre cele mai multe încălcări istorice de date în ultimul deceniu implică Facebook, Yahoo! și chiar guvernul SUA.

Protejați-vă de riscurile de securitate ale AI

Având în vedere aceste puncte, ar trebui să evitați cu totul AI? Desigur că nu. AI este inerent amorală; toate riscurile de securitate provin din persoanele care le folosesc efectiv. Și vor găsi modalități de a exploata sistemele AI, indiferent cât de departe evoluează acestea.

În loc să vă temeți de amenințările la adresa securității cibernetice care vin cu AI, înțelegeți cum le puteți preveni. Nu vă faceți griji: măsurile simple de securitate merg foarte mult. A fi atenți la aplicațiile AI umbrite, a evita hyperlinkurile ciudate și a vizualiza conținutul AI cu scepticism combate deja mai multe riscuri.