Chatbot-ii AI pot halucina, oferind răspunsuri incorecte cu încredere – de care hackerii pot profita. Iată cum hackerii armonizează halucinațiile.

IA-urile modelelor de limbaj mari sunt imperfecte și generează uneori informații false. Aceste cazuri, numite halucinații, pot reprezenta o amenințare cibernetică pentru companii și pasionații individuali de AI.

Din fericire, puteți crește apărarea împotriva halucinațiilor AI cu o conștientizare sporită și o a doua presupunere sănătoasă.

De ce halucinează AI?

Nu există un consens cu privire la motivul pentru care modelele AI halucinează, deși există câteva presupuneri probabile.

Inteligența artificială este antrenată din seturi masive de date, conținând adesea defecte, cum ar fi lacune de gândire, variație de importanță a conținutului sau părtiniri dăunătoare. Orice antrenament din aceste seturi de date incomplete sau inadecvate ar putea fi rădăcina halucinațiilor, chiar dacă iterațiile ulterioare ale setului de date au primit îngrijiri de la oamenii de știință de date.

instagram viewer

De-a lungul timpului, oamenii de știință de date pot face informațiile mai precise și pot introduce cunoștințe suplimentare pentru a ocupa posturile vacante și pentru a minimiza potențialul de halucinație. Supraveghetorii ar putea eticheta greșit datele. Codul de programare poate avea erori. Remedierea acestor elemente este esențială, deoarece modelele AI avansează pe baza algoritmilor de învățare automată.

Acești algoritmi folosesc datele pentru a face determinări. O extensie a acesteia este rețeaua neuronală a AI, care creează noi decizii de la experiența de învățare automată la seamănă cu originalitatea minții umane mai precis. Aceste rețele conțin transformatoare, care analizează relațiile dintre punctele de date îndepărtate. Atunci când transformatoarele merg prost, pot apărea halucinații.

Cum halucinațiile AI oferă oportunități pentru hackeri

Din păcate, nu se știe că AI halucinează, iar AI va suna încrezător chiar și atunci când este complet greșit. Toate acestea contribuie la ca utilizatorii să devină mai mulțumiți și să aibă încredere în inteligența artificială, iar actorii amenințărilor se bazează pe acest comportament al utilizatorului pentru a-i determina să descarce sau să declanșeze atacurile.

De exemplu, un model AI ar putea halucina o bibliotecă de coduri false și poate recomanda utilizatorilor să descarce acea bibliotecă. Este probabil ca modelul să continue să recomande această bibliotecă halucinată multor utilizatori care pun o întrebare similară. Dacă hackerii descoperă această halucinație, ei pot crea o versiune reală a bibliotecii imaginate, dar plină cu cod periculos și malware. Acum, când AI continuă să recomande biblioteca de coduri, utilizatorii fără să știe vor descărca codul hackerilor.

Transportul de coduri și programe dăunătoare profitând de halucinațiile AI este un pas care nu este surprinzător pentru actorii amenințărilor. Hackerii nu creează neapărat nenumărate amenințări cibernetice noi, ci doar caută noi modalități de a le livra fără suspiciuni. Halucinațiile inteligenței artificiale se bazează pe aceeași naivitate umană, de care depinde de clic pe linkurile de e-mail (de aceea ar trebui să utilizați instrumente de verificare a linkurilor pentru a verifica adresele URL).

Hackerii l-ar putea duce și la nivelul următor. Dacă căutați ajutor pentru codificare și descărcați codul fals, rău intenționat, actorul amenințării ar putea, de asemenea, să facă codul să fie efectiv funcțional, cu un program dăunător rulând în fundal. Doar pentru că funcționează așa cum anticipați, nu înseamnă că nu este periculos.

Lipsa de educație vă poate încuraja să descărcați recomandări generate de AI din cauza comportamentului pilotului automat online. Fiecare sector se află sub presiunea culturală pentru a adopta AI în practicile sale de afaceri. Nenumărate organizații și industrii îndepărtate de tehnologie se joacă cu instrumente AI cu puțină experiență și cu o securitate cibernetică și mai redusă pur și simplu pentru a rămâne competitivi.

Cum să fii ferit de halucinațiile AI armate

Progresul este la orizont. Crearea de programe malware cu IA generativă a fost ușoară înainte ca companiile să ajusteze seturile de date și termenii și condițiile pentru a preveni generațiile lipsite de etică. Cunoscând slăbiciunile societale, tehnice și personale pe care le puteți avea împotriva halucinațiilor periculoase ale inteligenței artificiale, care sunt câteva modalități de a rămâne în siguranță?

Oricine din industrie poate lucra la rafinarea tehnologiei rețelelor neuronale și la verificarea bibliotecii. Trebuie să existe controale și echilibrări înainte ca răspunsurile să ajungă pe utilizatorii finali. În ciuda faptului că acesta este un progres necesar al industriei, aveți și un rol de jucat în protejarea dvs. și a celorlalți de amenințările generatoare de inteligență artificială.

Utilizatori medii poate exersa reperarea halucinațiilor AI cu aceste strategii:

  • Găsirea erorilor de ortografie și de gramatică.
  • Vedeți când contextul interogării nu se aliniază cu contextul răspunsului.
  • Recunoașterea când imaginile bazate pe computer nu se potrivesc cu modul în care ochii umani ar vedea conceptul.

Fiți întotdeauna atenți când descărcați conținut de pe internet, chiar și atunci când este recomandat de AI. Dacă AI recomandă descărcarea codului, nu o faceți orbește; verificați orice recenzii pentru a vă asigura că codul este legitim și vedeți dacă puteți găsi informații despre creator.

Cea mai bună rezistență împotriva atacurilor bazate pe halucinații AI este educația. A vorbi despre experiențele tale și a citi modul în care alții au provocat halucinații rău intenționate, fie prin accident sau prin testare intenționată, este de neprețuit în navigarea AI în viitor.

Îmbunătățirea securității cibernetice AI

Trebuie să fii atent la ce ceri când vorbești cu un AI. Limitați potențialul de rezultate periculoase, fiind cât mai specific posibil și punând la îndoială orice apare pe ecran. Testați codul în medii sigure și verificați alte informații aparent de încredere. În plus, colaborați cu alții, discutați despre experiențele dvs. și simplificați jargonul despre AI halucinațiile și amenințările la adresa securității cibernetice pot ajuta masele să fie mai vigilente și mai rezistente hackeri.