AI generativ este grozav, dar își prezintă întotdeauna informațiile cu autoritate absolută. Ceea ce este grozav dacă nu halucinează adevărul.

Halucinația cu inteligență artificială (IA) sună perplex. Probabil că vă gândiți: „Nu este halucinația un fenomen uman?” Ei bine, da, înainte a fost un om exclusiv fenomen până când AI a început să prezinte caracteristici umane precum recunoașterea facială, auto-învățare și vorbire recunoaştere.

Din păcate, AI a preluat unele atribute negative, inclusiv halucinații. Deci, este halucinația AI similară cu tipul de halucinație pe care oamenii îl experimentează?

Ce este halucinația AI?

Halucinația cu inteligența artificială apare atunci când un model AI generează rezultate diferite de cele așteptate. Rețineți că unele modele AI sunt antrenate să genereze în mod intenționat rezultate care nu au legătură cu nicio intrare (date) din lumea reală.

De exemplu, generatoare de top AI text-to-art, cum ar fi DALL-E 2, pot genera în mod creativ imagini noi pe care le putem eticheta drept „halucinații”, deoarece nu se bazează pe date din lumea reală.

Halucinația AI în modelele mari de procesare a limbajului

Să luăm în considerare cum ar arăta halucinația AI într-un model mare de procesare a limbajului, cum ar fi ChatGPT. O halucinație ChatGPT ar avea ca rezultat ca botul să vă ofere un fapt incorect cu o anumită afirmație, astfel încât, în mod natural, ați lua astfel de fapte drept adevăr.

În termeni simpli, este vorba de declarații inventate de chatbot-ul inteligent artificial. Iată un exemplu:

La o interogare ulterioară, ChatGPT a apărut cu asta:

Halucinații AI în viziunea computerizată

Să luăm în considerare un alt domeniu al AI care poate experimenta halucinații AI: Viziune pe computer. Testul de mai jos arată un montaj 4x4 cu două entități care seamănă atât de mult. Imaginile sunt un amestec de chipsuri de cartofi BBQ și frunze.

Provocarea este de a selecta chipsurile de cartofi fără a lovi frunzele din montaj. Această imagine ar putea părea dificilă pentru un computer și ar putea să nu poată face diferența între chipsurile de cartofi BBQ și frunzele.

Iată un alt montaj cu un amestec de imagini cu pudel și chiflă cu ață de porc. Cel mai probabil, un computer nu ar putea face diferența între ele, prin urmare amestecând imaginile.

De ce apare halucinația AI?

Halucinația AI poate apărea din cauza exemplelor adverse - date introduse care păcălesc o aplicație AI să le clasifice greșit. De exemplu, atunci când antrenează aplicații AI, dezvoltatorii folosesc date (imagine, text sau altele); dacă datele sunt modificate sau distorsionate, aplicația interpretează diferit intrarea, dând o ieșire greșită.

În schimb, un om poate recunoaște și identifica datele cu acuratețe, în ciuda distorsiunilor. Putem eticheta acest lucru drept bun simț - un atribut uman pe care AI nu îl posedă încă. Vezi cum AI este păcălită cu exemple adverse în acest videoclip:

În ceea ce privește modelele mari bazate pe limbaj precum ChatGPT și alternativele sale, halucinațiile pot apărea din decodificarea inexactă de la transformator (model de învățare automată).

În IA, un transformator este un model de învățare profundă care folosește auto-atenția (relații semantice între cuvinte în o propoziție) pentru a produce text similar cu ceea ce ar scrie un om folosind un codificator-decodor (input-output) secvenţă.

Așadar, transformatoarele, un model de învățare automată semi-supravegheată, pot genera un nou corp de text (ieșire) din corpul mare de date text utilizate în antrenamentul său (intrare). O face prin prezicerea cuvântului următor dintr-o serie bazată pe cuvintele anterioare.

În ceea ce privește halucinația, dacă un model de limbaj ar fi fost instruit pe date și resurse insuficiente și inexacte, este de așteptat ca rezultatul să fie inventat și inexact. Modelul de limbaj poate genera o poveste sau o narațiune fără inconsecvențe logice sau conexiuni neclare.

În exemplul de mai jos, ChatGPT a fost rugat să dea un cuvânt similar cu „revoltă” și începe cu „b”. Iată răspunsul lui:

La sondaje suplimentare, a continuat să dea răspunsuri greșite, cu un nivel ridicat de încredere.

Deci, de ce ChatGPT nu poate oferi un răspuns precis la aceste solicitări?

Este posibil ca modelul de limbaj să nu fie echipat pentru a gestiona solicitări destul de complexe, cum ar fi acestea sau altele nu poate interpreta promptul cu acuratețe, ignorând promptul când dați un cuvânt similar cu un anumit alfabet.

Cum depistați halucinația AI?

Este evident acum că aplicațiile AI au potențialul de a halucina – să genereze răspunsuri altfel din rezultatul așteptat (fapt sau adevăr) fără nicio intenție rău intenționată. Iar identificarea și recunoașterea halucinațiilor AI depinde de utilizatorii unor astfel de aplicații.

Iată câteva modalități de a detecta halucinațiile AI în timp ce utilizați aplicații AI obișnuite:

1. Modele mari de procesare a limbajului

Deși rar, dacă observi o eroare gramaticală în conținutul produs de un model de procesare mare, cum ar fi ChatGPT, asta ar trebui să ridice o sprânceană și să te facă să bănuiești o halucinație. În mod similar, atunci când conținutul generat de text nu sună logic, nu se corelează cu contextul dat sau nu se potrivește cu datele de intrare, ar trebui să suspectați o halucinație.

Folosirea judecății umane sau a bunului simț poate ajuta la detectarea halucinațiilor, deoarece oamenii pot identifica cu ușurință atunci când un text nu are sens sau urmează realitatea.

2. Viziune pe computer

Ca ramură a inteligenței artificiale, a învățării automate și a informaticii, viziunea computerizată dă putere computerelor să recunoască și să proceseze imagini precum ochii umani. Folosind rețele neuronale convoluționale, se bazează pe cantitatea incredibilă de date vizuale folosite în antrenamentul lor.

O abatere de la tiparele datelor vizuale utilizate în antrenament va duce la halucinații. De exemplu, dacă un computer nu a fost antrenat cu imagini ale unei mingi de tenis, ar putea să o identifice drept portocaliu verde. Sau dacă un computer recunoaște un cal de lângă o statuie umană ca un cal lângă un om adevărat, atunci a avut loc o halucinație AI.

Așadar, pentru a identifica o halucinație cu vederea computerizată, comparați rezultatul generat cu ceea ce se așteaptă să vadă un om [normal].

3. Mașini cu conducere autonomă

Credit imagine: Vad

Datorită inteligenței artificiale, mașinile cu conducere autonomă se infiltrează treptat pe piața auto. Pionieri precum Tesla Autopilot și BlueCruise de la Ford au susținut scena mașinilor cu conducere autonomă. Puteți verifica cum și ce vede pilotul automat Tesla pentru a înțelege puțin modul în care AI alimentează mașinile cu conducere autonomă.

Dacă deții una dintre astfel de mașini, ai dori să știi dacă mașina ta AI are halucinații. Un semn va fi dacă vehiculul dumneavoastră pare să se abate de la tiparele sale normale de comportament în timpul conducerii. De exemplu, dacă vehiculul frânează sau virăază brusc fără niciun motiv evident, vehiculul tău AI ar putea avea halucinații.

Sistemele AI pot halucina și ele

Oamenii și modelele AI experimentează halucinațiile în mod diferit. Când vine vorba de AI, halucinațiile se referă la rezultate eronate care sunt la kilometri distanță de realitate sau nu au sens în contextul promptului dat. De exemplu, un chatbot AI poate da un răspuns incorect din punct de vedere gramatical sau logic sau poate identifica greșit un obiect din cauza zgomotului sau a altor factori structurali.

Halucinațiile AI nu rezultă dintr-o minte conștientă sau subconștientă, așa cum ați observa la oameni. Mai degrabă, rezultă din inadecvarea sau insuficiența datelor utilizate în instruirea și programarea sistemului AI.