Cititorii ca tine ajută la sprijinirea MUO. Când efectuați o achiziție folosind link-uri de pe site-ul nostru, este posibil să câștigăm un comision de afiliat. Citeşte mai mult.

Lansarea ChatGPT de la OpenAI a fost urmată de entuziasmul care este egalat doar de o mână de produse tehnologice din istoria internetului.

În timp ce mulți oameni sunt încântați de acest nou serviciu AI, fiorul pe care l-au simțit alții s-a transformat de atunci în preocupări și chiar temeri. Studenții înșală deja cu el, mulți profesori descoperând eseuri și teme scrise de chatbot-ul AI. Profesioniștii în securitate își exprimă îngrijorarea că escrocii și actorii amenințărilor îl folosesc pentru a scrie e-mailuri de phishing și pentru a crea malware.

Deci, cu toate aceste preocupări, OpenAI pierde controlul asupra unuia dintre cei mai puternici chatboți AI online în prezent? Să aflăm.

Înțelegerea modului în care funcționează ChatGPT

Înainte de a putea obține o imagine clară a cât de mult pierde OpenAI controlul asupra ChatGPT, trebuie mai întâi să înțelegem cum funcționează ChatGPT.

Pe scurt, ChatGPT este antrenat folosind o colecție masivă de date provenite din diferite colțuri ale internetului. Datele de instruire ale ChatGPT includ enciclopedii, lucrări științifice, forumuri de internet, site-uri web de știri și depozite de cunoștințe precum Wikipedia. Practic, se hrănește cu cantitatea masivă de date disponibile pe World Wide Web.

Pe măsură ce răsfoiește internetul, adună cunoștințe științifice, sfaturi de sănătate, texte religioase și toate tipurile de date bune la care te poți gândi. Dar, de asemenea, cercetează o mulțime de informații negative: blestem, NSFW și conținut pentru adulți, informații despre cum să faci malware și o mare parte din lucrurile rele pe care le poți găsi pe internet.

Nu există nicio modalitate sigură de a ne asigura că ChatGPT învață numai din informațiile pozitive, în timp ce le elimină pe cele rele. Din punct de vedere tehnic, nu este practic să faceți acest lucru la scară largă, mai ales pentru un AI precum ChatGPT care trebuie să se antreneze pe atât de multe date. În plus, unele informații pot fi folosite atât în ​​scopuri bune, cât și în scopuri rele, iar ChatGPT nu ar avea de unde să-și cunoască intenția decât dacă este pusă într-un context mai mare.

Deci, de la început, ai un AI capabil de „bine și rău”. Apoi, este responsabilitatea OpenAI să se asigure că partea „rău” a lui ChatGPT nu este exploatată pentru câștiguri lipsite de etică. Întrebarea este; face OpenAI suficient pentru a menține ChatGPT cât mai etic posibil? Sau OpenAI a pierdut controlul asupra ChatGPT?

Este ChatGPT prea puternic pentru binele său?

În primele zile ale ChatGPT, puteai convinge chatbot-ul să creeze ghiduri despre fabricarea bombelor dacă întrebi frumos. În imagine au fost și instrucțiuni despre crearea de malware sau scrierea unui e-mail de înșelătorie perfect.

Cu toate acestea, odată ce OpenAI și-a dat seama de aceste probleme etice, compania s-a străduit să adopte reguli care să împiedice chatbot-ul să genereze răspunsuri care promovează acțiuni ilegale, controversate sau lipsite de etică. De exemplu, cea mai recentă versiune ChatGPT va refuza să răspundă la orice solicitare directă despre fabricarea de bombe sau cum să trișeze la o examinare.

Din păcate, OpenAI poate oferi doar o soluție de bandă pentru problemă. În loc să construiască controale rigide pe stratul GPT-3 pentru a împiedica exploatarea negativă a ChatGPT, OpenAI pare să se concentreze pe antrenarea chatbot-ului să pară etic. Această abordare nu elimină capacitatea ChatGPT de a răspunde la întrebări despre, să zicem, trișarea la examene – pur și simplu îl învață pe chatbot să „refuze să răspundă”.

Așadar, dacă cineva își exprimă sugestiile în mod diferit adoptând trucuri de jailbreaking ChatGPT, ocolirea acestor restricții de band-aid este jenant de ușor. În cazul în care nu sunteți familiarizat cu conceptul, jailbreak-urile ChatGPT sunt prompturi formulate cu atenție pentru a determina ChatGPT să-și ignore propriile reguli.

Aruncă o privire la câteva exemple de mai jos. Dacă întrebați ChatGPT cum să trișați la examene, acesta nu va produce niciun răspuns util.

Dar dacă faci jailbreak ChatGPT folosind solicitări special concepute, îți va oferi sfaturi despre înșelarea la un examen folosind note ascunse.

Iată un alt exemplu: i-am adresat Vanilla ChatGPT o întrebare lipsită de etică, iar garanțiile OpenAI l-au împiedicat să răspundă.

Dar când am întrebat instanța noastră jailbreak a chatbot-ului AI, am primit câteva răspunsuri în stilul criminalului în serie.

A scris chiar și o înșelătorie prin e-mail clasică Nigerian Prince când a fost întrebat.

Jailbreak-ul invalidează aproape complet orice garanții pe care OpenAI le-a pus în aplicare, subliniind că este posibil ca compania să nu aibă o modalitate fiabilă de a-și menține chatbot-ul AI sub control.

Nu am inclus în exemplele noastre solicitările cu jailbreak pentru a evita practicile lipsite de etică.

Ce ne rezervă viitorul pentru ChatGPT?

În mod ideal, OpenAI dorește să astupe cât mai multe lacune etice posibil pentru a le preveni ChatGPT să nu devină o amenințare pentru securitatea cibernetică. Cu toate acestea, pentru fiecare protecție pe care o folosește, ChatGPT tinde să devină puțin mai puțin valoros. Este o dilemă.

De exemplu, măsurile de protecție împotriva descrierii acțiunilor violente ar putea diminua capacitatea ChatGPT de a scrie un roman care implică scena crimei. Pe măsură ce OpenAI intensifică măsurile de siguranță, sacrifică inevitabil o parte din abilitățile sale în acest proces. Acesta este motivul pentru care ChatGPT a suferit o scădere semnificativă a funcționalității de la impulsul reînnoit al OpenAI pentru o moderare mai strictă.

Dar cât mai mult din abilitățile ChatGPT va fi dispus OpenAI să sacrifice pentru a face chatbot-ul mai sigur? Toate acestea se leagă perfect de o credință de lungă durată în cadrul comunității AI – modelele de limbă mari precum ChatGPT sunt notoriu greu de controlat, chiar și de către propriii creatori.

OpenAI poate pune ChatGPT sub control?

Deocamdată, OpenAI nu pare să aibă o soluție clară pentru a evita utilizarea neetică a instrumentului său. Asigurarea că ChatGPT este folosit în mod etic este un joc de pisică și șoarece. În timp ce OpenAI descoperă moduri pe care oamenii le folosesc pentru a juca sistemul, utilizatorii săi o fac și în mod constant repararea și sondarea sistemului pentru a descoperi noi modalități creative de a face ChatGPT să facă ceea ce nu trebuie a face.

Deci, va găsi OpenAI o soluție fiabilă pe termen lung la această problemă? Numai timpul va spune.