Cu milioane de utilizatori ChatGPT, s-ar putea să vă întrebați ce face OpenAI cu toate conversațiile sale. Analizează în mod constant lucrurile despre care vorbiți cu ChatGPT?

Răspunsul la aceasta este, da, ChatGPT învață din contribuțiile utilizatorului, dar nu în modul în care cred majoritatea oamenilor. Iată un ghid aprofundat care explică de ce ChatGPT urmărește conversațiile, cum le folosește și dacă securitatea ta este compromisă.

ChatGPT își amintește conversațiile?

ChatGPT nu primește solicitări la valoarea nominală. Utilizează memoria contextuală pentru a aminti și a face referire la intrările anterioare, asigurând răspunsuri relevante și consecvente.

Luați ca exemplu conversația de mai jos. Când am cerut lui ChatGPT idei de rețete, a luat în considerare mesajul nostru anterior despre alergiile la arahide.

Iată rețeta sigură pentru ChatGPT.

Memoria contextuală permite, de asemenea, AI să execute sarcini în mai mulți pași. Imaginea de mai jos arată că ChatGPT rămâne în caracter chiar și după ce i-a transmis un nou prompt.

instagram viewer

ChatGPT își poate aminti zeci de instrucțiuni în cadrul conversațiilor. Ieșirea sa se îmbunătățește de fapt în acuratețe și precizie pe măsură ce oferiți mai mult context. Asigurați-vă că explicați explicit instrucțiunile.

De asemenea, ar trebui să vă gestionați așteptările, deoarece memoria contextuală a ChatGPT are încă limitări.

Conversațiile ChatGPT au capacități limitate de memorie

Memoria contextuală este finită. ChatGPT are resurse hardware limitate, așa că își amintește doar până la anumite puncte ale conversațiilor curente. Platforma uită solicitările anterioare odată ce atingeți capacitatea de memorie.

În această conversație, am instruit ChatGPT să joace un personaj fictiv pe nume Tomie.

A început să răspundă la solicitări ca Tomie, nu ChatGPT.

Deși solicitarea noastră a funcționat, ChatGPT a rupt caracterul după ce a primit o solicitare de 1.000 de cuvinte.

OpenAI nu a dezvăluit niciodată limitele exacte ale ChatGPT, dar zvonurile spun că poate procesa doar 3.000 de cuvinte la un moment dat. În experimentul nostru, ChatGPT a funcționat defectuos după doar 2.800 de cuvinte.

Puteți împărți solicitările dvs. în două seturi de 1.500 de cuvinte, dar ChatGPT probabil nu vă va păstra toate instrucțiunile. Doar începeți un alt chat. În caz contrar, va trebui să repeți anumite detalii de mai multe ori pe parcursul conversației.

ChatGPT își amintește numai intrările relevante pentru subiect

ChatGPT folosește memoria contextuală pentru a îmbunătăți acuratețea rezultatelor. Nu păstrează informații doar de dragul de a le colecta. Platforma uită aproape automat detalii irelevante, chiar dacă ești departe de a atinge limita de token.

În imaginea de mai jos, încercăm să confundăm AI cu diverse instrucțiuni incoerente, irelevante.

Am păstrat intrările noastre combinate sub 100 de cuvinte, dar ChatGPT încă a uitat prima noastră instrucțiune. A rupt rapid caracterul.

Între timp, ChatGPT a continuat să joace de rol în timpul acestei conversații, deoarece am pus doar întrebări relevante pentru subiect.

În mod ideal, fiecare dialog trebuie să urmeze o temă singulară pentru a menține rezultate corecte și relevante. Puteți încă introduce mai multe instrucțiuni simultan. Doar asigurați-vă că se aliniază cu subiectul general, altfel ChatGPT ar putea renunța la instrucțiuni pe care le consideră irelevante.

Instrucțiuni de instruire Overpower User input

ChatGPT va acorda întotdeauna prioritate instrucțiunilor predeterminate față de intrarea generată de utilizator. Oprește activitățile ilicite prin restricții. Platforma respinge orice solicitare pe care o consideră periculoasă sau dăunătoare pentru alții.

Luați drept exemple cererile de jocuri de rol. Deși depășesc anumite limitări privind limbajul și formularea, nu le puteți folosi pentru a comite activități ilicite.

Desigur, nu toate restricțiile sunt rezonabile. Dacă liniile directoare rigide fac dificilă executarea unor sarcini specifice, continuați să rescrieți solicitările. Alegerea cuvântului și tonul afectează puternic rezultatele. Te poți inspira din cele mai multe solicitări eficiente și detaliate pe GitHub.

Cum studiază OpenAI conversațiile utilizatorilor?

Memoria contextuală se aplică numai conversației dvs. curente. Arhitectura apatridă a ChatGPT tratează conversațiile ca instanțe independente; nu poate face referire la informații din cele anterioare. Pornirea unor noi chaturi resetează întotdeauna starea modelului.

Acest lucru nu înseamnă că ChatGPT aruncă conversațiile utilizatorilor instantaneu. Termenii de utilizare ai OpenAI afirmă că compania colectează intrări de la servicii pentru consumatori non-API, cum ar fi ChatGPT și Dall-E. Puteți chiar să cereți copii ale istoricului dvs. de chat.

În timp ce ChatGPT accesează liber conversații, Politica de confidențialitate a OpenAI interzice activitățile care ar putea compromite utilizatorii. Formatorii vă pot folosi datele numai pentru cercetarea și dezvoltarea produselor.

Dezvoltatorii caută lacune

OpenAI caută lacune prin conversații. Acesta analizează cazurile în care ChatGPT demonstrează prejudecăți ale datelor, produce informații dăunătoare sau ajută la comiterea de activități ilicite. Orientările etice ale platformei sunt reînnoite constant.

De exemplu, primele versiuni ale ChatGPT a răspuns deschis la întrebări despre codificarea programelor malware sau construirea de explozibili. Aceste incidente i-au făcut pe utilizatori să se simtă ca OpenAI nu are control asupra ChatGPT. Pentru a recâștiga încrederea publicului, a instruit chatbot-ul să respingă orice întrebare care ar putea contraveni regulilor sale.

Formatorii colectează și analizează date

ChatGPT folosește tehnici de învățare supravegheată. Deși platforma își amintește toate intrările, nu învață din ele în timp real. Trainerii OpenAI le colectează și analizează mai întâi. Procedând astfel, se asigură că ChatGPT nu absoarbe niciodată informațiile dăunătoare și dăunătoare pe care le primește.

Învățarea supravegheată necesită mai mult timp și energie decât tehnicile nesupravegheate. Cu toate acestea, lăsarea AI să analizeze numai inputul sa dovedit deja dăunătoare.

Luați Microsoft Tay ca exemplu - unul dintre ori când învățarea automată a mers prost. Deoarece a analizat în mod constant tweet-urile fără îndrumarea dezvoltatorului, utilizatorii rău intenționați l-au antrenat în cele din urmă să scuipe opinii rasiste, stereotipe.

Dezvoltatorii au grijă în mod constant la părtiniri

Mai multe factorii externi cauzează părtiniri în IA. Prejudecățile inconștiente pot apărea din diferențele dintre modelele de antrenament, erorile setului de date și restricțiile prost construite. Le veți observa în diverse aplicații AI.

Din fericire, ChatGPT nu a demonstrat niciodată părtiniri discriminatorii sau rasiale. Poate că cea mai proastă părtinire pe care utilizatorii l-au observat este înclinația lui ChatGPT către ideologiile de stânga, potrivit unui New York Post raport. Platforma scrie mai deschis despre subiecte liberale decât conservatoare.

Pentru a rezolva aceste părtiniri, OpenAI a interzis ChatGPT să ofere informații politice în totalitate. Poate răspunde doar la fapte generale.

Moderatorii examinează performanța ChatGPT

Utilizatorii pot oferi feedback cu privire la rezultatul ChatGPT. Veți găsi butoanele pentru degetul mare în sus și degetul mare în jos în partea dreaptă a fiecărui răspuns. Primul indică o reacție pozitivă. După ce ați apăsat pe butonul de apreciare sau de neapreciat, va apărea o fereastră în care puteți trimite feedback cu propriile cuvinte.

Sistemul de feedback este util. Doar acordă-i lui OpenAI puțin timp pentru a verifica comentariile. Milioane de utilizatori comentează în mod regulat ChatGPT – dezvoltatorii săi probabil prioritizează cazurile grave de părtinire și generarea de rezultate dăunătoare.

Sunt sigure conversațiile tale ChatGPT?

Având în vedere politicile de confidențialitate ale OpenAI, poți fi sigur că datele tale vor rămâne în siguranță. ChatGPT folosește conversații numai pentru instruirea datelor. Dezvoltatorii săi studiază informațiile colectate pentru a îmbunătăți acuratețea și fiabilitatea rezultatelor, nu pentru a fura date personale.

Acestea fiind spuse, niciun sistem AI nu este perfect. ChatGPT nu este părtinitor în mod inerent, dar persoanele rău intenționate ar putea încă exploata vulnerabilitățile sale, de exemplu, erori de seturi de date, instruire neglijentă și lacune de securitate. Pentru protecția ta, învață să combati aceste riscuri.