Tot mai multe companii interzic ChatGPT la locul de muncă, dar ce se află în spatele interdicțiilor?
În ciuda abilităților sale impresionante, mai multe companii importante le-au interzis angajaților să folosească ChatGPT.
În mai 2023, Samsung a interzis utilizarea ChatGPT și a altor instrumente AI generative. Apoi, în iunie 2023, Commonwealth Bank of Australia a urmat exemplul, alături de companii precum Amazon, Apple și JPMorgan Chase & Co. Unele spitale, firme de avocatură și agenții guvernamentale au interzis, de asemenea, angajaților să folosească ChatGPT.
Deci, de ce tot mai multe companii interzic ChatGPT? Iată cinci motive majore.
1. Scurgeri de date
ChatGPT necesită o cantitate mare de date pentru a se antrena și a funcționa eficient. Chatbot-ul a fost antrenat folosind cantități masive de date derivate de pe internet și continuă să fie antrenat.
Conform Pagina de ajutor a OpenAI, fiecare parte de date, inclusiv detalii confidențiale ale clienților, secrete comerciale și afaceri sensibile informațiile pe care le furnizați chatbot-ului pot fi revizuite de formatorii săi, care vă pot folosi datele pentru a îmbunătăți sistemele lor.
Multe companii sunt supuse unor reglementări stricte privind protecția datelor. Prin urmare, aceștia sunt precauți în ceea ce privește partajarea datelor cu caracter personal cu entități externe, deoarece acest lucru crește riscurile de scurgeri de date.
În plus, OpenAI nu oferă nicio protecție sigură a datelor și asigurare a confidențialității. În martie 2023, OpenAI confirmat o eroare care le permite unor utilizatori să vadă titlurile de chat în istoriile altor utilizatori activi. Deși acest bug a fost remediat și OpenAI a lansat un program de recompensă pentru erori, compania nu asigură siguranța și confidențialitatea datelor utilizatorilor.
Multe organizații aleg să restricționeze angajații să utilizeze ChatGPT pentru a evita scurgerile de date, care le poate afecta reputația, poate duce la pierderi financiare și îi poate pune pe clienții și angajații risc.
2. Riscuri de securitate cibernetică
In timp ce nu este clar dacă ChatGPT este cu adevărat predispus la riscuri de securitate cibernetică, există șansa ca implementarea sa în cadrul unei organizații să introducă vulnerabilități potențiale pe care atacatorii cibernetici le pot exploata.
Dacă o companie integrează ChatGPT și există puncte slabe în sistemul de securitate al chatbot-ului, atacatorii pot fi capabili să exploateze vulnerabilitățile și să injecteze coduri malware. De asemenea, capacitatea ChatGPT de a genera răspunsuri asemănătoare oamenilor este un ou de aur pentru atacatorii de tip phishing care pot lua peste un cont sau uzurparea identitatea unor entități legitime pentru a înșela angajații companiei pentru a distribui informații sensibile informație.
3. Crearea de chatbot-uri personalizate
În ciuda caracteristicilor sale inovatoare, ChatGPT poate produce informații false și înșelătoare. Drept urmare, multe companii au creat chatbot-uri AI în scopuri profesionale. De exemplu, Commonwealth Bank of Australia le-a cerut angajaților săi să folosească Gen.ai, un chatbot de inteligență artificială (AI) care folosește informațiile CommBank pentru a oferi răspunsuri.
Companii precum Samsung și Amazon au dezvoltat modele avansate de limbaj natural, astfel încât companiile să poată crea și implementa cu ușurință chatbot-uri personalizate pe baza transcrierilor existente. Cu acești chatbot interni, puteți preveni consecințele legale și reputaționale asociate cu gestionarea greșită a datelor.
4. Lipsa Reglementării
În industriile în care companiile sunt supuse protocoalelor și sancțiunilor de reglementare, lipsa îndrumărilor de reglementare a ChatGPT este un semnal roșu. Fără condiții de reglementare precise care guvernează utilizarea ChatGPT, companiile se pot confrunta cu consecințe legale grave atunci când folosesc chatbot-ul AI pentru operațiunile lor.
În plus, lipsa de reglementare poate diminua responsabilitatea și transparența unei companii. Majoritatea companiilor pot fi confuze în ceea ce privește explicarea Procesele de luare a deciziilor și măsurile de securitate ale modelului de limbaj AI către clienții lor.
Companiile restricționează ChatGPT, temându-se de eventualele încălcări ale legilor privind confidențialitatea și ale reglementărilor specifice industriei.
5. Utilizare iresponsabilă de către angajați
În multe companii, unii angajați se bazează exclusiv pe răspunsurile ChatGPT pentru a genera conținut și pentru a-și îndeplini sarcinile. Acest lucru generează lenea în mediul de lucru și încurajează creativitatea și inovația.
A fi dependent de AI vă poate împiedica capacitatea de a gândi critic. De asemenea, poate afecta credibilitatea unei companii, deoarece ChatGPT oferă adesea date inexacte și nesigure.
Deși ChatGPT este un instrument puternic, folosirea lui pentru a aborda interogări complexe care necesită expertiză specifică domeniului poate afecta funcționarea și eficiența unei companii. Este posibil ca unii angajați să nu-și amintească să verifice și să verifice răspunsurile furnizate de chatbot-ul AI, tratând răspunsurile ca pe o soluție unică.
Pentru a atenua astfel de probleme, companiile interzic chatbot-ul, astfel încât angajații să se poată concentra pe sarcinile lor și să ofere utilizatorilor soluții fără erori.
Interdicții ChatGPT: mai bine sigur decât ne pare rău
Companiile care interzic ChatGPT indică riscuri de securitate cibernetică, standarde etice ale angajaților și provocări de conformitate cu reglementările. Incapacitatea ChatGPT de a atenua aceste provocări în timp ce oferă soluții industriale atestă limitările sale și trebuie să evolueze în continuare.
Între timp, companiile trec la chatbot-uri alternative sau pur și simplu restricționează angajații să utilizeze ChatGPT pentru a evita potențialele încălcări ale datelor și protocoalele de securitate și de reglementare nesigure asociate cu chatbot.