ChatGPT este util pentru multe sarcini, dar există unele deficiențe critice care ar trebui să vă facă să vă gândiți de două ori înainte de a avea încredere în el pentru sfaturi medicale.
ChatGPT – un chatbot de inteligență artificială (AI) dezvoltat de OpenAI – a devenit un instrument complet pentru a răspunde la multe întrebări simple și dificile, inclusiv solicitări de sfaturi medicale. Poate răspunde la întrebări medicale și poate obține examenul de licență medicală din Statele Unite (USMLE), dar nu poate înlocui o programare cu un medic la spital.
Pe măsură ce ChatGPT avansează, are potențialul de a transforma complet sectorul sănătății. Atunci când este integrat cu sistemele de sănătate, poate îmbunătăți accesul pacienților la îngrijire și poate crește eficiența muncii medicilor. Cu toate acestea, deoarece se bazează pe inteligență artificială, există mai multe preocupări cu privire la potențialele sale pericole.
1. ChatGPT are cunoștințe limitate
ChatGPT nu știe totul. Potrivit OpenAI, ChatGPT are cunoștințe limitate, în special când vine vorba de ceea ce s-a întâmplat după septembrie 2021.
ChatGPT nu are acces direct la motoarele de căutare sau la internet. A fost instruit folosind o cantitate mare de date text din numeroase surse, inclusiv cărți, site-uri web și alte texte. Nu „știe” datele pe care le furnizează. În schimb, ChatGPT folosește textul citit pentru a crea predicții despre cuvintele de folosit și în ce ordine.
Prin urmare, nu poate obține știri actuale despre evoluțiile din domeniul medical. Da, ChatGPT nu cunoaște transplantul de inimă de la porc la om sau orice alte descoperiri foarte recente în știința medicală.
2. ChatGPT poate produce informații incorecte
ChatGPT poate răspunde la întrebările pe care le pui, dar răspunsurile pot fi inexacte sau părtinitoare. Potrivit unui PLoS Digital Health studiu, ChatGPT a efectuat cu o precizie de cel puțin 50% în toate examinările USMLE. Și deși a depășit pragul de trecere de 60% în unele aspecte, există încă posibilitatea de eroare.
În plus, nu toate informațiile folosite pentru a antrena ChatGPT sunt autentice. Răspunsurile bazate pe informații neverificate sau potențial părtinitoare pot fi incorecte sau depășite. În lumea medicinei, informațiile inexacte pot costa chiar și o viață.
Deoarece ChatGPT nu poate cerceta sau verifica în mod independent materialul, nu poate face diferența între realitate și ficțiune. Reviste medicale respectate, inclusiv Journal of the American Medical Association (JAMA), au a stabilit reglementări stricte prin care numai oamenii pot scrie studii științifice publicate în jurnal. Ca urmare, ar trebui să verificați în mod constant răspunsurile ChatGPT.
3. ChatGPT nu te examinează fizic
Diagnosticele medicale nu depind doar de simptome. Medicii pot obține informații despre tiparul și severitatea unei boli prin examinarea fizică a pacientului. Pentru a diagnostica pacienții, medicii folosesc astăzi atât tehnologiile medicale, cât și cele cinci simțuri.
ChatGPT nu poate efectua un control virtual complet sau chiar o examinare fizică; poate răspunde doar la simptomele pe care le furnizați ca mesaje. Pentru siguranța și îngrijirea pacientului, erorile la examinarea fizică sau ignorarea completă a examinării fizice pot fi dăunătoare. Deoarece ChatGPT nu v-a examinat fizic, va oferi un diagnostic incorect.
4. ChatGPT poate oferi informații false
Un studiu recent realizat de Facultatea de Medicină de la Universitatea din Maryland la sfatul ChatGPT pentru screening-ul cancerului de sân a găsit următoarele rezultate:
„Am văzut în experiența noastră că ChatGPT alcătuiește uneori articole de reviste false sau consorții de sănătate pentru a-și susține afirmațiile.” — Paul Yi M.D., profesor asistent de radiologie diagnostică și medicină nucleară la UMSOM
Ca parte a testării noastre a ChatGPT, am solicitat o listă de cărți non-ficțiune care acoperă subiectul minții subconștiente. Drept urmare, ChatGPT a produs o carte falsă intitulată „Puterea minții inconștiente” de Dr. Gustav Kuhn.
Când am întrebat despre carte, a răspuns că a fost o carte „ipotetică” pe care a creat-o. ChatGPT nu vă va spune dacă un articol de jurnal sau o carte este fals dacă nu întrebați mai multe.
5. ChatGPT este doar un model de limbaj AI
Modelele de limbaj funcționează prin memorarea și generalizarea textului, mai degrabă decât prin examinarea sau studierea stării pacientului. În ciuda generării de răspunsuri care se potrivesc standardelor umane în ceea ce privește limbajul și gramatica, ChatGPT conține încă o serie de probleme, la fel ca alți roboți AI.
ChatGPT nu este un înlocuitor pentru medicul dumneavoastră
Medicii umani vor fi întotdeauna necesari pentru a face apelul final asupra deciziilor de asistență medicală. ChatGPT vă sfătuiește de obicei să vorbiți cu un medic autorizat atunci când solicitați sfatul medicului.
Instrumentele bazate pe inteligență artificială, cum ar fi ChatGPT, pot fi folosite pentru a programa întâlniri la medic, pentru a ajuta pacienții să primească tratamente și pentru a menține informațiile despre sănătate. Dar nu poate lua locul expertizei și empatiei unui medic.
Nu ar trebui să vă bazați pe un instrument bazat pe inteligență artificială pentru a vă diagnostica sau trata sănătatea, fie că este fizică sau mentală.