Experții cred că inteligența artificială va pune capăt umanității așa cum o cunoaștem, așa că ce se face pentru a împiedica să se întâmple?
Din nou, un grup de cercetători de top în domeniul inteligenței artificiale și firme de tehnologie au avertizat că dezvoltarea rapidă actuală a inteligenței artificiale ar putea reprezenta un dezastru pentru omenire.
Riscurile se referă la conflicte nucleare, boli, dezinformare și IA fugitivă lipsită de supraveghere, toate acestea fiind o amenințare imediată pentru supraviețuirea umană.
Dar nu va fi pierdut faptul că multe dintre aceste avertismente vin de la aceleași oameni care conduc dezvoltarea AI și promovează instrumente și programe de inteligență artificială la companiile lor respective.
De ce companiile de tehnologie și oamenii de știință AI avertizează despre riscul AI?
Pe 30 mai 2023, peste 350 de cercetători, dezvoltatori și ingineri AI au lansat o declarație cosemnată în care avertizează împotriva amenințării AI la adresa umanității.
Atenuarea riscului de dispariție din cauza IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.
Semnatarii la Declarație Safe.ai au inclus Sam Altman de la OpenAI, Demis Hassabis de la Google DeepMind și Dario Amodei de la Anthropic, alături de Turing Câștigătorii premiilor Geoffrey Hinton și Yoshua Bengio (deși Yann LeCun, care a câștigat și el același premiu, a neglijat să semneze). Lista este aproape cine este cine din lumea dezvoltării inteligenței artificiale – oamenii care conduc drumul cu inteligența artificială – dar iată-i cu toții, avertizând că AI ar putea semnifica un dezastru pentru omenire.
Este o scurtă declarație care clarifică amenințările, citând în mod special două domenii cheie care ar putea pune în pericol lumea așa cum o știm: războiul nuclear și problemele de sănătate globală. În timp ce amenințarea unui conflict nuclear este o îngrijorare, riscul unei pandemii este o amenințare mai tangibilă pentru majoritatea.
Cu toate acestea, nu este doar o pandemie globală care ar putea cauza probleme de sănătate legate de inteligența artificială. Gardianul raportează alte câteva probleme de sănătate AI care ar putea avea un impact asupra oamenilor dacă nu sunt verificate înainte de utilizarea pe scară largă. Un exemplu se referă la utilizarea oximetrelor alimentate cu inteligență artificială care „supraestimau nivelurile de oxigen din sânge la pacienții cu pielea mai închisă la culoare, ducând la subtratarea hipoxiei lor”.
În plus, nu este prima dată când un grup de lideri tehnologici solicită o pauză sau o reevaluare serioasă a dezvoltării AI. În martie 2023, Elon Musk și alți cercetători AI au semnat un îndemn similar solicitarea unui moratoriu asupra dezvoltării IA până când mai multe reglementări ar putea fi implementate pentru a ajuta la ghidarea procesului.
Care este riscul AI?
Cele mai multe dintre riscurile asociate cu IA, cel puțin în acest context, se referă la dezvoltarea tehnologiei AI fugitive. care depășește capacitățile oamenilor, în care în cele din urmă se întoarce împotriva creatorului său și șterge viața așa cum știm aceasta. Este o poveste acoperită de nenumărate ori în scrierea science-fiction, dar realitatea este acum mai aproape decât am putea crede.
Modelele de limbaj mari (care stau la baza instrumentelor precum ChatGPT) cresc drastic în capabilități. In orice caz, instrumente precum ChatGPT au multe probleme, cum ar fi prejudecățile inerente, preocupările legate de confidențialitate și halucinația AI, cu atât mai puțin capacitatea sa de a fi jailbreak pentru a acționa în afara limitelor termenilor și condițiilor programate.
Pe măsură ce modelele lingvistice mari cresc și au mai multe puncte de date la care să apeleze, împreună cu acces la internet și o mai mare Înțelegând evenimentele actuale, cercetătorii AI se tem că într-o zi, în cuvintele CEO-ului OpenAI, Sam Altman, „s-ar putea duce destul de mult”. gresit."
Cum reglementează guvernele dezvoltarea AI pentru a opri riscurile?
Reglementarea AI este cheia pentru prevenirea riscurilor. La începutul lui mai 2023, Sam Altman a cerut mai multă reglementare AI, afirmând că „intervenția de reglementare a guvernelor va fi esențială pentru a atenua riscurile modelelor din ce în ce mai puternice”.
Apoi, Uniunea Europeană a anunțat Legea AI, un regulament menit să ofere un cadru mult mai puternic pentru dezvoltarea IA în întreaga UE (cu multe reglementări care se răspândesc în alte jurisdicții). Altman a amenințat inițial că va scoate OpenAI din UE, dar apoi și-a întors amenințarea și a fost de acord că compania va respecta regulamentul AI pe care îl solicitase anterior.
Indiferent, este clar că reglementarea dezvoltării și utilizărilor AI este importantă.
Va pune capăt umanității?
Deoarece o mare parte din dezbaterea în jurul acestui subiect se bazează pe ipoteze despre puterea versiunilor viitoare de AI, există probleme legate de longevitatea și puterea pe care orice reglementare AI le poate avea. Cum să reglementezi cel mai bine o industrie care se mișcă deja cu o mie de mile pe minut și progrese în dezvoltare au loc zilnic?
În plus, există încă unele îndoieli cu privire la capacitățile AI în general și unde va ajunge. În timp ce cei care se tem de ce este mai rău indică faptul că inteligența generală artificială devine un stăpân uman, alții indică faptul că faptul că versiunile actuale de inteligență artificială nici măcar nu pot face întrebări de matematică de bază și că mașinile cu conducere autonomă sunt încă o modalitate oprit.
Este greu să nu fii de acord cu cei care privesc spre viitor. Mulți dintre cei care strigă cel mai tare despre problemele pe care le poate pune AI se află pe scaunul de conducere, uitându-se spre unde ne-am putea îndrepta. Dacă ei sunt cei care cer reglementări AI pentru a ne proteja de un viitor potențial îngrozitor, ar putea fi timpul să ascultăm.