Cele mai recente inovații în jurul tehnologiei bazate pe inteligența artificială depășesc limitele a ceea ce credeam cândva că este posibil cu inteligența artificială. Cu toate acestea, având în vedere că chatbot-uri precum ChatGPT și Bing Chat devin aproape la fel de buni ca oamenii în mai multe lucruri, este timpul să facem frâna pentru un timp?

Elon Musk și câțiva cercetători în inteligența artificială se numără printre cei 1.188 de persoane (la momentul redactării acestui articol) care cred așa. O scrisoare publicată de institutul non-profit Future of Life solicită o pauză de șase luni pentru instruirea tehnologiilor AI mai bune decât GPT 4, dar este cu adevărat necesară o pauză?

Despre ce este scrisoarea deschisă despre viitorul vieții?

The scrisoare publicată de institutul Future of Life subliniază că laboratoarele de inteligență artificială au fost „blocate într-o cursă scăpată de control” pentru a dezvolta și implementa mai multe și modele AI mai puternice pe care nimeni, inclusiv creatorii lor, nu le poate „înțelege, prezice sau în mod fiabil Control".

instagram viewer

De asemenea, subliniază faptul că sistemele AI contemporane devin acum competitive din punct de vedere uman la sarcini generale și solicită dacă ar trebui să dezvoltăm „minți non-umane care ar putea în cele din urmă să depășească numeric, mai deștepte, învechite și să le înlocuiască S.U.A".

În cele din urmă, scrisoarea solicită tuturor laboratoarelor de inteligență artificială să întrerupă imediat pregătirea sistemelor de inteligență artificială mai puternice decât GPT-4 timp de cel puțin șase luni. Pauza ar trebui să fie publică și verificabilă și pentru toți actorii cheie. De asemenea, se afirmă că, dacă o astfel de pauză nu poate fi aplicată rapid, guvernele ar trebui să intervină pentru a interzice temporar antrenamentul cu modele AI.

Odată ce pauza este activă, laboratoarele AI și experții independenți sunt rugați să o folosească pentru a dezvolta și implementa în comun un „set comun de protocoale de securitate” pentru a se asigura că sistemele care aderă la aceste reguli sunt „sigure dincolo de limite rezonabile îndoială".

Această scrisoare a fost semnată de câteva personalități numite, inclusiv Elon Musk, Steve Wozniak și cercetători și autori AI. De fapt, lista semnatarilor este momentan întreruptă din cauza cererii mari.

Care sunt preocupările lui Musk cu Advanced AI Tech și OpenAI?

Deși semnarea scrisorii lui Future of Life ar putea indica faptul că Musk este îngrijorat de riscurile de siguranță pe care le prezintă astfel de sisteme AI avansate, adevăratul motiv ar putea fi altceva.

Musk a co-fondat OpenAI împreună cu actualul CEO Sam Altman, în 2015, ca organizație non-profit. Cu toate acestea, a dat peste cap cu Altman mai târziu în 2018, după ce și-a dat seama că nu era mulțumit de progresul companiei. Se pare că Musk a vrut să preia conducerea pentru a accelera dezvoltarea, dar Altman și consiliul OpenAI au refuzat ideea.

Musk a plecat de la OpenAI la scurt timp după ce și-a luat banii cu el, încălcând promisiunea de a contribui cu 1 miliard în finanțare și dând doar 100 de milioane înainte de a pleca. Acest lucru a forțat OpenAI să devină o companie privată la scurt timp după aceea, în martie 2019, pentru a strânge fonduri pentru a-și continua cercetarea.

Credit imagine: Heisenberg Media/Wikimedia Commons

Un alt motiv pentru care Musk a plecat a fost că dezvoltarea AI la Tesla ar provoca un conflict de interese în viitor. Este evident că Tesla are nevoie de sisteme AI avansate pentru a-și alimenta Caracteristici complete de auto-conducere. De când Musk a părăsit OpenAI, compania a fugit cu modelele sale AI, lansându-se ChatGPT bazat pe GPT3.5 în 2022 și ulterior cu GPT-4 în martie 2023.

Faptul că echipa AI a lui Musk nu este deloc aproape de OpenAI trebuie luat în considerare de fiecare dată când spune că modelele moderne de AI ar putea prezenta riscuri. Nici el nu a avut probleme lansarea Tesla Full Self-Driving beta pe drumurile publice, transformând în esență driverele Tesla obișnuite în teste beta.

Nici asta nu se termină aici. Musk a fost, de asemenea, destul de critic la adresa OpenAI pe Twitter, Altman ajungând până la a spune că îi atacă în timp ce apare recent pe podcastul „On with Kara Swisher”.

În acest moment, se pare că Musk folosește scrisoarea Future of Life pentru a opri dezvoltarea la OpenAI și la orice altă firmă care ajunge din urmă. la GPT-4 pentru a oferi companiilor sale șansa de a ajunge din urmă, în loc să fie îngrijorat de potențialele pericole ale acestor modele AI poza. Rețineți că scrisoarea cere, de asemenea, întreruperea „antrenării” sistemelor AI timp de șase luni, care poate fi ocolită relativ ușor pentru a le continua dezvoltarea între timp.

Este cu adevărat necesară o pauză?

Necesitatea unei pauze depinde de starea modelelor AI în viitor. Cu siguranță, scrisoarea are un ton puțin dramatic și nu riscăm să pierdem controlul asupra civilizației noastre în favoarea AI, așa cum afirmă atât de deschis. Acestea fiind spuse, Tehnologiile AI reprezintă câteva amenințări.

Având în vedere că OpenAI și alte laboratoare AI pot veni cu verificări de siguranță mai bune, o pauză ar face mai mult rău decât bine. Cu toate acestea, sugestia scrisorii privind un set de protocoale de siguranță partajate care sunt „auditate riguros și supravegheate de experți externi independenți” pare o idee bună.

Cu giganții tehnologici precum Google și Microsoft care investesc miliarde în dezvoltarea și integrarea AI în produsele lor, este puțin probabil ca scrisoarea să afecteze ritmul actual de dezvoltare a AI.

AI este aici pentru a rămâne

Cu giganții tehnologiei care promovează integrarea AI în produsele lor și investesc miliarde de dolari în cercetare și dezvoltare, AI este aici pentru a rămâne, indiferent de ceea ce spune opoziția.

Dar nu este o idee rea să implementezi măsuri de siguranță pentru a preveni ca aceste tehnologii să se destrame și să se transforme potențial în instrumente pentru vătămare.