Inteligența artificială nu este pregătită să ne ștergă... inca.

Inteligența artificială a fost un subiect de dezbatere încă de la începuturile sale. În timp ce temerile ca o inteligență artificială asemănătoare Skynet să prindă viață și să preia stăpânirea umanității sunt, cel puțin, iraționale, unele experimente au dat rezultate îngrijorătoare.

Un astfel de experiment este problema maximizării agrafelor, un experiment de gândire care arată că o inteligență artificială extrem de inteligentă, chiar dacă este concepută complet fără răutate, ar putea distruge în cele din urmă umanitatea.

Problema Maximizatorului de agrafe explicată

Acest experiment de gândire conform căruia chiar și o inteligență artificială complet inofensivă ar putea în cele din urmă șterge umanitatea a fost numit pentru prima dată Paperclip Maximizer pur și simplu pentru că agrafele au fost alese pentru a arăta. ce ar putea face AI, deoarece au un pericol aparent mic și nu vor provoca stres emoțional în comparație cu alte domenii pentru care se aplică această problemă, cum ar fi vindecarea cancerului sau câștigarea războaie.

instagram viewer

Primul experiment a apărut în lucrarea din 2003 a filozofului suedez Nick Bostrom, Probleme etice în inteligența artificială avansată, care includea maximizatorul de agrafe pentru a arăta riscurile existențiale pe care un AI suficient de avansat le-ar putea folosi.

Problema a prezentat un AI al cărui singur scop era să facă cât mai multe agrafe. O IA suficient de inteligentă și-ar da seama mai devreme sau mai târziu că oamenii reprezintă o provocare pentru obiectivul său din trei aspecte diferite.

  • Oamenii ar putea opri AI.
  • Oamenii și-ar putea schimba obiectivele.
  • Oamenii sunt formați din atomi, care pot fi transformați în agrafe.

În toate cele trei exemple, ar exista mai puține agrafe în univers. Prin urmare, o IA suficient de inteligentă al cărei unic scop este să realizeze cât mai multe agrafe ar prelua toată materia și energia la îndemână și ar împiedica să fie oprită sau schimbat. După cum probabil puteți ghici, acest lucru este mult mai periculos decât criminali care folosesc ChatGPT pentru a vă sparge contul bancar sau computerul.

IA nu este ostilă oamenilor; este doar indiferent. O IA căreia îi pasă doar de maximizarea numărului de agrafe ar șterge umanitatea și, în esență, le-ar transforma în agrafe pentru a-și atinge scopul.

Cum se aplică AI problema Paperclip Maximizer?

Mențiunile de cercetare și experiment ale problemei maximizatorului de agrafe menționează toate un optimizator ipotetic extrem de puternic sau un agent extrem de inteligent ca grup de actorie aici. Totuși, problema se aplică AI atât de mult cât se potrivește perfect rolului.

Ideea unui maximizator de agrafe a fost creată pentru a arăta unele dintre pericolele AI avansate, până la urmă. În general, prezintă două probleme.

  • teza de ortogonalitate: Teza ortogonalității este punctul de vedere conform căruia inteligența și motivația nu sunt reciproc interdependente. Aceasta înseamnă că este posibil ca o IA cu un nivel ridicat de inteligență generală să nu ajungă la aceleași concluzii morale ca și oamenii.
  • Convergenta instrumentala: Convergența instrumentală este definită ca tendința pentru majoritatea ființelor suficient de inteligente (ambele umane și non-umane) să urmărească sub-obiective similare chiar dacă scopul lor final ar putea fi complet diferit. În cazul problemei maximizării agrafelor, aceasta înseamnă că AI va ajunge să preia fiecare resurse naturale și ștergerea umanității doar pentru a-și atinge scopul de a crea tot mai multe agrafe.

Problema mai mare evidențiată de maximizatorul de agrafe este convergența instrumentală. De asemenea, poate fi evidențiată folosind ipoteza Riemann, caz în care un AI conceput pentru a rezolva ipoteza ar putea foarte bine să decidă să preia toate masa Pământului și convertiți-o în computronium (cele mai eficiente procesoare de computer posibile) pentru a construi supercalculatoare care să rezolve problema și să ajungă la ea. poartă.

Bostrom însuși a subliniat că nu crede că problema maximizării agrafelor va fi vreodată o problemă reală, dar intenția lui a fost să ilustrează pericolele creării de mașini superinteligente fără a ști cum să le controlezi sau să le programezi pentru a nu fi riscante din punct de vedere existențial pentru om. ființe. Sistemele moderne de inteligență artificială precum ChatGPT au și ele probleme, dar sunt departe de sistemele AI superinteligente despre care se vorbește în problema maximizării agrafelor, așa că încă nu există niciun motiv de panică.

Sistemele AI avansate au nevoie de un control superior

Problema maximizatorului de agrafe ajunge întotdeauna la aceeași concluzie și evidențiază problemele gestionării unui sistem extrem de inteligent și puternic căruia îi lipsesc valorile umane.

În timp ce utilizarea agrafelor poate fi cea mai populară metodă de ilustrare a problemei, se aplică oricărui număr de sarcini pe care le ar putea oferi unei IA fie că elimină cancerul, câștigă războaie, plantează mai mulți copaci sau orice altă sarcină, indiferent cât de aparent ar fi prost.