Cu modelele moderne de limbaj AI, cum ar fi ChatGPT și Bing Chat de la Microsoft, care fac furori în întreaga lume, un număr de oameni sunt îngrijorați de faptul că AI va ocupa lumea.
Deși nu vom întâlni SkyNet în viitorul apropiat, AI devine mai bun decât oamenii în mai multe lucruri. Acolo intervine problema controlului AI.
Problema de control AI explicată
Problema controlului AI este ideea că IA va deveni în cele din urmă mai bună în luarea deciziilor decât oamenii. În conformitate cu această teorie, dacă oamenii nu configurează lucrurile corect în prealabil, nu vom avea șansa de a remedia lucrurile mai târziu, ceea ce înseamnă că AI va avea un control eficient.
Cercetările actuale privind modelele AI și Machine Learning (ML) sunt, cel puțin, la câțiva ani de la depășirea capacităților umane. Cu toate acestea, este rezonabil să credem că, având în vedere progresul actual, AI va depăși oamenii atât în ceea ce privește inteligența, cât și eficiența.
Asta nu înseamnă că modelele AI și ML nu au limitele lor. La urma urmei, ei sunt legați de legile fizicii și complexitatea computațională, precum și de puterea de procesare a dispozitivelor care susțin aceste sisteme. Cu toate acestea, este sigur să presupunem că aceste limite depășesc cu mult capacitățile umane.
Aceasta înseamnă că suprainteligent Sistemele AI pot reprezenta o amenințare majoră dacă nu este proiectat corespunzător, cu măsuri de protecție pentru a verifica orice comportament potențial necinstiți. Astfel de sisteme trebuie construite de la zero pentru a respecta valorile umane și pentru a le menține puterea în frâu. Asta înseamnă problema de control când spune că lucrurile trebuie configurate corect.
Dacă un sistem AI ar depăși inteligența umană fără garanțiile adecvate, rezultatul ar putea fi catastrofal. Astfel de sisteme ar putea prelua controlul resurselor fizice, deoarece multe sarcini sunt realizate mai bine sau mai eficient. Deoarece sistemele AI sunt proiectate pentru a obține o eficiență maximă, pierderea controlului ar putea duce la consecințe grave.
Când se aplică problema controlului AI?
Principala problemă este că, cu cât un sistem AI devine mai bun, cu atât este mai greu pentru un supervizor uman să monitorizeze tehnologia pentru a se asigura că controlul manual poate fi preluat cu ușurință în cazul în care sistemul eșuează. În plus, tendința umană de a se baza pe un sistem automat este mai mare atunci când sistemul funcționează fiabil de cele mai multe ori.
Un mare exemplu în acest sens este Suita Tesla Full-Self Driving (FSD).. În timp ce mașina se poate conduce singură, este nevoie ca un om să aibă mâinile pe volan, gata să preia controlul asupra mașinii în cazul în care sistemul funcționează defectuos. Cu toate acestea, pe măsură ce aceste sisteme AI devin mai fiabile, chiar și atenția celui mai alert om va începe să varieze, iar dependența de sistemul autonom va crește.
Deci, ce se întâmplă când mașinile încep să conducă la viteze cu care oamenii nu pot ține pasul? Vom ajunge să predăm controlul sistemelor autonome ale mașinii, ceea ce înseamnă că un sistem AI va deține controlul asupra vieții tale, cel puțin până când ajungi la destinație.
Poate fi rezolvată problema controlului AI?
Există două răspunsuri dacă problema controlului AI poate fi rezolvată sau nu. În primul rând, dacă interpretăm întrebarea la propriu, problema de control nu poate fi rezolvată. Nu putem face nimic care să țintească direct tendința umană de a se baza pe un sistem automatizat atunci când acesta funcționează fiabil și mai eficient de cele mai multe ori.
Cu toate acestea, dacă această tendință ar fi luată în considerare ca o caracteristică a unor astfel de sisteme, putem găsi modalități de a rezolva problema de control. De exemplu, cel Luarea algoritmică a deciziilor și problema controlului Lucrarea de cercetare sugerează trei metode diferite de a face față situației dificile:
- Utilizarea sistemelor mai puțin fiabile necesită ca un om să se implice activ cu sistemul, deoarece sistemele mai puțin fiabile nu pun problema de control.
- Să așteptați ca un sistem să depășească eficiența și fiabilitatea umană înainte de implementarea în lumea reală.
- Pentru a implementa doar automatizarea parțială folosind descompunerea sarcinilor. Aceasta înseamnă că numai acele părți ale unui sistem care nu necesită un operator uman pentru a îndeplini o sarcină importantă sunt automatizate. Se numește abordare de alocare dinamică/complementară a funcției (DCAF).
Abordarea DCAF pune întotdeauna un operator uman la cârma unui sistem automatizat, asigurându-se că intrarea lor controlează cele mai importante părți ale procesului decizional al sistemului. Dacă un sistem este suficient de antrenant pentru ca un operator uman să acorde atenție constantă, problema de control poate fi rezolvată.
Putem controla vreodată cu adevărat AI?
Pe măsură ce sistemele AI devin mai avansate, capabile și mai fiabile, vom continua să le transferăm mai multe sarcini. Cu toate acestea, problema controlului AI poate fi rezolvată cu măsurile de precauție și garanții adecvate.
AI schimbă deja lumea pentru noi, mai ales în bine. Atâta timp cât tehnologia este ținută sub supraveghere umană, nu ar trebui să ne facem griji.