Ideea că tehnologiile AI trebuie reglementate este un sentiment comun. Majoritatea guvernelor, dezvoltatorii de produse AI și chiar utilizatorii obișnuiți ai produselor AI sunt de acord cu acest lucru. Din păcate, cel mai bun mod de a reglementa acest domeniu în creștere rapidă este un puzzle nerezolvat.

Dacă sunt lăsate necontrolate, tehnologiile AI ne pot perturba negativ modul de viață și ne pot amenința existența. Dar cum pot guvernele să navigheze în labirintul provocărilor care vine cu acest domeniu în evoluție rapidă?

1. Reglementări privind confidențialitatea și protecția datelor

Una dintre preocupările principale cu tehnologiile AI este confidențialitatea și securitatea datelor. Sistemele de inteligență artificială sunt mașini avide de date. Au nevoie de date pentru a funcționa, de mai multe date pentru a fi eficienți și chiar de mai multe date de îmbunătățit. Deși aceasta nu este o problemă, modul în care aceste date sunt obținute, natura lor și modul în care sunt procesate și stocate este unul dintre cele mai mari puncte de discuție în jurul reglementărilor AI.

instagram viewer

Având în vedere acest lucru, calea logică pe care trebuie să o parcurgem este de a pune în aplicare reglementări stricte de confidențialitate a datelor care guvernează datele colectarea, stocarea și prelucrarea, precum și drepturile persoanelor – ale căror date sunt utilizate – de a accesa și controla datele lor. Întrebările pe care le-ar aborda probabil aceste reglementări sunt:

  • Ce fel de date pot fi colectate?
  • Ar trebui unele date private să fie considerate tabu în AI?
  • Cum ar trebui companiile AI să gestioneze datele personale sensibile, cum ar fi dosarele de sănătate sau informațiile biometrice?
  • Ar trebui să li se solicite companiilor AI să implementeze mecanisme pentru ca persoanele fizice să solicite cu ușurință ștergerea sau corectarea datelor lor personale?
  • Care sunt consecințele pentru companiile AI care nu respectă reglementările privind confidențialitatea datelor? Cum ar trebui monitorizată conformitatea și cum ar trebui să fie asigurată aplicarea?
  • Poate cel mai important, ce standard ar trebui să implementeze companiile AI pentru a asigura siguranța naturii sensibile a informațiilor pe care le dețin?

Aceste întrebări și altele au format cheia de ce ChatGPT a fost interzis temporar în Italia. Dacă aceste preocupări nu sunt abordate, spațiul inteligenței artificiale ar putea fi un vest sălbatic pentru confidențialitatea datelor, iar interdicția Italiei s-ar putea dovedi a fi un șablon pentru interdicții de către alte țări din întreaga lume.

2. Dezvoltarea unui cadru etic AI

Companiile AI se laudă frecvent cu angajamentul lor față de liniile directoare etice în dezvoltarea sistemelor AI. Cel puțin pe hârtie, toți sunt susținători ai dezvoltării AI responsabile. În mass-media, directorii Google au subliniat modul în care compania ia în serios siguranța și etica AI. În mod similar, „IA sigură și etică” este o mantră pentru CEO-ul OpenAI, Sam Altman. Acestea sunt destul de aplaudabile.

Dar cine face regulile? Cine decide care ghiduri etice ale AI sunt suficient de bune? Cine decide cum arată dezvoltarea sigură a AI? În acest moment, fiecare companie de AI pare să aibă propriul său rol în ceea ce privește dezvoltarea AI responsabilă și etică. OpenAI, Anthropic, Google, Meta, Microsoft, toată lumea. Este periculos să te bazezi pe companiile AI pentru a face ceea ce trebuie.

The consecințele unui spațiu AI necontrolat pot fi catastrofale. A lăsa companiile individuale să decidă ce îndrumări etice să adopte și pe care să le renunțe este asemănător cu somnambulismul nostru într-o apocalipsă AI. Soluția? Un cadru etic AI clar care asigură:

  • Sistemele de inteligență artificială nu dezavantajează sau discriminează în mod nedrept indivizii sau anumite grupuri în funcție de rasă, sex sau statut socioeconomic.
  • Sistemele AI sunt sigure, securizate și fiabile și minimizează riscul unor consecințe nedorite sau al unui comportament dăunător.
  • Sistemele AI sunt construite ținând cont de impactul societal mai larg al tehnologiilor AI.
  • Că oamenii păstrează controlul suprem asupra sistemelor AI și luarea deciziilor în mod transparent.
  • Sistemele AI sunt limitate în mod intenționat în moduri care sunt avantajoase pentru oameni.

3. Agenție de reglementare dedicată

Datorită impactului său potențial asupra civilizației umane, discuțiile despre siguranța AI sunt de obicei paralele cu riscul unei crize de sănătate sau al unui dezastru nuclear. Evitarea potențialelor incidente nucleare necesită o agenție dedicată precum NRC (Comisia de Reglementare Nucleară) din SUA. Evitarea riscului de crize de sănătate periculoase necesită înființarea FDA (Food and Drug Administration)

În mod similar, pentru a ne asigura că lucrurile nu merg prost în spațiul AI, este necesară o agenție dedicată asemănătoare cu FDA și NRC, deoarece AI continuă să facă incursiuni agresive în toate domeniile vieții noastre. Din păcate, problema reglementării AI în țară este una dificilă. Munca oricărei agenții de reglementare dedicată va fi probabil extrem de grea fără cooperare transfrontalieră. La fel cum NRC (Comisia de Reglementare Nucleară) din SUA trebuie să lucreze mână în mână cu Energia Atomică Internațională. Agenția (AIEA) pentru a fi la cel mai bun grad, orice agenție de reglementare a IA din țară ar avea nevoie și de un analog internațional.

O astfel de agenție ar fi responsabilă pentru următoarele:

  • Dezvoltarea reglementărilor AI
  • Asigurarea conformității și a aplicării
  • Supravegherea procesului de revizuire etică a proiectelor AI
  • Colaborare și cooperare între țări în ceea ce privește siguranța și etica IA

4. Abordarea preocupărilor privind drepturile de autor și proprietatea intelectuală

Legile privind drepturile de autor și cadrele legale existente se prăbușesc în fața inteligenței artificiale. Modul în care sunt proiectate instrumentele AI, în special instrumentele AI generative, le face să pară ca o mașină de încălcare a drepturilor de autor aprobată public despre care nu poți face nimic.

Cum? Ei bine, multe dintre sistemele AI de astăzi sunt antrenate folosind materiale protejate prin drepturi de autor. Știi, articole cu drepturi de autor, melodii protejate prin drepturi de autor, imagini cu drepturi de autor etc. Așa le place instrumentele ChatGPT, Bing AI și Google Bard pot face lucrurile minunate pe care le fac.

În timp ce aceste sisteme profită în mod clar de proprietatea intelectuală a oamenilor, modul în care aceste sisteme AI o fac nu este diferit de un om care citește o carte protejată prin drepturi de autor, care ascultă melodii protejate prin drepturi de autor sau se uită la imagini.

Puteți citi o carte protejată prin drepturi de autor, puteți afla fapte noi din ea și puteți utiliza aceste fapte ca bază pentru propria dvs. carte. De asemenea, puteți asculta o melodie protejată prin drepturi de autor pentru a vă inspira pentru a vă crea propria muzică. În ambele cazuri, ați folosit materiale protejate prin drepturi de autor, dar nu înseamnă neapărat că produsul derivat încalcă drepturile de autor ale originalului.

Deși aceasta este o explicație logică pentru a explica mizeria pe care AI o face cu legile privind drepturile de autor, totuși îi dăunează pe proprietarii drepturilor de autor și a proprietății intelectuale. Având în vedere acest lucru, sunt necesare reglementări pentru:

  • Definiți în mod clar răspunderea și responsabilitățile tuturor părților implicate în ciclul de viață al unui sistem AI. Aceasta include clarificarea rolurilor fiecărei părți, de la dezvoltatorii AI până la utilizatorii finali, pentru a se asigura că este responsabil părțile sunt trase la răspundere pentru orice încălcare a drepturilor de autor sau a proprietății intelectuale comise de AI sisteme.
  • Consolidați cadrele de drepturi de autor existente și poate introduceți legi privind drepturile de autor specifice AI.
  • Pentru a asigura inovația în spațiul AI, salvând în același timp drepturile creatorilor originali, AI reglementările ar trebui să redefinească conceptele de utilizare loială și de muncă transformatoare în contextul Conținut generat de AI. Sunt necesare definiții și orientări mai clare pentru a se asigura că spațiul AI poate continua să se îmbunătățească, respectând în același timp limitele dreptului de autor. Este esențial să se găsească un echilibru între inovare și păstrarea drepturilor creatorilor de conținut.
  • Căi clare de colaborare cu titularii de drepturi. Dacă sistemele AI vor folosi oricum proprietatea intelectuală a oamenilor, ar trebui să existe căi sau cadre clare pentru dezvoltatorii AI și proprietarilor de drepturi să colaboreze, în special în ceea ce privește compensațiile financiare, dacă opera derivată a unor astfel de proprietăți intelectuale este comercializate.

Reglementarea AI este o soluție extrem de necesară

În timp ce inteligența artificială a apărut ca o soluție promițătoare pentru multe dintre problemele noastre societale, inteligența artificială în sine devine rapid o problemă care necesită o remediere urgentă. Este timpul să facem un pas înapoi, să reflectăm și să facem remediile necesare pentru a asigura impactul pozitiv al AI asupra societății. Avem nevoie disperată de o recalibrare urgentă a abordării noastre privind construirea și utilizarea sistemelor AI.