Dezvoltarea AI avansează rapid, dar cine ar trebui să ghideze AI și impactul acesteia asupra lumii?

Recomandări cheie

  • AI are nevoie de o monitorizare mai strictă, deoarece vulnerabilitățile de securitate cibernetică și preocupările legate de confidențialitate continuă să apară.
  • Guvernul, companiile de tehnologie și utilizatorii finali au toți un rol de jucat în reglementarea AI, dar fiecare abordare are limitările sale.
  • Media, organizațiile non-profit, asociațiile din industria tehnologiei, instituțiile academice și agențiile de aplicare a legii contribuie, de asemenea, la reglementarea IA.

Publicul larg are opinii diferite despre AI – unii cred că mașinile vor înlocui cu totul lucrătorii umani, în timp ce alții susțin că AI este o moft. Cu toate acestea, un lucru asupra căruia toată lumea este de acord este că AI are nevoie de o monitorizare mai strictă.

În ciuda importanței reglementării AI, antrenamentul a trecut pe planul secundar. Dezvoltatorii sunt atât de obsedați de construirea următorului cel mai mare model AI, încât schimbă securitatea cibernetică pentru progrese rapide. Întrebarea nu este dacă AI are nevoie de reglementare; este organismul de conducere cu finanțare adecvată, resurse umane și capacitate tehnologică care va lua inițiativa.

instagram viewer

Deci, cine ar trebui să reglementeze AI?

Organisme guvernamentale

Diverse persoane, de la consumatori la lideri tehnologici, sper că guvernul va reglementa AI. Instituțiile cu finanțare publică au resursele necesare pentru a face acest lucru. Chiar și Elon Musk și Sam Altman, doi piloți principali ai cursei AI, cred că unii preocupările legate de confidențialitate în jurul AI sunt prea periculoase pentru ca organele de conducere să fie trecute cu vederea.

Guvernul ar trebui să se concentreze pe protejarea vieții private și a libertăților civile ale alegătorilor săi dacă preia reglementarea AI. Criminalii cibernetici continuă să găsească modalități de a exploata sistemele AI în schemele lor. Persoanele care nu sunt bine versate în AI s-ar putea lăsa păcăliți cu ușurință de voci sintetizate, videoclipuri deepfake și profiluri online operate de bot.

Cu toate acestea, o problemă majoră cu guvernul care reglementează AI este că aceasta ar putea înăbuși inovația din neatenție. AI este o tehnologie complexă, în evoluție. Cu excepția cazului în care oficialii care supraveghează liniile directoare de implementare, dezvoltare și formare înțeleg cum funcționează AI, ei ar putea face judecăți premature și ineficiente.

Dezvoltatori AI, companii de tehnologie și laboratoare

Având în vedere potențialele obstacole care ar putea apărea din monitorizarea guvernului AI, mulți ar prefera ca companiile de tehnologie să fie în fruntea reglementărilor. Ei cred că dezvoltatorii ar trebui să fie responsabili pentru tehnologia pe care o lansează. Autoreglementarea le permite să impulsioneze inovația și să se concentreze pe promovarea eficientă a acestor sisteme.

În plus, înțelegerea lor aprofundată a inteligenței artificiale îi va ajuta să elaboreze linii directoare corecte și informate, care să acorde prioritate siguranței utilizatorilor fără a compromite funcționalitatea. Ca în cazul oricărei tehnologii, expertiza industriei eficientizează monitorizarea. Atribuirea unor funcționari nepregătiți să reglementeze tehnologiile pe care abia le înțeleg ar putea prezenta mai multe probleme decât beneficii.

Luați ca exemplu audierea din 2018 a Senatului SUA despre legile Facebook privind confidențialitatea datelor. În acest raport de The Washington Post, veți vedea că mulți parlamentari sunt confundați cu funcțiile de bază ale Facebook. Deci, cu excepția cazului în care Senatul SUA creează un singur departament de specialiști în tehnologie, probabil că aceștia nu sunt calificați să reglementeze un sistem atât de avansat, în continuă schimbare, precum AI.

Cu toate acestea, principala problemă cu companiile de tehnologie care se reglementează este că corporațiile dubioase ar putea abuza de puterea lor. Fără o terță parte care intervine, ei sunt practic liberi să facă orice doresc.

Utilizatori finali

Unii se tem că guvernele și entitățile private vor abuza de sistemele AI. Ei nu sunt siguri despre acordarea unui număr mic de organisme de conducere control total asupra tehnologiilor atât de puternice, mai ales că AI este încă în evoluție. Ei s-ar putea lupta în cele din urmă pentru autoritate, mai degrabă decât să lucreze pentru o reglementare eficientă.

Pentru a atenua aceste riscuri, scepticii cred că utilizatorii finali merită frâu liber să folosească modelele AI așa cum doresc. Ei spun că organismele guvernamentale ar trebui să intervină numai atunci când utilizatorii AI încalcă legea. Este un obiectiv ambițios, dar ar putea fi atins din punct de vedere tehnic dacă dezvoltatorii open-source AI ar domina cotele de piață.

Acestea fiind spuse, această configurație dezavantajează persoanele care nu cunosc tehnologie. Utilizatorii sunt responsabili pentru stabilirea restricțiilor în sistemele lor – din păcate, nu toată lumea are resursele necesare pentru a face acest lucru.

De asemenea, este miop să eliminați modelele brevetate de pe piață. Proliferarea Modelele open-source AI au mai multe efecte pozitive și negative; pentru unii, contra depășesc avantajele.

Alte entități care joacă un rol în reglementarea IA

Deși entitățile majore vor conduce reglementarea IA, există organisme care joacă roluri semnificative:

Media joacă un rol esențial în modelarea percepției publicului asupra inteligenței artificiale. Ei raportează evoluțiile din industrie, împărtășesc noi instrumente, conștientizează utilizările dăunătoare ale inteligenței artificiale și intervievează experți cu privire la preocupările relevante.

Majoritatea faptelor pe care utilizatorii finali le cunosc despre AI provin practic de la instituțiile media. Publicarea datelor false, intenționate sau nu, va provoca daune ireversibile - nu puteți subestima cât de repede se răspândește dezinformația.

2. Organizații non-guvernamentale

Mai multe organizații non-profit se concentrează pe protejarea confidențialității și a libertăților civile ale utilizatorilor AI. Ei educă publicul prin resurse gratuite, pledează pentru noi politici, cooperează cu oficialii guvernamentali și își exprimă preocupările trecute cu vederea.

Singura problemă cu ONG-urile este că, de obicei, nu dispun de resurse. Deoarece nu sunt conectați la guvern, se bazează pe solicitări și donații private pentru operațiunile de zi cu zi. Din păcate, doar câteva organizații obțin finanțare adecvată.

3. Asociațiile din industria tehnologiei

Asociațiile din industria tehnologică axată pe inteligență artificială pot reprezenta drepturile și interesele publicului. La fel ca ONG-urile, ei lucrează cu parlamentarii, reprezintă indivizi preocupați, pledează pentru politici echitabile și conștientizează probleme specifice.

Diferența este însă că au adesea legături cu companii private. Membrii lor încă fac solicitări, dar de obicei vor primi suficientă finanțare de la organizațiile lor mamă, atâta timp cât obțin rezultate.

4. Instituții academice

Deși AI vine cu mai multe riscuri, este în mod inerent neutru. Toate părtinirile, problemele de confidențialitate, erorile de securitate și activitățile potențiale de criminalitate cibernetică provin de la oameni, așa că AI în sine nu este ceva de care să ne temeți.

Dar foarte puțini înțeleg deja cum funcționează modelele moderne de inteligență artificială. Concepțiile greșite deformează percepția oamenilor despre inteligența artificială, perpetuând temeri fără temei, cum ar fi AI care preia umanitatea sau fura locuri de muncă.

Instituțiile academice ar putea umple aceste lacune educaționale prin resurse accesibile. Nu există încă prea multe lucrări academice despre LLM-uri și sisteme NLP moderne. Publicul poate folosi AI în mod mai responsabil și poate combate infracțiunile cibernetice dacă înțelege pe deplin cum funcționează.

5. Agențiile de aplicare a legii

Agențiile de aplicare a legii ar trebui să se aștepte să întâmpine mai multe Atacurile cibernetice activate de AI. Odată cu proliferarea modelelor generative, escrocii pot sintetiza rapid voci, pot genera imagini deepfake, pot răzui informații de identificare personală (PII) și chiar creați personaje complet noi.

Majoritatea agențiilor nu sunt echipate pentru a gestiona aceste crime. Ei ar trebui să investească în noi sisteme și să-și instruiască ofițerii cu privire la infracțiunile cibernetice moderne; în caz contrar, vor avea probleme să prindă acești escroci.

Viitorul reglementării IA

Având în vedere natura rapidă a AI, este puțin probabil ca un singur organism de conducere să o controleze. Da, liderii tehnologiei vor deține mai multă putere decât consumatorii, dar diferite entități trebuie să coopereze pentru a gestiona riscurile AI fără a împiedica progresele. Cel mai bine este să stabiliți măsuri de control acum, în timp ce inteligența generală artificială (AGI) este încă un obiectiv îndepărtat.

Acestea fiind spuse, reglementarea AI este la fel de îndepărtată ca AGI. Între timp, utilizatorii trebuie să respecte practicile de siguranță pentru a combate amenințările generate de AI. Obiceiurile bune, cum ar fi limitarea persoanelor cu care vă conectați online și securizarea datelor personale digitale, sunt deja foarte bune.