Inteligența artificială (IA) este pe cât de controversată, pe atât de impresionantă. Poate ușura multe părți ale muncii și ale vieții de zi cu zi, dar ridică și câteva întrebări etice. Utilizarea inteligenței artificiale de către guvernul SUA, în special, îi face pe unii oameni să se simtă neliniștiți.
Există multe proiecte guvernamentale de IA în uz sau în dezvoltare astăzi, iar unele au făcut foarte mult bine. În același timp, ridică o mulțime de preocupări legate de confidențialitatea inteligenței artificiale. Iată o privire mai atentă asupra acestor proiecte și a ceea ce înseamnă ele pentru confidențialitatea publică.
Exemple de proiecte guvernamentale de IA și automatizare
Cele mai elementare exemple de inteligență artificială utilizate de guvernul SUA implică automatizarea muncii de rutină de birou. În 2019, Seattle a folosit Automatizare robotică a proceselor (RPA) să se ocupe de aplicațiile de introducere și prelucrare a datelor. De atunci, orașul a trecut prin peste 6.000 de aplicații în așteptare și a economisit sute de ore de lucru.
Alte proiecte guvernamentale de IA sunt mai atrăgătoare. Departamentul de Pompieri din New York testează câini robot de la Boston Dynamics pentru a măsura daunele structurale și vaporii toxici înainte de intrarea pompierilor. Înainte de proiectul roboților de stingere a incendiilor, Departamentul de Poliție din New York plănuise să implementeze aceiași roboți.
Departamentele de poliție și alte agenții guvernamentale din întreaga țară iau în considerare utilizarea unor tehnologii similare. Cu toate acestea, pe măsură ce aceste proiecte guvernamentale AI decolează, potențialele lor deficiențe de confidențialitate au devenit mai clare.
Este inteligența artificială o amenințare pentru confidențialitate și securitate?
Dacă veți vedea roboți de poliție în viitor, este încă incert, dar lucrurile par să se îndrepte în acest sens. Aceste proiecte au o mulțime de beneficii, dar preocupările legate de confidențialitatea inteligenței artificiale devin mai serioase atunci când avem de-a face cu guvernul. Iată câteva dintre cele mai mari probleme cu aceste tehnologii.
Inteligența artificială se bazează pe colectarea și analizarea datelor. Ca rezultat, mai multe proiecte guvernamentale de IA înseamnă că aceste agenții vor aduna și vor stoca informații suplimentare despre cetățenii lor. Unii oameni simt că toate aceste informații se colectează le încalcă intimitatea și le încalcă drepturile.
Tehnologii precum proiectul câinelui de stingere a incendiilor sunt deosebit de îngrijorătoare, deoarece pot face ca supravegherea guvernamentală să inducă în eroare. Agențiile spun că robotul este acolo pentru a verifica problemele de siguranță, dar oamenii nu au cum să spună ce date colectează. Ar putea avea camere și senzori care le scanează fețele sau le urmăresc telefoanele mobile fără ca ei să știe.
Unii oameni se tem că „factorul cool” al roboților le va ascunde potențialul de supraveghere. Roboții de poliție în viitor ar putea spiona cetățenii fără a ridica prea multe suspiciuni, deoarece oamenii văd doar noi tehnologii în loc de o încălcare a confidențialității lor.
Responsabilități neclare
Aceste proiecte de AI și automatizare ridică, de asemenea, problema responsabilității. Dacă un robot face o greșeală care duce la un rău, cine este responsabil pentru aceasta? Atunci când un angajat guvernamental își depășește limitele și încalcă drepturile cuiva, instanțele îl pot trage la răspundere, dar cum rămâne cu un robot?
Puteți vedea această problemă în mașinile cu conducere autonomă. Oamenii au acuzat producătorul în temeiul unei cereri de răspundere pentru produs în unele cazuri de accident de pilot automat, în timp ce alții dau vina pe șofer. Într-un caz, Consiliul Naţional pentru Siguranţa Transporturilor a pus responsabilitatea atât pe producător, cât și pe șofer, dar în cele din urmă trebuie să fie decisă de la caz la caz. Roboții de poliție înnoroiesc apele în același mod. Dacă vă încalcă confidențialitatea, nu este clar dacă să dați vina pe producător, departamentul de poliție sau supraveghetorii umani.
Această confuzie ar putea încetini și complica procedurile judiciare. Ar putea dura ceva timp pentru ca victimele încălcării vieții private sau ale drepturilor lor să obțină justiția pe care o merită. Noile legi și precedentul juridic ar putea clarifica lucrurile și ar putea rezolva această problemă, dar în acest moment, este incert.
Riscuri de încălcare a datelor
Inteligența artificială folosită de guvernul SUA ar putea extinde, de asemenea, preocupările legate de confidențialitatea AI pe care le vedeți în sectorul privat. Colectarea unor date poate fi perfect legală, dar cu cât se adună mai multe organizații, cu atât sunt mai expuse riscuri. Este posibil ca compania sau guvernul să nu folosească informațiile pentru nimic ilegal, dar poate face oamenii vulnerabili la criminalitatea cibernetică.
Au fost peste 28.000 de atacuri cibernetice împotriva guvernului SUA numai în 2019. Dacă agențiile dețin mai multe informații private ale cetățenilor, aceste atacuri ar putea afecta mai mult decât guvernul. O breșă de succes a datelor ar putea pune în pericol mulți oameni fără ca aceștia să știe. Încălcările trec adesea neobservate, așa că trebuie verificați că datele dvs. nu sunt deja de vânzare.
De exemplu, dacă un robot de poliție în viitor folosește recunoașterea facială pentru a căuta criminali căutați, acesta poate stoca datele biometrice ale multor cetățeni. Hackerii care intră în sistem ar putea fura acele informații și le pot folosi pentru a sparge conturile bancare ale oamenilor. Proiectele guvernamentale de inteligență artificială trebuie să aibă măsuri puternice de securitate cibernetică dacă nu doresc să pună în pericol datele oamenilor.
Inteligența artificială guvernamentală are beneficii, dar ridică îngrijorări
Încă nu este clar cum va folosi guvernul american inteligența artificială în viitor. Noile protecții și legi ar putea rezolva aceste probleme și ar putea aduce toate beneficiile AI fără riscurile acesteia. Deocamdată, însă, aceste preocupări ridică unele alarme.
Preocupările privind confidențialitatea abundă oriunde funcționează AI. Aceste întrebări devin mai serioase pe măsură ce joacă un rol mai important în guvern. Proiectele de IA de stat ar putea face foarte mult bine, dar au și un potențial substanțial pentru rău.
Microsoft avertizează că „1984” se poate împlini peste trei ani
Citiți în continuare
Subiecte asemănătoare
- Securitate
- Inteligență artificială
- Confidențialitate online
Despre autor
Shannon este un creator de conținut situat în Philly, PA. Ea scrie în domeniul tehnologiei de aproximativ 5 ani după ce a absolvit o diplomă în IT. Shannon este Managing Editor al ReHack Magazine și acoperă subiecte precum securitatea cibernetică, jocurile și tehnologia de afaceri.
Aboneaza-te la newsletter-ul nostru
Alăturați-vă buletinului nostru informativ pentru sfaturi tehnice, recenzii, cărți electronice gratuite și oferte exclusive!
Click aici pentru a te abona