Capacitățile de inteligență artificială se extind exponențial, IA fiind acum utilizată în industrii, de la publicitate la cercetare medicală. Utilizarea AI în domenii mai sensibile, cum ar fi software-ul de recunoaștere facială, algoritmi de angajare și furnizarea de asistență medicală, au precipitat dezbaterile despre prejudecăți și corectitudine.

Bias este o fațetă bine cercetată a psihologiei umane. Cercetările expun în mod regulat preferințele și prejudecățile noastre inconștiente, iar acum vedem AI reflectă unele dintre aceste prejudecăți în algoritmii lor.

Deci, cum devine părtinitoare inteligența artificială? Și de ce contează asta?

Cum devine prejudecată AI?

Pentru simplitate, în acest articol ne vom referi la învățare automată și învățare profundă algoritmi ca algoritmi AI sau sisteme.

Cercetătorii și dezvoltatorii pot introduce prejudecăți în sistemele AI în două moduri.

În primul rând, prejudecățile cognitive ale cercetătorilor pot fi încorporate accidental în algoritmi de învățare automată. Biasurile cognitive sunt percepții umane inconștiente care pot afecta modul în care oamenii iau decizii. Aceasta devine o problemă semnificativă atunci când prejudecățile se referă la oameni sau grupuri de oameni și pot dăuna acestor persoane.

instagram viewer

Aceste părtiniri pot fi introduse direct, dar accidental, sau cercetătorii ar putea instrui AI pe seturi de date care au fost ele însele afectate de părtinire. De exemplu, o IA de recunoaștere facială ar putea fi antrenată folosind un set de date care include doar fețe cu pielea deschisă. În acest caz, AI va funcționa mai bine atunci când se confruntă cu fețe cu pielea deschisă decât întunecate. Această formă de prejudecată AI este cunoscută ca o moștenire negativă.

În al doilea rând, pot apărea părtiniri atunci când AI este instruit pe seturi de date incomplete. De exemplu, dacă un AI este instruit pe un set de date care include numai informaticieni, acesta nu va reprezenta întreaga populație. Acest lucru duce la algoritmi care nu reușesc să furnizeze predicții exacte.

Exemple de prejudecată AI din lumea reală

Au existat multiple exemple recente, bine raportate, de prejudecăți ale IA care ilustrează pericolul de a permite acestor prejudecăți să se strecoare.

Prioritizarea asistenței medicale în SUA

În 2019, un algoritm de învățare automată a fost conceput pentru a ajuta spitalele și companiile de asigurări să determine ce pacienți ar beneficia cel mai mult de anumite programe de asistență medicală. Bazat pe o bază de date de aproximativ 200 de milioane de oameni, algoritmul a favorizat pacienții albi decât pacienții negri.

S-a stabilit că acest lucru se datorează unei presupuneri defectuoase în algoritm privind costurile variate ale asistenței medicale între persoanele negre și albe, iar prejudecatea a fost în cele din urmă redusă cu 80%.

COMPAS

Profilul de gestionare a infractorilor corecționali pentru sancțiuni alternative, sau COMPAS, a fost un algoritm AI conceput pentru a prezice dacă anumite persoane ar recidiva. Algoritmul a produs dublu față de falsurile pozitive pentru infractorii negri comparativ cu infractorii albi. În acest caz, atât setul de date cât și modelul au fost defecte, introducând o prejudecată grea.

Amazon

Algoritmul de angajare pe care Amazon îl folosește pentru a determina adecvarea solicitanților a fost găsit în 2015 pentru a favoriza puternic bărbații în locul femeilor. Acest lucru se datorează faptului că setul de date conținea aproape exclusiv bărbați și CV-urile lor, deoarece majoritatea angajaților Amazon sunt bărbați.

Cum să opriți prejudecățile AI

AI deja revoluționează modul în care lucrăm fiecare industrie. A avea sisteme părtinitoare care controlează procesele sensibile de luare a deciziilor este mai puțin decât de dorit. În cel mai bun caz, reduce calitatea cercetării bazate pe AI. În cel mai rău caz, dăunează activ grupurilor minoritare.

Există exemple de algoritmi AI deja obișnuiți ajută la luarea deciziilor umane prin reducerea impactului prejudecăților cognitive umane. Datorită modului în care sunt instruiți algoritmii de învățare automată, aceștia pot fi mai exacți și mai puțin părtinitori decât oamenii din aceeași poziție, rezultând o luare mai corectă a deciziilor.

Dar, așa cum am arătat, este adevărat și opusul. Riscurile de a permite părtinirilor umane să fie gătite și amplificate de AI pot depăși unele dintre posibilele beneficii.

La sfarsitul zilei, AI este la fel de bun ca datele cu care este instruit. Dezvoltarea algoritmilor imparțiali necesită o pre-analiză extinsă și aprofundată a seturilor de date, asigurându-se că datele sunt libere de prejudecăți implicite. Acest lucru este mai greu decât pare, deoarece atât de multe părtiniri sunt inconștiente și adesea greu de identificat.

Provocări în prevenirea prejudecății AI

În dezvoltarea sistemelor de AI, fiecare pas trebuie evaluat pentru potențialul său de a încorpora părtinire în algoritm. Unul dintre factorii majori în prevenirea prejudecății este asigurarea faptului că corectitudinea, mai degrabă decât părtinirea, este „coaptă” în algoritm.

Definirea corectitudinii

Corectitudinea este un concept relativ dificil de definit. De fapt, este o dezbatere care nu a ajuns niciodată la un consens. Pentru a face lucrurile și mai dificile, atunci când dezvoltăm sisteme de IA, conceptul de corectitudine trebuie definit matematic.

De exemplu, în ceea ce privește algoritmul de angajare Amazon, ar arăta corectitudinea o împărțire perfectă de 50/50 dintre bărbați și lucrătoare? Sau o proporție diferită?

Determinarea funcției

Primul pas în dezvoltarea AI este de a determina exact ce urmează să realizeze. Dacă se utilizează exemplul COMPAS, algoritmul ar prezice probabilitatea ca infractorii să recidiveze. Apoi, trebuie stabilite datele clare pentru a permite algoritmului să funcționeze. Acest lucru poate necesita definirea unor variabile importante, cum ar fi numărul de infracțiuni anterioare sau tipul de infracțiuni comise.

Definirea corectă a acestor variabile este un pas dificil, dar important în asigurarea corectitudinii algoritmului.

Realizarea setului de date

După cum am discutat, o cauză majoră a prejudecății AI este datele incomplete, nereprezentative sau părtinitoare. La fel ca în cazul recunoașterii faciale AI, datele de intrare trebuie verificate cu atenție pentru părtiniri, adecvare și completitudine înainte de procesul de învățare automată.

Alegerea atributelor

În algoritmi, anumite atribute pot fi sau nu luate în considerare. Atributele pot include genul, rasa sau educația - practic orice poate fi important pentru sarcina algoritmului. În funcție de atributele alese, precizia predictivă și părtinirea algoritmului pot fi grav afectate. Problema este că este foarte dificil să se măsoare cât de părtinitor este un algoritm.

AI Bias nu este aici pentru a rămâne

Particularitatea AI apare atunci când algoritmii fac predicții părtinitoare sau inexacte din cauza intrărilor părtinitoare. Apare atunci când datele părtinitoare sau incomplete sunt reflectate sau amplificate în timpul dezvoltării și instruirii algoritmului.

Vestea bună este că, odată cu înmulțirea finanțării pentru cercetarea AI, este posibil să vedem noi metode de reducere și chiar eliminare a prejudecății AI.

E-mail
5 mituri comune despre inteligența artificială care nu sunt adevărate

Să stabilim recordul asupra unor falsități comune în jurul AI.

Citiți în continuare

Subiecte asemănătoare
  • Tehnologie explicată
  • Inteligență artificială
  • Învățare automată
Despre autor
Jake Harfield (6 articole publicate)

Jake Harfield este un scriitor independent, cu sediul în Perth, Australia. Când nu scrie, este de obicei în tufiș fotografiind animale sălbatice locale. Îl puteți vizita la www.jakeharfield.com

Mai multe de la Jake Harfield

Aboneaza-te la newsletter-ul nostru

Alăturați-vă newsletter-ului pentru sfaturi tehnice, recenzii, cărți electronice gratuite și oferte exclusive!

Încă un pas…!

Vă rugăm să confirmați adresa de e-mail în e-mailul pe care tocmai vi l-am trimis.

.