Fie că este vorba de date proaste sau de utilizatori răi, inteligența artificială creată cu învățarea automată poate ajunge să facă greșeli grave.
Învățarea automată este o modalitate excelentă de a crea inteligență artificială care este puternică și se adaptează la datele sale de antrenament. Dar, uneori, acele date pot cauza probleme. Alteori, modul în care oamenii folosesc aceste instrumente AI este problema.
Iată o privire asupra unor incidente importante în care învățarea automată a dus la rezultate problematice.
1. Rezultatele căutării de imagini Google
Căutarea Google a făcut navigarea pe web mult mai ușoară. Algoritmul motorului ia în considerare o varietate de lucruri atunci când obține rezultate. Dar algoritmul învață și din traficul utilizatorilor, ceea ce poate cauza probleme pentru calitatea rezultatelor căutării.
Nicăieri acest lucru nu este mai evident decât în rezultatele imaginii. Deoarece paginile care primesc trafic mare au mai multe șanse să aibă imaginile afișate, poveștile care atrag un număr mare de utilizatori, inclusiv clickbait, pot ajunge să fie prioritizate.
De exemplu, rezultatele căutării de imagini pentru „tagăre de ocupați în Africa de Sud” au provocat controverse atunci când s-a descoperit că prezentau predominant sud-africani albi. Acest lucru se întâmplă în ciuda statisticilor care arată că majoritatea covârșitoare a celor care trăiesc în locuințe informale sunt sud-africani de culoare.
Factorii utilizați în algoritmul Google înseamnă, de asemenea, că utilizatorii de internet pot manipula rezultatele. De exemplu, o campanie a utilizatorilor a influențat rezultatele Căutării de imagini Google în măsura în care căutarea termenului „idiot” a arătat imagini cu fostul președinte american Donald Trump pentru o perioadă.
2. Microsoft Bot Tay s-a transformat într-un nazist
Chatboții bazați pe inteligență artificială sunt extrem de populari, în special cei alimentați de modele de limbi mari precum ChatGPT. ChatGPT are mai multe probleme, dar creatorii săi au învățat și din greșelile altor companii.
Unul dintre cele mai importante incidente în care chatbot-urile au mers prost a fost încercarea Microsoft de a-și lansa chatbot-ul Tay.
Tay a imitat modelele lingvistice ale unei adolescente și a învățat prin interacțiunile ei cu alți utilizatori de Twitter. Cu toate acestea, ea a devenit unul dintre cele mai infame greșeli ale inteligenței artificiale când a început să împărtășească declarații naziste și insulte rasiale. S-a dovedit că trolii au folosit învățarea automată a AI împotriva lui, inundând-o cu interacțiuni încărcate de fanatism.
Nu după mult timp, Microsoft l-a oprit definitiv pe Tay.
3. Probleme de recunoaștere facială AI
Recunoașterea facială AI face adesea titluri pentru toate motivele greșite, cum ar fi poveștile despre recunoașterea facială și preocupările legate de confidențialitate. Dar această IA are o istorie problematică atunci când încearcă să recunoască oamenii de culoare.
În 2015, utilizatorii au descoperit că Google Photos cataloga unii oameni de culoare drept gorile. În 2018, cercetarea ACLU a arătat că software-ul de identificare a feței Rekognition de la Amazon a identificat 28 membri ai Congresului SUA ca suspecți de poliție, cu rezultate false pozitive care afectează în mod disproporționat oamenii din culoare.
Un alt incident a implicat software-ul Apple Face ID identificând incorect două femei chineze diferite ca fiind aceeași persoană. Drept urmare, colegul proprietarului iPhone X ar putea debloca telefonul.
Într-un exemplu de consecințe extreme, recunoașterea facială AI a dus la arestarea pe nedrept a mai multor persoane. Cablat a raportat trei astfel de cazuri.
Între timp, informaticianul Joy Buolamwini și-a amintit că trebuia adesea să poarte o mască albă în timp ce lucra la tehnologia de recunoaștere facială pentru ca software-ul să o recunoască. Pentru a rezolva probleme de genul acesta, Buolamwini și alți profesioniști IT aduc atenția asupra problemei părtinirii AI și asupra necesității unor seturi de date mai incluzive.
4. Deepfakes folosite pentru farse
În timp ce oamenii folosesc de mult Photoshop pentru a crea imagini false, învățarea automată duce acest lucru la un nou nivel. Deepfakes folosesc AI pentru învățare profundă pentru a crea imagini și videoclipuri false. Software precum FaceApp vă permite să schimbați subiectele de la un videoclip în altul.
Dar mulți oameni exploatează software-ul pentru o varietate de utilizări rău intenționate, inclusiv suprapunerea fețelor celebrităților în videoclipuri pentru adulți sau generarea de videoclipuri false. Între timp, utilizatorii de internet au contribuit la îmbunătățirea tehnologiei pentru a face din ce în ce mai dificilă distingerea videoclipurilor reale de cele false. Ca urmare, acest lucru face ca acest tip de IA să fie foarte puternic în ceea ce privește răspândirea de știri false și farse.
Pentru a arăta puterea tehnologiei, directorul Jordan Peele și CEO-ul BuzzFeed Jonah Peretti au creat un video deepfake care arată ceea ce pare a fi fostul președinte al SUA, Barack Obama, oferind un PSA despre puterea deepfakes.
Puterea imaginilor false a fost accelerată de generatoarele de imagini alimentate de AI. Postările virale din 2023 care îl înfățișează pe Donald Trump arestat și pe Papa catolic într-o jachetă puf s-au dovedit a fi rezultatul IA generativă.
Sunt sfaturi pe care le puteți urma pentru a identifica o imagine generată de AI, dar tehnologia devine din ce în ce mai sofisticată.
5. Angajații spun că Amazon AI a decis să angajeze bărbați este mai bine
În octombrie 2018, Reuters a raportat că Amazon a trebuit să renunțe la un instrument de recrutare de locuri de muncă după ce AI-ul software-ului a decis că candidații bărbați sunt preferați.
Angajații care doreau să rămână anonimi au venit să spună Reuters despre munca lor la proiect. Dezvoltatorii au dorit ca AI să identifice cei mai buni candidați pentru un loc de muncă pe baza CV-urilor lor. Cu toate acestea, oamenii implicați în proiect au observat curând că IA a penalizat candidații de sex feminin. Ei au explicat că AI a folosit CV-uri din ultimul deceniu, dintre care majoritatea erau de la bărbați, ca set de date de antrenament.
Drept urmare, AI a început să filtreze CV-urile pe baza cuvântului cheie „femei”. Cuvântul cheie a apărut în CV sub activități precum „căpitanul clubului de șah feminin”. În timp ce dezvoltatorii au modificat AI pentru a preveni această penalizare a CV-urilor femeilor, Amazon a abandonat în cele din urmă proiectul.
6. Chatbot-uri cu jailbreak
În timp ce chatbot-urile mai noi au limitări care îi împiedică să ofere răspunsuri care contravin termenilor lor de serviciu, utilizatorii găsesc modalități de a face jailbreak instrumentele pentru a furniza conținut interzis.
În 2023, un cercetător de securitate Forcepoint, Aaron Mulgrew, a reușit să creeze malware zero-day folosind solicitările ChatGPT.
„Folosind pur și simplu solicitările ChatGPT și fără a scrie niciun cod, am putut produce un atac foarte avansat în doar câteva ore”, a spus Mulgrew într-un Postul de forță.
De asemenea, se pare că utilizatorii au reușit să obțină chatbots pentru a le oferi instrucțiuni despre cum să construiască bombe sau să fure mașini.
7. Accident de mașină cu conducere autonomă
Entuziasmul pentru vehiculele autonome a fost atenuat încă din stadiul inițial de hype din cauza greșelilor făcute de AI auto-condus. În 2022, The Washington Post a raportat că, în aproximativ un an, 392 de accidente care implică sisteme avansate de asistență a șoferului au fost raportate Administrației Naționale pentru Siguranța Traficului pe Autostrăzi din SUA.
Aceste accidente au inclus răni grave și șase decese.
Deși acest lucru nu a împiedicat companii precum Tesla să urmărească vehicule complet autonome, a făcut-o și-a exprimat îngrijorarea cu privire la creșterea numărului de accidente, pe măsură ce mai multe mașini cu software de conducere autonomă ajung pe drumuri.
Învățare automată AI nu este sigură
În timp ce învățarea automată poate crea instrumente AI puternice, acestea nu sunt imune la date proaste sau la falsificarea umană. Fie din cauza datelor de antrenament defecte, a limitărilor cu tehnologia AI sau a utilizării de către actori răi, acest tip de IA a dus la multe incidente negative.