Discuțiile despre inteligența inteligenței artificiale nu sunt nimic nou, dar știrile despre AI LaMDA de la Google au aprins flăcările. După ce un inginer a susținut că botul era conștient, chiar având un suflet, unele întrebări familiare au apărut din nou.

Poate AI precum LaMDA să fie de fapt conștientă sau conștientă de sine și, dacă da, cum poți să-ți dai seama? Conteaza?

Ce este LaMDA?

LaMDA, prescurtare pentru Language Model for Dialogue Applications, a apărut pentru prima dată în 2021 la conferința pentru dezvoltatori Google. Sistemul AI avansat ar trebui să ajute la construirea altor chatboți mai mici. Când Google l-a introdus pentru prima dată, a anunțat planuri de a-l integra în toate, ajutând servicii precum Google Assistant și Search să se simtă mai umane, sau cel puțin naturale.

Când inginerul Google Blake Lemoine a vorbit cu LaMDA pentru a vedea dacă folosește discursul instigator la ură, a ieșit cu o altă impresie. Lemoine a susținut că LaMDA era sensibil și, dacă nu știa că este un robot, ar crede că este un copil de opt ani.

instagram viewer

După conversațiile sale cu LaMDA, Lemoine a încercat să demonstreze că este conștient și să apere ceea ce credea că sunt drepturile sale legale. Ca răspuns, Google la plasat pe Lemoine în concediu administrativ plătit pentru încălcarea acordurilor de confidențialitate.

Este LaMDA cu adevărat Sentient?

Deci, este LaMDA cu adevărat sensibil? Majoritatea experților care au analizat această problemă sunt sceptici. LaMDA este o platformă de chat AI foarte avansată care analizează trilioane de cuvinte de pe internet, așa că este priceput să sune ca o persoană reală.

Nu este prima dată când unul dintre IA-urile Google îi păcălește pe oameni, făcându-le să creadă că este uman. În 2018, Google și-a demonstrat Duplex AI sunând la un restaurant pentru a rezerva o masă. În niciun moment angajatul de la celălalt capăt nu a părut să se îndoiască că vorbește cu o persoană.

Sentința este dificil de definit, deși majoritatea oamenilor mă îndoiesc că AI a ajuns în acel punct inca. Cu toate acestea, întrebarea importantă poate să nu fie dacă LaMDA este de fapt sensibil, ci ce diferență are dacă poate păcăli oamenii să creadă că este.

Posibile implicații juridice ale LaMDA

Situația LaMDA ridică o mulțime de întrebări juridice și etice. În primul rând, unii oameni s-ar putea întreba dacă Google a avut dreptate să-l pună pe Lemoine în concediu pentru că a vorbit despre asta.

Conform Secțiunii 740 din Legea Muncii din New York, protecția avertizorilor îi apără pe angajați de astfel de consecințe în cazul în care consideră că practicile angajatorului lor încalcă legea sau prezintă un risc semnificativ pentru public Siguranță. Presupusa conștiință a LaMDA nu îndeplinește tocmai această cerință legală, dar ar trebui?

Acordarea drepturilor AI este un subiect dificil. În timp ce AI poate creează lucruri și par oameni, te poți confrunta cu niște situații complicate dacă aceste mașini au protecție legală. Drepturile legale operează în jurul recompenselor și pedepselor care nu afectează AI, complicând justiția.

Dacă o mașină care se conduce singur lovește un pieton, este AI vinovată dacă legea o tratează ca pe un om? Și dacă da, nu dă strict dreptate victimei, deoarece nu poți pedepsi AI la fel cum ai pedepsi un om.

O altă întrebare care apare cu LaMDA și chatbot-uri similare AI este securitatea lor. Dacă acești roboți par convingător de reali, oamenii pot avea mai multă încredere în ei și vor fi dispuși să le ofere informații mai sensibile. Acest lucru deschide ușa pentru o mulțime de preocupări de confidențialitate și securitate dacă această tehnologie cade în mâinile greșite.

AI introduce întrebări etice complicate

AI precum LaMDA devin tot mai sofisticate și mai realiste. Pe măsură ce această tendință crește, companiile și legislatorii ar trebui să reevalueze modul în care tratează inteligența artificială și modul în care aceste decizii ar putea afecta justiția și securitatea.

În starea actuală, IA LaMDA de la Google poate să nu fie sensibilă, dar este suficient de bună pentru a păcăli oamenii să creadă că este, ceea ce ar trebui să tragă unele alarme.