Tay AI de la Microsoft a trecut de la o IA promițătoare la o catastrofă totală în mai puțin de o zi. Iată ce a învățat compania.

Chatboții AI precum ChatGPT devin din ce în ce mai mult o parte integrantă a tehnologiei moderne, dar necunoscut pentru mulți, AI generativă nu a fost întotdeauna la fel de bună ca astăzi. De fapt, în 2016, chatbot-ul creat de Microsoft, Tay, ne-a arătat cât de repede se poate întoarce AI.

Să explorăm ce a fost chatbot-ul AI al Microsoft Tay, de ce a eșuat, controversele sale și lecțiile pe care compania le-a învățat după eșecul său dezastruos.

Ce a fost Tay de la Microsoft?

Tay a fost un chatbot AI dezvoltat de Microsoft și pus la dispoziție prin Twitter pe 23 martie 2016. Chatbot-ul a fost dezvoltat pentru tinerii cu vârste cuprinse între 18 și 24 de ani din S.U.A. în „scopuri de divertisment” și pentru „experimentarea și efectuarea cercetării despre înțelegerea conversației”.

Tay nu a fost menit să fie un chatbot sofisticat precum ChatGPT, ci un robot AI prietenos pe Twitter cu care ai putea avea conversații - un fel ca

instagram viewer
AI-ul meu pe Snapchat, ci pentru socializare.

De ce a închis Microsoft Tay?

Microsoft a dezactivat Tay în 24 de ore de la lansare - dintr-un motiv întemeiat. Aproape imediat după introducerea lui Tay, utilizatorii Twitter au început să abuzeze de serviciu hrănind chatbot-ul dezinformare, învățându-l termeni derogatori și făcându-l să fie din ce în ce mai ofensator doar pentru a vedea cât de departe ar merge.

Și departe s-a ajuns într-adevăr. La câteva ore de la lansare, Tay a postat pe Twitter unele dintre cele mai ofensive insulte rasiale, a răspândit discursuri instigatoare la ură, a promovat nazismul și chiar a inspirat un „război rasial”. Da! În mod clar, Microsoft a avut un moment groaznic și nu ar fi putut lăsa serviciul să continue.

Într-o postați pe blogul oficial Microsoft, Vicepreședintele corporativ al Microsoft, Peter Lee, a spus același lucru:

Ne pare profund rău pentru tweet-urile ofensive și dureroase neintenționate de la Tay, care nu reprezintă cine suntem sau ceea ce reprezentăm și nici modul în care l-am proiectat pe Tay. Tay este acum offline și vom căuta să-l aducem înapoi pe Tay numai atunci când suntem încrezători că putem anticipa mai bine intențiile rău intenționate care intră în conflict cu principiile și valorile noastre.

Debacle Tay este doar una dintre multe pericolele inteligenței artificiale și o reamintire puternică a motivului pentru care dezvoltarea sa ar trebui făcută cu cea mai mare precauție și supraveghere.

6 lecții pe care Microsoft le-a învățat după Tay

Tay a fost un dezastru total, dar i-a învățat și Microsoft câteva lecții esențiale în ceea ce privește dezvoltarea instrumentelor AI. Și pentru cât merită, probabil că este în bine că Microsoft și-a învățat lecțiile mai devreme decât mai târziu, ceea ce i-a permis să aibă un avans față de Google și să dezvolte noul Browser Bing alimentat de AI.

Iată câteva dintre aceste lecții:

1. Internetul este plin de troli

Internetul este plin de troli și asta nu este tocmai o știre, nu-i așa? Aparent, așa a fost și pentru Microsoft în 2016. Nu spunem că construirea unui chatbot în „scopuri de divertisment” care vizează tinerii cu vârsta între 18 și 24 de ani a avut vreo legătură cu rata la care serviciul a fost abuzat. Cu toate acestea, cu siguranță nu a fost nici cea mai inteligentă idee.

Oamenii vor desigur să testeze limitele noilor tehnologii și, în cele din urmă, este datoria dezvoltatorului să țină seama de aceste atacuri rău intenționate. Într-un fel, trolii interni acționează ca un mecanism de feedback pentru asigurarea calității, dar asta nu înseamnă că un chatbot ar trebui să fie eliberat fără măsuri de protecție adecvate puse în aplicare înainte de lansare.

2. AI nu poate face diferența intuitivă între bine și rău

Conceptul de bine și rău este ceva ce AI nu înțelege intuitiv. Trebuie să fie programat pentru a simula cunoașterea a ceea ce este bine și rău, a ceea ce este moral și imoral și a ceea ce este normal și particular.

Aceste calități apar mai mult sau mai puțin în mod natural oamenilor ca creaturi sociale, dar AI nu poate forma judecăți independente, nu poate simți empatie sau nu poate experimenta durere. Acesta este motivul pentru care, atunci când utilizatorii Twitter furnizează lui Tay tot felul de propagandă, botul pur și simplu a urmat-o, neștiind etica informațiilor pe care le aduna.

3. Nu antrenați modele AI folosind conversațiile oamenilor

Tay a fost creat prin „exploatarea datelor publice relevante și folosind inteligența artificială și editoriale dezvoltate de un personal, inclusiv comedianți de improvizație.” Formarea unui model de inteligență artificială folosind conversațiile oamenilor de pe internet este oribil idee.

Și înainte de a da vina pe Twitter, știți că rezultatul ar fi fost probabil același, indiferent de platformă. De ce? Pentru că oamenii pur și simplu nu sunt cei mai buni ei al lor pe internet. Se emoționează, folosesc cuvinte din argou și își folosesc anonimatul pentru a fi nefast.

4. AI nu are bun simț și nu primește sarcasm

AI astăzi pare mai intuitivă (sau, pentru a spune mai exact, este mai bună la simularea intuiției), dar uneori se luptă să recunoască sarcasmul și figurile de stil. Acest lucru era adevărat și mai mult în 2016. Ceea ce este evident pentru oameni nu este evident pentru AI; cu alte cuvinte, îi lipsește bunul simț.

AI precum Tay nu înțeleg de ce oamenii sunt așa cum suntem, acționează așa cum o facem și excentricitățile fiecărui individ. Poate să se comporte și să sune uman într-un grad surprinzător, dar o programare bună poate merge doar atât de departe.

5. AI trebuie să fie programat pentru a respinge cereri nevalide

AI este foarte impresionabil și trebuie programat pentru a respinge cererile care promovează vătămări. Chiar și astăzi, după toate progresele noastre în procesarea limbajului natural, oamenii încă găsesc lacune lingvistice faceți „halucineze” chatboții AI precum ChatGPT și să ofere rezultate care trebuiau să fie limitate.

Ideea aici este că inteligența artificială este perfect ascultătoare, care este probabil cea mai mare putere și slăbiciune. Tot ceea ce nu doriți să facă un chatbot trebuie să fie programat manual în el.

6. Chatboții AI nu ar trebui lăsați niciodată nesupravegheați

Până când AI nu se poate regla singură, nu poate fi lăsată nesupravegheată. Te poți gândi la IA de astăzi ca la un copil minune; este genial în anumite privințe, dar este totuși un copil. Dacă sunt lăsate nesupravegheate, oamenii vor exploata slăbiciunile ei – iar Tay a fost un prim exemplu în acest sens.

AI este un instrument, la fel ca internetul, dar rata și scara la care lucrurile se pot întoarce cu AI este mult mai mare decât ceea ce am experimentat în primele zile ale internetului.

AI are nevoie de supraveghere și reglementare constantă

Tay nu este singurul chatbot care a devenit necinstitor – au existat multe alte cazuri asemănătoare. Dar ceea ce a făcut-o să iasă în evidență este viteza absolută cu care a făcut-o și faptul că a fost realizată de un gigant tehnologic precum Microsoft.

Exemple ca acesta arată cât de atenți trebuie să fim atunci când dezvoltăm instrumente AI, mai ales atunci când acestea sunt menite să fie folosite de oameni obișnuiți.