În timp ce software-ul proprietar precum GPT și PaLM domină piața, mulți dezvoltatori văd valoare în modelele de limbaj open-source. Luați Meta ca exemplu. A făcut titluri în februarie 2023 pentru lansarea oficială a modelului de limbă mare LLaMA ca program open-source. Deloc surprinzător, această decizie a avut reacții mixte.
Deoarece modelele de limbaj open-source au multe avantaje și dezavantaje și pot afecta pozitiv și negativ industria AI, am rezumat punctele cheie pe care ar trebui să le cunoașteți și să le înțelegeți.
5 Impacturi pozitive ale modelelor de limbaj open-source
Modelele de limbaj open-source promovează o abordare colaborativă. Intrările, recenziile și cazurile de utilizare de la dezvoltatori din întreaga lume îi ajută, probabil, să avanseze mai repede decât proiectele închise.
1. Dezvoltatorii AI economisesc resurse folosind modele open-source
Lansarea modelelor de limbaj proprietar costă milioane, dacă nu miliarde, în resurse. Luați OpenAI ca exemplu. Business Insider raportează că compania a trebuit să strângă aproximativ 30 de miliarde de dolari pentru a rula ChatGPT în mod eficient. Obținerea atât de multă finanțare este imposibilă pentru majoritatea companiilor. Startup-urile tehnologice aflate în stadiile lor incipiente ar avea noroc să atingă chiar și șapte cifre.
Având în vedere costul mare, mulți dezvoltatori folosesc în schimb modele de limbaj open-source. Ei economisesc milioane de oameni utilizând arhitectura acestor sisteme, structura neuronală, datele de antrenament, algoritmul, implementarea codului și seturile de date de antrenament.
2. Modelele open-source avansează probabil mai repede
Mulți lideri tehnologici susțin că modelele de limbaj open-source avansează mai repede decât omologii proprietar. Ei apreciază contribuțiile și colaborarea comunității. Milioane de dezvoltatori calificați lucrează la proiecte deschise – teoretic ar putea realiza o iterație sofisticată, fără erori, mult mai rapid.
Acoperirea lacunelor de cunoștințe este, de asemenea, mai rapidă cu AI open-source. În loc să antreneze echipele pentru a găsi erori, a testa actualizări și a explora implementările, companiile pot analiza contribuțiile comunității. Partajarea cunoștințelor permite utilizatorilor să lucreze mai eficient.
Contribuțiile comunității nu sunt întotdeauna exacte. Dezvoltatorii ar trebui să verifice în continuare algoritmii și modelele înainte de a le integra în sistemele lor.
3. Dezvoltatorii vor detecta vulnerabilitățile mai repede
Modelele de limbaj cu sursă deschisă încurajează evaluările de la colegi și implicarea activă în cadrul comunității sale de colaborare. Dezvoltatorii pot accesa liber modificările bazei de cod. Cu atât de mulți utilizatori care analizează proiecte deschise, probabil că vor identifica mai repede problemele de securitate, vulnerabilitățile și erorile de sistem.
De asemenea, rezoluția erorilor este, de asemenea, simplificată. În loc să rezolve manual problemele de sistem, dezvoltatorii pot verifica sistemul de control al versiunilor proiectului pentru remedieri anterioare. Unele intrări ar putea fi învechite. Cu toate acestea, ei vor oferi în continuare cercetătorilor și formatorilor AI un punct de plecare util.
4. Liderii tehnologiei AI învață din modelele open-source
Modelele de limbaj open-source beneficiază de feedback-ul în buclă. Buclele de feedback pozitiv partajează algoritmi, seturi de date și funcții eficiente, încurajând dezvoltatorii să le imite. Procesul le economisește mult timp. Trebuie doar să rețineți că erorile pot apărea cu feedback pozitiv pe care utilizatorii îl reproduc la întâmplare - greșelile tind să fie trecute cu vederea.
Între timp, bucla de feedback negativ se concentrează pe domenii de îmbunătățire. Procesul implică partajarea informațiilor personale în timp ce se rezolvă erori, se testează funcții noi și se remediază problemele sistemului.
5. Platformele AI cu sursă deschisă primesc primele note pe sisteme noi
Companiile de tehnologie nu împart sisteme lingvistice de miliarde de dolari din bunăvoință. În timp ce licențele open-source oferă utilizatorilor terți libertatea de a modifica și vinde sisteme, acestea au limitări.
Distribuitorii creează adesea condiții care asigură că își păstrează o anumită autoritate. Veți găsi aceste reguli în acordurile de licență ale programelor cu sursă deschisă – utilizatorii finali rareori obțin autoritate de 100%.
Să presupunem că Meta vrea control asupra produselor alimentate cu LLaMA. Echipa sa juridică ar putea preciza că Meta își rezervă dreptul de a investi în orice sisteme noi construite pe modelul său lingvistic.
Dar nu înțelegeți greșit – dezvoltatorii și distribuitorii terți fac în continuare acorduri reciproc avantajoase. Acesta din urmă oferă tehnologii și sisteme de miliarde de dolari. Între timp, startup-urile și dezvoltatorii independenți explorează modalități de implementare a acestora în diferite aplicații.
5 Impacturi negative ale modelelor de limbaj open-source
Modelele de limbaj open-source sunt în mod inerent imparțial, dar oamenii nu sunt. Consumatorii, dezvoltatorii și companiile cu intenții rău intenționate ar putea exploata natura deschisă a acestor sisteme pentru câștig personal.
1. Companiile se alătură întâmplător cursei AI
Companiile se confruntă în prezent cu prea multă presiune pentru a se alătura cursei AI. Odată cu popularizarea sistemelor AI, multe companii se tem că vor deveni învechite dacă nu adoptă AI. Drept urmare, mărcile se aruncă la întâmplare. Ei integrează modele de limbaj open-source în produsele lor de dragul de a vinde produsul și de a ține pasul cu concurența, chiar dacă nu oferă nimic valoros.
Da, AI este o piață în curs de dezvoltare. Dar lansarea neglijent a unor sisteme sofisticate, dar nesigure, dăunează industriei și compromite siguranța consumatorilor. Dezvoltatorii ar trebui să folosească AI pentru a rezolva probleme, nu pentru a rula trucuri de marketing.
2. Consumatorii au acces la tehnologie pe care abia o înțeleg
Veți găsi variații bazate pe AI ale diverselor instrumente tehnologice, de la editori de imagini online la aplicații de monitorizare a sănătății. Și mărcile vor continua să introducă noi sisteme pe măsură ce AI evoluează. Modelele de inteligență artificială îi ajută să ofere iterații mai personalizate, concentrate pe utilizator ale platformelor lor existente.
În timp ce industria tehnologică salută inovațiile, evoluția rapidă a AI depășește educația utilizatorilor. Consumatorii au acces la tehnologii pe care abia le înțeleg. Lipsa educației creează lacune masive de cunoștințe, ceea ce lasă publicul predispus la amenințări la adresa securității cibernetice și la practici de prădăre.
Mărcile ar trebui să acorde prioritate instruirii la fel de mult ca și dezvoltării produselor. Ele trebuie să ajute utilizatorii să înțeleagă modalitățile sigure și responsabile de a utiliza instrumente puternice bazate pe inteligență artificială.
3. Nu toți dezvoltatorii au intenții bune
Nu toată lumea folosește instrumente AI în scopul propus. De exemplu, OpenAI a dezvoltat ChatGPT pentru a răspunde întrebărilor de cunoștințe generale sigure pentru locul de muncă și pentru a reproduce rezultatele în limbaj natural, dar infractorii le exploatează pentru activități ilicite. Au fost mai multe Escrocherii ChatGPT de când chatbot-ul AI a fost lansat în noiembrie 2022.
Chiar dacă laboratoarele AI impun restricții rigide, escrocii vor găsi în continuare modalități de a le ocoli. Luați din nou ChatGPT ca exemplu. Utilizatorii lucrează în jurul constrângerilor și efectuează sarcini interzise prin utilizarea Solicitări de jailbreak ChatGPT.
Conversațiile de mai jos demonstrează aceste vulnerabilități. ChatGPT are seturi de date limitate; prin urmare, nu poate face predicții despre evenimente instabile, negarantate.
În ciuda limitărilor sale, ChatGPT a executat cererea noastră și a furnizat predicții fără temei după ce a făcut jailbreak-ul.
4. Instituțiile ar putea avea probleme în a reglementa AI open-source
Organismele de reglementare se luptă să țină pasul cu AI, iar proliferarea modelelor open-source nu face decât să îngreuneze monitorizarea. Progresele AI depășesc deja cadrele de reglementare. Chiar și lideri mondiali din tehnologie precum Elon Musk, Bill Gates și Sam Altman solicită o reglementare mai strictă a IA.
Sectorul privat și cel guvernamental deopotrivă trebuie să controleze aceste sisteme. În caz contrar, persoanele rău intenționate vor continua să le exploateze pentru a încălca legile privind confidențialitatea datelor, execută furt de identitate, și victimele înșelătoriei, printre alte activități ilicite.
5. Scăderea barierelor la intrare împiedică calitatea
Proliferarea modelelor de limbaj cu sursă deschisă reduce barierele de intrare pentru a se alătura cursei AI. Veți găsi online mii de instrumente bazate pe inteligență artificială.
Vederea companiilor adoptând învățarea automată și deep learning poate părea impresionantă, dar puține oferă vreo valoare reală. Majoritatea pur și simplu își copiază concurenții. De-a lungul timpului, accesibilitatea modelelor lingvistice sofisticate și a seturilor de date de antrenament ar putea să mărească platformele AI inutile.
Impactul general al modelelor de limbaj open-source asupra industriei AI
În timp ce modelele de limbaj open-source fac tehnologiile AI mai accesibile, ele prezintă și câteva riscuri de securitate. Dezvoltatorii ar trebui să stabilească restricții mai stricte. Escrocii vor continua să exploateze arhitectura transparentă a acestor sisteme altfel.
Acestea fiind spuse, consumatorii nu sunt complet lipsiți de apărare împotriva înșelătoriilor AI. Familiarizați-vă cu modurile comune în care escrocii exploatează instrumentele AI generative și studiază semnele de avertizare ale atacurilor. Puteți combate majoritatea infracțiunilor cibernetice rămânând vigilenți.