LangChain LLM este vorbitul fierbinte al orașului. Obțineți o privire de ansamblu asupra a ceea ce este și cum puteți începe cu el.
Odată cu introducerea modelelor de limbaj mari (LLMs), procesarea limbajului natural a fost discutat pe internet. Noi aplicații sunt dezvoltate zilnic datorită LLM-urilor precum ChatGPT și LangChain.
LangChain este un cadru Python open-source care le permite dezvoltatorilor să dezvolte aplicații bazate pe modele de limbaj mari. Aplicațiile sale sunt chatbot, rezumat, întrebări și răspunsuri generative și multe altele.
Acest articol va oferi o introducere în LangChain LLM. Acesta va acoperi conceptele de bază, cum se compară cu alte modele lingvistice și cum să începeți cu el.
Înțelegerea LLM LangChain
Înainte de a explica cum funcționează LangChain, mai întâi, trebuie să înțelegeți cât de mari funcționează modelele de limbaj. Un model de limbaj mare este un tip de inteligență artificială (AI) care folosește învățarea profundă pentru a instrui modelele de învățare automată pe date mari constând din date textuale, numerice și de cod.
Cantitatea mare de date permite modelului să învețe modelele existente și relațiile dintre cuvinte, cifre și simboluri. Această caracteristică permite modelului să efectueze o serie de sarcini, cum ar fi:
- Generarea de text, traducerea limbilor, scrierea de conținut creativă, tehnică și academică și răspunsuri precise și relevante la întrebări.
- Detectarea obiectelor în imagini.
- Rezumatul cărților, articolelor și lucrărilor de cercetare.
Cea mai semnificativă limitare a LLM-urilor este că modelele sunt foarte generale. Această caracteristică înseamnă că, în ciuda capacității lor de a îndeplini mai multe sarcini în mod eficient, acestea pot oferi uneori răspunsuri generale la întrebări sau solicitări care necesită expertiză și cunoștințe profunde în domeniu în loc de specifice răspunsuri.
Dezvoltat de Harrison Chase la sfârșitul anului 2022, cadrul LangChain oferă o abordare inovatoare a LLM-urilor. Procesul începe prin preprocesarea textelor setului de date prin împărțirea acestuia în părți mai mici sau rezumate. Rezumatele sunt apoi încorporate într-un spațiu vectorial. Modelul primește o întrebare, caută în rezumate și oferă răspunsul adecvat.
Metoda de preprocesare a LangChain este o caracteristică critică care este inevitabilă pe măsură ce LLM-urile devin mai puternice și consumatoare de date. Această metodă este utilizată în principal în cazurile de căutare de cod și semantică, deoarece oferă colectare și interacțiune în timp real cu LLM-urile.
LangChain LLM vs. Alte modele de limbaj
Următoarea prezentare comparativă urmărește să evidențieze caracteristicile și capacitățile unice care diferențiază LangChain LLM de alte modele lingvistice existente pe piață:
- Memorie: Mai multe LLM-uri au o memorie scurtă, ceea ce duce de obicei la pierderea contextului dacă solicitările depășesc limita de memorie. LangChain, totuși, oferă solicitările și răspunsurile anterioare de chat, rezolvând problema limitelor de memorie. Istoricul mesajelor permite unui utilizator să repete mesajele anterioare către LLM pentru a recapitula contextul anterior.
- Schimbarea LLM: În comparație cu alte LLM-uri care vă blochează software-ul cu API-ul unui singur model, LangChain oferă o abstractizare care simplifică schimbarea LLM-urilor sau integrarea mai multor LLM-uri în aplicația dvs. Acest lucru este util atunci când doriți să vă actualizați capacitățile software folosind un model compact, cum ar fi StableLM de la Stability AI de la GPT-3.5 de la OpenAI.
- Integrare: Integrarea LangChain în aplicația dvs. este ușoară în comparație cu alte LLM-uri. Oferă fluxuri de lucru prin conducte lanţuri și agenţi, permițându-vă să încorporați rapid LangChain în aplicația dvs. În ceea ce privește conductele liniare, lanțurile sunt obiecte care leagă în esență numeroase părți. Agenții sunt mai avansați, permițându-vă să alegeți modul în care componentele ar trebui să interacționeze folosind logica de afaceri. De exemplu, este posibil să doriți să utilizați logica condiționată pentru a determina următorul curs de acțiune pe baza rezultatelor unui LLM.
- Transmiterea datelor: Datorită naturii generale bazate pe text a LLM-urilor, este de obicei dificil să transmiteți date modelului. LangChain rezolvă această problemă utilizând indici. Indexurile permit unei aplicații să importe date în formate variabile și să le stocheze într-un mod care să facă posibilă difuzarea lor rând cu rând către un LLM.
- Răspunsuri: LangChain oferă instrumente de analiză de ieșire pentru a oferi răspunsuri într-un format adecvat, spre deosebire de alte LLM-uri al căror model de răspuns constă dintr-un text general. Când utilizați AI într-o aplicație, este de preferat să aveți un răspuns structurat pe care să îl puteți programa.
Noțiuni introductive cu LangChain LLM
Acum veți învăța cum să implementați LangChain într-un scenariu real de utilizare pentru a înțelege cum funcționează. Înainte de a începe dezvoltarea, trebuie să configurați mediul de dezvoltare.
Configurarea mediului de dezvoltare
Primul, creați un mediu virtual și instalați dependențele de mai jos:
- OpenAI: Pentru a integra API-ul GPT-3 în aplicația dvs.
- LangChain: Pentru a integra LangChain în aplicația dvs.
Folosind pip, rulați comanda de mai jos pentru a instala dependențele:
pipenv instalează langchain openai
Comanda de mai sus instalează pachetele și creează un mediu virtual.
Importați dependențele instalate
Mai întâi, importați clasele necesare, cum ar fi LLMChain, OpenAI, ConversationChain, și PromptTemplate de la langchain pachet.
din langchain import ConversationChain, OpenAI, PromptTemplate, LLMChain
din langchain.memorie import ConversationBufferWindowMemory
Clasele LangChain conturează și execută lanțurile de modele de limbaj.
Accesați cheia API OpenAI
Apoi, obțineți cheia API OpenAI. Pentru a accesa cheia API a OpenAI, trebuie să aveți un cont OpenAI, apoi treceți la Platforma API OpenAI.
Pe tabloul de bord, faceți clic pe pictograma Profil. Apoi, faceți clic pe Vedeți cheile API buton.
Apoi, faceți clic pe Creați o nouă cheie secretă butonul pentru a obține o nouă cheie API.
Introduceți numele solicitat al cheii API.
Vei primi un cheie secreta prompt.
Copiați și stocați cheia API într-un loc sigur pentru utilizare ulterioară.
Dezvoltarea unei aplicații folosind LangChain LLM
Acum veți continua să dezvoltați o aplicație simplă de chat, după cum urmează:
# Personalizați șablonul LLM
șablon = Assistant este un model de limbă mare antrenat de OpenAI.{istorie}
Om: {human_input}
Asistent:
prompt = PromptTemplate (input_variables=["istorie", "input_uman"], șablon=șablon)
Apoi, veți încărca lanțul ChatGPT folosind cheia API pe care ați stocat-o mai devreme.
chatgpt_chain = LLMChain(
llm=OpenAI(openai_api_key=„OPENAI_API_KEY”,temperatura=0),
prompt=prompt,
verbose=Adevărat,
memorie=ConversationBufferWindowMemory (k=2),
)
# Preziceți o propoziție folosind lanțul chatgpt
output = chatgpt_chain.predict(
uman_input=„Ce este MakeUseOf?”
)
# Afișează răspunsul modelului
imprimare (ieșire)
Acest cod încarcă lanțul LLM cu cheia API OpenAI și șablonul prompt. Intrarea utilizatorului este apoi furnizată și ieșirea acesteia este afișată.
Mai sus este rezultatul așteptat.
Influența în creștere a LLM-urilor
Consumul de LLM crește rapid și schimbă modul în care oamenii interacționează cu mașinile de cunoaștere. Framework-uri precum LangChain sunt în fruntea furnizării dezvoltatorilor de o modalitate simplă și simplă de a furniza LLM-urilor aplicațiilor. Modelele AI generative precum ChatGPT, Bard și Hugging Face nu sunt, de asemenea, lăsate în urmă în aplicațiile LLM avansate.