LangChain میں LLM اور LLMCchain کیسے بنائیں؟

Langchain My Llm Awr Llmcchain Kys Bnayy



LangChain قدرتی زبان کی پروسیسنگ یا NLP ڈومین میں ایپلی کیشن کے ساتھ ایک فریم ورک ہے جو انسانوں جیسی زبانوں میں ماڈلز بنانے کے لیے ہے۔ ان ماڈلز کو انسان ماڈل سے جواب حاصل کرنے یا کسی دوسرے انسان کی طرح گفتگو کرنے کے لیے استعمال کر سکتے ہیں۔ LangChain ہر جملے کو گفتگو میں محفوظ کرکے اور اسے سیاق و سباق کے طور پر استعمال کرتے ہوئے مزید بات چیت کرکے زنجیریں بنانے کے لیے استعمال کیا جاتا ہے۔

یہ پوسٹ LangChain میں LLM اور LLMCchain کی تعمیر کے عمل کو واضح کرے گی۔







LangChain میں LLM اور LLMCchain کیسے بنائیں؟

LangChain میں LLM اور LLMCchain بنانے کے لیے، بس درج ذیل مراحل سے گزریں:



مرحلہ 1: ماڈیولز انسٹال کریں۔

سب سے پہلے، LLMs اور LLMCchain بنانے کے لیے اس کی لائبریریوں کو استعمال کرنے کے لیے LangChain ماڈیول انسٹال کریں:



pip انسٹال langchain





ایک اور ماڈیول جو LLMs بنانے کے لیے درکار ہے وہ OpenAI ہے، اور اسے pip کمانڈ کا استعمال کرتے ہوئے انسٹال کیا جا سکتا ہے:

پائپ انسٹال اوپنائی



مرحلہ 2: ایک ماحول قائم کریں۔

اس کے ماحول سے OpenAI API کلید کا استعمال کرتے ہوئے ایک ماحول ترتیب دیں:

ہمیں درآمد کریں
getpassos.environ ['OPENAI_API_KEY'] = getpass.getpass ('OpenAI API کلید:') درآمد کریں

مثال 1: LangChain کا ​​استعمال کرتے ہوئے LLMs بنائیں

پہلی مثال OpenAI اور ChatOpenAI لائبریریوں کو درآمد کرکے اور llm() فنکشن کا استعمال کرکے LangChain کا ​​استعمال کرتے ہوئے بڑے زبان کے ماڈلز بنانا ہے۔

مرحلہ 1: LLM چیٹ ماڈل کا استعمال

LangChain سے OpenAI ماحول کا استعمال کرتے ہوئے ایک سادہ LLM بنانے کے لیے OpenAI اور ChatOpenAI ماڈیولز درآمد کریں:

langchain.chat_models سے ChatOpenAI درآمد کریں۔

langchain.llms سے OpenAI درآمد کریں۔

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('ہیلو!')

ماڈل نے 'ہائے' جواب کے ساتھ جواب دیا ہے جیسا کہ ذیل میں درج ذیل اسکرین شاٹ میں دکھایا گیا ہے۔

chat_model سے predict() فنکشن ماڈل سے جواب یا جواب حاصل کرنے کے لیے استعمال کیا جاتا ہے:

chat_model.predict('ہیلو!')

آؤٹ پٹ دکھاتا ہے کہ ماڈل سوال پوچھنے والے صارف کے اختیار میں ہے:

مرحلہ 2: ٹیکسٹ استفسار کا استعمال

صارف متن متغیر میں مکمل جملہ دے کر ماڈل سے جوابات بھی حاصل کرسکتا ہے:

text = 'رنگین موزے بنانے والی کمپنی کے لیے اچھی کمپنی کا نام کیا ہوگا؟'

llm.predict(متن)

ماڈل نے رنگین جرابوں کے لیے متعدد رنگوں کے مجموعے دکھائے ہیں:

جرابوں کے لیے کلر امتزاج کے ساتھ predict() فنکشن کا استعمال کرتے ہوئے ماڈل سے تفصیلی جواب حاصل کریں:

chat_model.predict(متن)

مرحلہ 3: مواد کے ساتھ متن کا استعمال

صارف جواب کے بارے میں تھوڑی وضاحت کے ساتھ جواب حاصل کرسکتا ہے:

langchain.schema سے HumanMessage درآمد کریں۔

text = 'رنگین کپڑے بنانے والی کمپنی کے لیے اچھا عنوان کیا ہوگا'
پیغامات = [HumanMessage(content=text)]

llm.predict_messages(پیغامات)

ماڈل نے کمپنی کے لیے ٹائٹل تیار کیا ہے جو ہے 'Creative Clothing Co':

کمپنی کے عنوان کا جواب حاصل کرنے کے لیے اس کی وضاحت کے ساتھ پیغام کی پیش گوئی بھی کریں:

chat_model.predict_messages(پیغامات)

مثال 2: LangChain کا ​​استعمال کرتے ہوئے LLMChain بنائیں

ہماری گائیڈ کی دوسری مثال پچھلی مثال کے تمام مراحل کو یکجا کرنے کے لیے انسانی تعامل کی شکل میں ماڈل حاصل کرنے کے لیے LLMCchain بناتی ہے:

langchain.chat_models سے ChatOpenAI درآمد کریں۔
langchain.prompts.chat سے ChatPromptTemplate درآمد کریں۔
langchain.prompts.chat سے ChatPromptTemplate درآمد کریں۔
langchain.prompts.chat سے درآمد کریں  langchain.prompts.chat سے SystemMessagePromptTemplate درآمد کریں HumanMessagePromptTemplate
langchain.chains سے LLMCchain درآمد کریں۔
langchain.schema سے درآمد BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse (self, text: str):
واپسی text.strip().split(', ')

چیٹ ماڈل کے لیے اس کے کام کی تفصیلی وضاحت دے کر ٹیمپلیٹ بنائیں اور پھر LLMChain() فنکشن بنائیں جس میں LLM، آؤٹ پٹ پارسر، اور chat_prompt لائبریریاں ہوں:

ٹیمپلیٹ = '''آپ کو کوما سے الگ کردہ فہرستیں بنانے میں مدد کرنی ہوگی۔
صارف سے زمرہ حاصل کریں، اور پانچ اشیاء کے ساتھ کوما سے الگ کردہ فہرست بنائیں
زمرہ ''' سے صرف چیز ہی چیز ہونی چاہئے
system_message_prompt = SystemMessagePromptTemplate.from_template(ٹیمپلیٹ)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
# استفسار کی ساخت کے ساتھ LLMCchain کو ترتیب دیں۔
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
سلسلہ = LLMCchain(
llm=ChatOpenAI(),
prompt=chat_prompt،
output_parser=CommaSeparatedListOutputParser()
)
chain.run('رنگ')

ماڈل نے رنگوں کی فہرست کے ساتھ جواب فراہم کیا ہے کیونکہ زمرہ میں صرف 5 اشیاء ہونی چاہئیں جو پرامپٹ میں دی گئی ہیں:

یہ سب کچھ LangChain میں LLM اور LLMCchain بنانے کے بارے میں ہے۔

نتیجہ

LangChain کا ​​استعمال کرتے ہوئے LLM اور LLMCchain بنانے کے لیے، اس کی API کلید کا استعمال کرتے ہوئے ماحول کو ترتیب دینے کے لیے صرف LangChain اور OpenAI ماڈیولز کو انسٹال کریں۔ اس کے بعد، مکمل چیٹ کے لیے ایک سوال کے لیے پرامپٹ ٹیمپلیٹ بنانے کے بعد chat_model کا استعمال کرتے ہوئے LLM ماڈل بنائیں۔ LLMCchain کا ​​استعمال گفتگو میں تمام مشاہدات کی زنجیریں بنانے اور انہیں تعامل کے سیاق و سباق کے طور پر استعمال کرنے کے لیے کیا جاتا ہے۔ یہ پوسٹ LangChain فریم ورک کا استعمال کرتے ہوئے LLM اور LLMChain کی تعمیر کے عمل کو واضح کرتی ہے۔