LLMCchain میں LangChain کے ذریعے میموری کا استعمال کیسے کریں؟

Llmcchain My Langchain K Dhry Mymwry Ka Ast Mal Kys Kry



LangChain ایک ایسا فریم ورک ہے جو بڑی زبان کے ماڈلز یا LLMs بنانے کے لیے لائبریریوں اور انحصار کو درآمد کرنے کے لیے استعمال کیا جا سکتا ہے۔ زبان کے ماڈلز ڈیٹا بیس میں ڈیٹا یا تاریخ کو ذخیرہ کرنے کے لیے میموری کا استعمال کرتے ہیں تاکہ گفتگو کا سیاق و سباق حاصل کیا جا سکے۔ میموری کو حالیہ پیغامات کو ذخیرہ کرنے کے لیے ترتیب دیا گیا ہے تاکہ ماڈل صارف کی طرف سے دیے گئے مبہم اشارے کو سمجھ سکے۔

یہ بلاگ LangChain کے ذریعے LLMCchain میں میموری استعمال کرنے کے عمل کی وضاحت کرتا ہے۔







LLMCchain میں LangChain کے ذریعے میموری کا استعمال کیسے کریں؟

میموری کو شامل کرنے اور اسے LangChain کے ذریعے LLMChain میں استعمال کرنے کے لیے، ConversationBufferMemory لائبریری کو LangChain سے درآمد کر کے استعمال کیا جا سکتا ہے۔



LangChain کے ذریعے LLMCchain میں میموری کو استعمال کرنے کا طریقہ سیکھنے کے لیے، درج ذیل گائیڈ کو دیکھیں:



مرحلہ 1: ماڈیولز انسٹال کریں۔

سب سے پہلے، pip کمانڈ کا استعمال کرتے ہوئے LangChain انسٹال کرکے میموری کو استعمال کرنے کا عمل شروع کریں:





pip انسٹال langchain

LLMs یا چیٹ ماڈلز بنانے کے لیے اس کی انحصار یا لائبریریاں حاصل کرنے کے لیے OpenAI ماڈیولز انسٹال کریں:



پائپ انسٹال اوپنائی

ماحول کو ترتیب دیں۔ OS اور getpass لائبریریوں کو درآمد کرکے اپنی API کلید کا استعمال کرتے ہوئے OpenAI کے لیے:

ہمیں درآمد کریں
گیٹ پاس درآمد کریں۔

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API کلید:')

مرحلہ 2: لائبریریاں درآمد کرنا

ماحول کو ترتیب دینے کے بعد، صرف LangChain سے ConversationBufferMemory جیسی لائبریریوں کو درآمد کریں:

langchain.chains سے LLMCchain درآمد کریں۔
langchain.llms سے OpenAI درآمد کریں۔

langchain.memory سے ConversationBufferMemory درآمد کریں۔

langchain.prompts سے PromptTemplate درآمد کریں۔

صارف سے استفسار حاصل کرنے کے لیے 'ان پٹ' جیسے متغیرات کا استعمال کرتے ہوئے پرامپٹ کے لیے ٹیمپلیٹ کو ترتیب دیں اور بفر میموری میں ڈیٹا اسٹور کرنے کے لیے 'ہسٹ':

ٹیمپلیٹ = '''آپ ایک ماڈل ہیں جو ایک انسان کے ساتھ بات چیت کر رہی ہے۔

{تاریخ}
انسانی: {input}
چیٹ بوٹ:'''

prompt = PromptTemplate(
input_variables=['ہسٹ'، 'ان پٹ']، ٹیمپلیٹ=ٹیمپلیٹ
)
میموری = بات چیت بفر میموری (میموری_کی = 'ہسٹ')

مرحلہ 3: ایل ایل ایم کی تشکیل

استفسار کے لیے ٹیمپلیٹ تیار ہونے کے بعد، متعدد پیرامیٹرز کا استعمال کرتے ہوئے LLMChain() طریقہ ترتیب دیں:

llm = OpenAI()
llm_chain = LLMCchain(
llm=llm،
prompt = فوری،
verbose = سچ،
میموری = میموری،
)

مرحلہ 4: LLMCchain کی جانچ کرنا

اس کے بعد، متنی شکل میں صارف سے پرامپٹ حاصل کرنے کے لیے ان پٹ متغیر کا استعمال کرتے ہوئے LLMCchain کی جانچ کریں:

llm_chain.predict(input='ہیلو میرے دوست')

سیاق و سباق کا استعمال کرتے ہوئے آؤٹ پٹ نکالنے کے لیے میموری میں ذخیرہ شدہ ڈیٹا حاصل کرنے کے لیے دوسرا ان پٹ استعمال کریں:

llm_chain.predict(input='اچھا! میں اچھا ہوں - آپ کیسے ہیں')

مرحلہ 5: چیٹ ماڈل میں میموری شامل کرنا

لائبریریوں کو درآمد کرکے میموری کو چیٹ ماڈل پر مبنی LLMCchain میں شامل کیا جا سکتا ہے:

langchain.chat_models سے ChatOpenAI درآمد کریں۔
langchain.schema درآمد SystemMessage سے
langchain.prompts سے ChatPromptTemplate، HumanMessagePromptTemplate، MessagesPlaceholder درآمد کریں

صارف سے ان پٹ سیٹ کرنے کے لیے مختلف متغیرات کا استعمال کرتے ہوئے ConversationBufferMemory() کا استعمال کرتے ہوئے پرامپٹ ٹیمپلیٹ کو ترتیب دیں:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='آپ ایک ماڈل ہیں جو انسان کے ساتھ بات چیت کر رہے ہیں')
MessagesPlaceholder(variable_)،
HumanMessagePromptTemplate.from_template('{input}')،
])

میموری = بات چیت بفر میموری (میموری_کی = 'ہسٹ'، واپسی_ پیغامات = سچ)

مرحلہ 6: LLMCchain کو ترتیب دینا

مختلف دلائل اور پیرامیٹرز کا استعمال کرتے ہوئے ماڈل کو ترتیب دینے کے لیے LLMChain() طریقہ ترتیب دیں:

llm = ChatOpenAI()

chat_llm_chain = LLMCchain(
llm=llm،
prompt = فوری،
verbose = سچ،
میموری = میموری،
)

مرحلہ 7: LLMCchain کی جانچ کرنا

آخر میں، صرف ان پٹ کا استعمال کرتے ہوئے LLMCchain کی جانچ کریں تاکہ ماڈل پرامپٹ کے مطابق متن تیار کر سکے۔

chat_llm_chain.predict(input='ہیلو میرے دوست')

ماڈل نے پچھلی گفتگو کو میموری میں محفوظ کر لیا ہے اور اسے استفسار کے اصل آؤٹ پٹ سے پہلے دکھاتا ہے:

llm_chain.predict(input='اچھا! میں اچھا ہوں - آپ کیسے ہیں')

یہ سب LLMCchain میں LangChain کا ​​استعمال کرتے ہوئے میموری کو استعمال کرنے کے بارے میں ہے۔

نتیجہ

LangChain فریم ورک کے ذریعے LLMChain میں میموری کو استعمال کرنے کے لیے، ماڈیولز سے انحصار حاصل کرنے کے لیے ماحول کو ترتیب دینے کے لیے صرف ماڈیولز انسٹال کریں۔ اس کے بعد، پچھلی گفتگو کو ذخیرہ کرنے کے لیے بفر میموری استعمال کرنے کے لیے صرف LangChain سے لائبریریاں درآمد کریں۔ صارف LLMCchain بنا کر اور پھر ان پٹ فراہم کر کے چین کی جانچ کر کے چیٹ ماڈل میں میموری بھی شامل کر سکتا ہے۔ اس گائیڈ نے LLMCchain میں LangChain کے ذریعے میموری کو استعمال کرنے کے عمل کی وضاحت کی ہے۔