Python میں LangChain LLMCchain فنکشن کا استعمال کیسے کریں۔

Python My Langchain Llmcchain Fnkshn Ka Ast Mal Kys Kry



لینگچین کے پاس لینگویج ماڈل ایپلی کیشنز بنانے کے لیے ماڈیولز کی بہتات ہے۔ ماڈیولز کو ملا کر ایپلی کیشنز کو مزید پیچیدہ بنایا جا سکتا ہے، یا انہیں ایک ہی ماڈیول کا استعمال کرتے ہوئے آسان بنایا جا سکتا ہے۔ کسی مخصوص ان پٹ پر LLM کو کال کرنا LangChain کا سب سے ضروری جزو ہے۔

زنجیریں صرف ایک ایل ایل ایم کال کے لیے کام نہیں کرتی ہیں۔ وہ کالوں کے مجموعے ہیں، یا تو ایل ایل ایم یا کسی اور افادیت کے لیے۔ وسیع پیمانے پر استعمال شدہ ایپلیکیشنز کے لیے اینڈ ٹو اینڈ چینز ایک معیاری چین API اور متعدد ٹول انٹیگریشنز کے ساتھ LangChain کے ذریعے فراہم کی جاتی ہیں۔

ایک سے زیادہ عناصر کو ایک ہی ہستی میں جوڑنے کی لچک اور صلاحیت اس وقت کارآمد ہو سکتی ہے جب ہم ایک ایسی چین ڈیزائن کرنا چاہتے ہیں جو صارف کے ان پٹ کو قبول کرے، اسے PromptTemplate کا استعمال کر کے سیٹ اپ کرے، اور پھر پیدا کردہ نتیجہ کو LLM کو فراہم کرے۔







یہ مضمون آپ کو Python میں LangChain LLMchain فنکشن کے استعمال کو سمجھنے میں مدد کرتا ہے۔



مثال: LangChain میں LLMchain Fuction کا استعمال کیسے کریں۔

ہم نے بات کی کہ زنجیریں کیا ہیں۔ اب، ہم ان زنجیروں کا عملی مظاہرہ دیکھیں گے جو ایک Python اسکرپٹ میں لاگو ہوتے ہیں۔ اس مثال میں، ہم سب سے بنیادی LangChain چین استعمال کرتے ہیں جو کہ LLMchain ہے۔ اس میں ایک PromptTemplate اور ایک LLM ہوتا ہے، اور آؤٹ پٹ پیدا کرنے کے لیے ان کو ایک ساتھ جوڑتا ہے۔



تصور پر عمل درآمد شروع کرنے کے لیے، ہمیں کچھ مطلوبہ لائبریریاں انسٹال کرنی ہوں گی جو Python معیاری لائبریری میں شامل نہیں ہیں۔ ہمیں جن لائبریریوں کو انسٹال کرنے کی ضرورت ہے وہ ہیں LangChain اور OpenAI۔ ہم LangChain لائبریری کو انسٹال کرتے ہیں کیونکہ ہمیں اس کے LLMchain ماڈیول کے ساتھ ساتھ PromptTemplate کو استعمال کرنے کی ضرورت ہے۔ اوپن اے آئی لائبریری ہمیں آؤٹ پٹس کی پیشین گوئی کرنے کے لیے اوپن اے آئی کے ماڈلز استعمال کرنے دیتی ہے، یعنی GPT-3۔





LangChain لائبریری کو انسٹال کرنے کے لیے، ٹرمینل پر درج ذیل کمانڈ کو چلائیں:

$pip langchain انسٹال کریں۔

اوپن اے آئی لائبریری کو درج ذیل کمانڈ کے ساتھ انسٹال کریں:



$pip انسٹال اوپنائی

تنصیبات مکمل ہونے کے بعد، ہم مرکزی منصوبے پر کام شروع کر سکتے ہیں۔

سے langchain اشارہ کرتا ہے درآمد PromptTemplate

سے langchain ایل ایم ایس درآمد اوپن اے آئی

درآمد تم

تم . تقریباً [ 'OPENAI_API_KEY' ] = 'sk-Your API کلید'

اہم پروجیکٹ ضروری ماڈیولز درآمد کرکے شروع ہوتا ہے۔ لہذا، ہم سب سے پہلے 'langchain.prompts' لائبریری سے PromptTemplate درآمد کرتے ہیں۔ پھر، ہم OpenAI کو 'langchain.llms' لائبریری سے درآمد کرتے ہیں۔ اگلا، ہم ماحولیاتی متغیر کو سیٹ کرنے کے لیے 'os' درآمد کرتے ہیں۔

ابتدائی طور پر، ہم OpenAI API کلید کو ماحولیاتی متغیر کے طور پر سیٹ کرتے ہیں۔ ماحولیاتی متغیر ایک متغیر ہے جو ایک نام اور قدر پر مشتمل ہوتا ہے اور ہمارے آپریٹنگ سسٹم پر سیٹ ہوتا ہے۔ 'os.environ' ایک ایسی چیز ہے جو ماحولیاتی متغیرات کو نقشہ کرنے کے لیے استعمال ہوتی ہے۔ لہذا، ہم 'os.environ' کہتے ہیں. API کلید کے لیے جو نام ہم نے سیٹ کیا ہے وہ ہے OPENAI_API_KEY۔ پھر ہم API کلید کو اس کی قدر کے طور پر تفویض کرتے ہیں۔ API کلید ہر صارف کے لیے منفرد ہے۔ لہذا، جب آپ اس کوڈ اسکرپٹ کی مشق کر رہے ہوں، تو اپنی خفیہ API کلید لکھیں۔

ایل ایل ایم = اوپن اے آئی ( درجہ حرارت = 0.9 )

فوری طور پر = PromptTemplate (

input_variables = [ 'مصنوعات' ] ,

سانچے = 'کسی برانڈ کا نام کیا ہوگا جو {مصنوعات} بیچتا ہے؟' ,

)

اب چونکہ کلید کو ماحولیاتی متغیر کے طور پر سیٹ کیا گیا ہے، ہم ایک ریپر کو شروع کرتے ہیں۔ OpenAI GPT ماڈلز کے لیے درجہ حرارت سیٹ کریں۔ درجہ حرارت ایک خصوصیت ہے جو ہمیں یہ تعین کرنے میں مدد کرتی ہے کہ ردعمل کتنا غیر متوقع ہوگا۔ درجہ حرارت کی قدر جتنی زیادہ ہوگی، جوابات اتنے ہی بے ترتیب ہیں۔ ہم یہاں درجہ حرارت کی قدر 0.9 پر سیٹ کرتے ہیں۔ اس طرح، ہم سب سے زیادہ بے ترتیب نتائج حاصل کرتے ہیں.

پھر، ہم ایک PromptTemplate کلاس شروع کرتے ہیں۔ جب ہم LLM استعمال کرتے ہیں، تو ہم صارف سے لیے گئے ان پٹ سے ایک پرامپٹ تیار کرتے ہیں اور پھر اسے براہ راست LLM کو ان پٹ بھیجنے کے بجائے LLM کو بھیج دیتے ہیں جس کے لیے سخت کوڈنگ کی ضرورت ہوتی ہے (ایک پرامپٹ ایک ان پٹ ہوتا ہے جو ہم نے صارف سے لیا تھا۔ صارف اور جس پر بیان کردہ AI ماڈل کو جواب دینا چاہئے)۔ لہذا، ہم PromptTemplate کو شروع کرتے ہیں۔ پھر، اس کے گھنگھریالے منحنی خطوط وحدانی کے اندر، ہم input_variable کو 'Products' کے طور پر بیان کرتے ہیں اور ٹیمپلیٹ کا متن یہ ہے کہ 'کسی برانڈ کا نام کیا ہوگا جو {products} بیچتا ہے؟' صارف کا ان پٹ بتاتا ہے کہ برانڈ کیا کرتا ہے۔ پھر، یہ اس معلومات کی بنیاد پر پرامپٹ کو فارمیٹ کرتا ہے۔

سے langchain زنجیریں درآمد ایل ایل ایم چین

زنجیر = ایل ایل ایم چین ( ایل ایل ایم = ایل ایل ایم ، فوری طور پر = فوری طور پر )

اب جبکہ ہمارا PromptTemplate فارمیٹ ہو چکا ہے، اگلا مرحلہ LLMchain بنانا ہے۔ سب سے پہلے، 'langchain.chain' لائبریری سے LLMchain ماڈیول درآمد کریں۔ پھر، ہم LLMchain() فنکشن کو کال کرکے ایک سلسلہ بناتے ہیں جو صارف کا ان پٹ لیتا ہے اور اس کے ساتھ پرامپٹ کو فارمیٹ کرتا ہے۔ آخر میں، یہ ایل ایل ایم کو جواب بھیجتا ہے۔ تو، یہ PromptTemplate اور LLM کو جوڑتا ہے۔

پرنٹ کریں ( زنجیر رن ( 'آرٹ سپلائیز' ) )

سلسلہ کو انجام دینے کے لیے، ہم chain.run() طریقہ کو کال کرتے ہیں اور صارف کا ان پٹ بطور پیرامیٹر فراہم کرتے ہیں جس کی تعریف 'آرٹ سپلائیز' کے طور پر کی گئی ہے۔ پھر، ہم اس طریقہ کو Python print() فنکشن کو Python کنسول پر پیشن گوئی شدہ نتائج کو ظاہر کرنے کے لیے منتقل کرتے ہیں۔

AI ماڈل پرامپٹ کو پڑھتا ہے اور اس کی بنیاد پر جواب دیتا ہے۔

چونکہ ہم نے آرٹ سپلائیز فروخت کرنے والے ایک برانڈ کا نام دینے کو کہا ہے، اس لیے AI ماڈل کی طرف سے پیش گوئی کردہ نام درج ذیل سنیپ شاٹ میں دیکھا جا سکتا ہے:

یہ مثال ہمیں LLMchaining دکھاتی ہے جب ایک ان پٹ متغیر فراہم کیا جاتا ہے۔ متعدد متغیرات کا استعمال کرتے وقت یہ بھی ممکن ہے۔ اس کے لیے، ہمیں صرف متغیرات کی ایک لغت بنانا ہو گی تاکہ ان کو مکمل طور پر داخل کیا جا سکے۔ آئیے دیکھتے ہیں کہ یہ کیسے کام کرتا ہے:

سے langchain اشارہ کرتا ہے درآمد PromptTemplate

سے langchain ایل ایم ایس درآمد اوپن اے آئی

درآمد تم

تم . تقریباً [ 'OPENAI_API_KEY' ] = 'sk- Your-API-KEY'

llm = OpenAI (درجہ حرارت = 0.9)

prompt = PromptTemplate(

input_variables=['
برانڈ '،' پروڈکٹ ']،

ٹیمپلیٹ='
اس کا نام کیا ہوگا۔ { برانڈ } جو فروخت کرتا ہے { پروڈکٹ } ?

)

langchain.chains سے LLMCchain درآمد کریں۔

سلسلہ = LLMCchain(llm=llm, prompt=prompt)

پرنٹ(chain.run({

'برانڈ': '
آرٹ کا سامان

'پروڈکٹ': '
رنگ '

}))

کوڈ پچھلی مثال کی طرح ہی جاتا ہے، سوائے اس کے کہ ہمیں پرامپٹ ٹیمپلیٹ کلاس میں دو متغیرات پاس کرنے ہوں گے۔ لہذا، input_variables کی ایک لغت بنائیں۔ لمبے بریکٹ ایک لغت کی نمائندگی کرتے ہیں۔ یہاں، ہمارے پاس دو متغیرات ہیں - 'برانڈ' اور 'پروڈکٹ' - جنہیں کوما سے الگ کیا گیا ہے۔ اب، ٹیمپلیٹ کا متن جو ہم فراہم کرتے ہیں وہ ہے '{Brand} کا نام کیا ہوگا جو {Product} بیچتا ہے؟' اس طرح، AI ماڈل ایک ایسے نام کی پیشین گوئی کرتا ہے جو ان دو ان پٹ متغیرات پر فوکس کرتا ہے۔

پھر، ہم ایک LLMchain بناتے ہیں جو صارف کے ان پٹ کو LLM کو جواب بھیجنے کے لیے پرامپٹ کے ساتھ فارمیٹ کرتا ہے۔ اس سلسلہ کو چلانے کے لیے، ہم chain.run() طریقہ استعمال کرتے ہیں اور صارف کے ان پٹ کے ساتھ متغیرات کی لغت کو بطور 'برانڈ': 'آرٹ سپلائیز' اور 'پروڈکٹ' کو بطور 'رنگ' پاس کرتے ہیں۔ پھر، ہم حاصل کردہ جواب کو ظاہر کرنے کے لیے اس طریقہ کو Python print() فنکشن میں منتقل کرتے ہیں۔

آؤٹ پٹ امیج پیش گوئی شدہ نتیجہ دکھاتا ہے:

نتیجہ

زنجیریں LangChain کے بلڈنگ بلاکس ہیں۔ یہ مضمون LangChain میں LLMchain استعمال کرنے کے تصور سے گزرتا ہے۔ ہم نے LLMchain کا ​​تعارف کرایا اور انہیں Python پروجیکٹ میں ملازمت دینے کی ضرورت کو دکھایا۔ اس کے بعد، ہم نے ایک عملی مثال پیش کی جو کہ PromptTemplate اور LLM کو جوڑ کر LLMchain کے نفاذ کو ظاہر کرتی ہے۔ آپ ان زنجیروں کو ایک ان پٹ متغیر کے ساتھ ساتھ متعدد صارف کے فراہم کردہ متغیرات کے ساتھ بنا سکتے ہیں۔ GPT ماڈل سے تیار کردہ جوابات بھی فراہم کیے گئے ہیں۔