سرچ چین کے ساتھ خود سے پوچھنا کیسے لاگو کیا جائے؟

Srch Chyn K Sat Khwd S Pwch Na Kys Lagw Kya Jay



LangChain زبان کے ماڈلز اور چیٹ بوٹس بنانے کا ماڈیول ہے جو فطری زبان میں متن کو سمجھ اور نکال سکتا ہے۔ قدرتی زبانیں انسان آسانی سے سمجھ پاتی ہیں لیکن مشینوں کو بار بار ڈیٹا کے ذریعے سیکھنے کی ضرورت ہوتی ہے۔ قدرتی زبانوں میں ڈیٹا/دستاویزات کو ماڈل کو تربیت دینے کے لیے استعمال کیا جا سکتا ہے اور پھر ماڈل کی کارکردگی کو جانچنے کے لیے ڈیٹا سے اشارے طلب کیے جا سکتے ہیں۔

فوری آؤٹ لائن

یہ پوسٹ درج ذیل کو ظاہر کرے گی:







سرچ چین کے ساتھ خود سے پوچھنا کیسے لاگو کریں۔



نتیجہ



سرچ چین کے ساتھ خود سے پوچھنا کیسے لاگو کیا جائے؟

خود سے پوچھنا سلسلہ بندی کے عمل کو بہتر بنانے کا عمل ہے کیونکہ یہ کمانڈز کو اچھی طرح سمجھتا ہے۔ زنجیریں ڈیٹا سیٹ سے تمام اہم شرائط کے بارے میں ڈیٹا نکال کر سوال کو سمجھتی ہیں۔ ایک بار جب ماڈل تربیت یافتہ ہو جاتا ہے اور استفسار کو سمجھ لیتا ہے، تو یہ صارف کے پوچھے گئے سوال کا جواب تیار کرتا ہے۔





LangChain میں سرچ چینز کے ساتھ سیلف اسک کو لاگو کرنے کے عمل کو جاننے کے لیے، بس درج ذیل گائیڈ کو دیکھیں:

مرحلہ 1: فریم ورک انسٹال کرنا

سب سے پہلے، درج ذیل کوڈ کا استعمال کرتے ہوئے LangChain عمل کو انسٹال کرکے عمل شروع کریں اور اس عمل کے لیے تمام انحصار حاصل کریں:



pip انسٹال langchain

LangChain انسٹال کرنے کے بعد، انسٹال کریں ' گوگل سرچ کے نتائج اوپن اے آئی ماحول کا استعمال کرتے ہوئے گوگل سے تلاش کے نتائج حاصل کرنے کے لیے:

pip install openai google-search-results

مرحلہ 2: ماحولیات کی تعمیر

ایک بار جب ماڈیولز اور فریم ورک انسٹال ہو جائیں تو ماحول کو ترتیب دیں۔ اوپن اے آئی اور سرپاپی مندرجہ ذیل کوڈ کا استعمال کرتے ہوئے اپنے APIs کا استعمال کرتے ہوئے. OS اور getpass لائبریریوں کو درآمد کریں جو ان کے متعلقہ اکاؤنٹس سے API کیز داخل کرنے کے لیے استعمال کی جا سکتی ہیں:

درآمد تم
درآمد گیٹ پاس

تم . تقریباً [ 'OPENAI_API_KEY' ] = گیٹ پاس . گیٹ پاس ( 'اوپن اے آئی API کلید:' )
تم . تقریباً [ 'SERPAPI_API_KEY' ] = گیٹ پاس . گیٹ پاس ( 'Serpapi API کلید:' )

مرحلہ 3: لائبریریاں درآمد کرنا

ماحول کو ترتیب دینے کے بعد، صرف LangChain کے انحصار سے مطلوبہ لائبریریوں کو درآمد کریں جیسے یوٹیلیٹیز، ایجنٹس، llm، اور دیگر:

سے langchain ایل ایم ایس درآمد اوپن اے آئی

سے langchain افادیت درآمد SerpAPIWrapper

سے langchain ایجنٹس . output_parsers درآمد SelfAskOutputParser

سے langchain ایجنٹس . format_scratchpad درآمد format_log_to_str

سے langchain درآمد مرکز

سے langchain ایجنٹس درآمد ابتدائیہ_ایجنٹ , ٹول

سے langchain ایجنٹس درآمد ایجنٹ کی قسم

مرحلہ 4: زبان کے ماڈلز بنانا

مندرجہ بالا لائبریریوں کو حاصل کرنا پورے عمل میں ضروری ہے کیونکہ OpenAI() زبان کے ماڈل کو ترتیب دینے کے لیے استعمال کیا جاتا ہے۔ سرچ متغیر کو ترتیب دینے کے لیے SerpAPIWrapper() طریقہ استعمال کریں اور تمام کاموں کو انجام دینے کے لیے ایجنٹ کے لیے درکار ٹولز سیٹ کریں:

ایل ایل ایم = اوپن اے آئی ( درجہ حرارت = 0 )
تلاش کریں = SerpAPIWrapper ( )
اوزار = [
ٹول (
نام = 'درمیانی جواب' ,
func = تلاش کریں رن ,
تفصیل = 'جب آپ کو تلاش کے ساتھ پوچھنے کی ضرورت ہو تو مفید ہے' ,
)
]

مرحلہ 5: LangChain اظہار کی زبان کا استعمال

ماڈل کو پرامپٹ متغیر میں لوڈ کرکے LangChain Expression Language (LCEL) کا استعمال کرتے ہوئے ایجنٹ کو ترتیب دینے کے ساتھ شروع کرنا:

فوری طور پر = مرکز کھینچنا ( 'hwchase17/خود سے پوچھنا-تلاش' )

ایک اور متغیر کی وضاحت کریں جو متن کی تخلیق کو روکنے اور جوابات کی لمبائی کو کنٹرول کرنے کے لیے عمل میں لایا جا سکتا ہے:

llm_with_stop = ایل ایل ایم باندھنا ( روکو = [ ' \n درمیانی جواب:' ] )

اب، Lambda کا استعمال کرتے ہوئے ایجنٹوں کو ترتیب دیں جو کہ سوالات کے جوابات پیدا کرنے کے لیے ایونٹ سے چلنے والا سرور لیس پلیٹ فارم ہے۔ اس کے علاوہ، پہلے کنفیگر کیے گئے اجزاء کا استعمال کرتے ہوئے بہتر نتائج حاصل کرنے کے لیے ماڈل کی تربیت اور جانچ کے لیے درکار اقدامات کو ترتیب دیں۔

ایجنٹ = {
'ان پٹ' : لیمبڈا x: x [ 'ان پٹ' ] ,
'ایجنٹ_اسکریچ پیڈ' : لیمبڈا x: format_log_to_str (
ایکس [ 'درمیانی_اسٹیپس' ] ,
مشاہدہ_سابقہ = ' \n درمیانی جواب: ' ,
llm_prefix = '' ,
) ,
} | پرامپٹ | llm_with_stop | SelfAskOutputParser ( )

مرحلہ 6: ایجنٹ ایگزیکٹو کو ترتیب دینا

طریقہ کار کی جانچ کرنے سے پہلے، ایجنٹ کو جوابدہ بنانے کے لیے صرف LangChain سے AgentExecutor لائبریری درآمد کریں:

سے langchain ایجنٹس درآمد AgentExecutor

Agent_executor () طریقہ کو کال کرکے اور اجزاء کو اس کے دلائل کے طور پر استعمال کرکے agent_executor متغیر کی وضاحت کریں:

agent_executor = AgentExecutor ( ایجنٹ = ایجنٹ , اوزار = اوزار , لفظی = سچ ہے۔ )

مرحلہ 7: ایجنٹ کو چلانا

ایک بار جب ایجنٹ ایگزیکیوٹر کنفیگر ہو جائے تو، صرف ان پٹ متغیر میں سوال/پرامپٹ فراہم کر کے اس کی جانچ کریں:

agent_executor پکارنا ( { 'ان پٹ' : 'مردوں کا یو ایس اوپن چیمپئن کون ہے' } )

مندرجہ بالا کوڈ پر عمل کرنے سے آؤٹ پٹ میں یو ایس اوپن چیمپیئن کے نام کے ساتھ جواب دیا گیا ہے یعنی ڈومینک تھیم:

مرحلہ 8: خود سے پوچھیں ایجنٹ کا استعمال

ایجنٹ سے جواب ملنے کے بعد، استعمال کریں۔ SELF_ASK_WITH_SEARCH رن() طریقہ میں استفسار کے ساتھ ایجنٹ:

خود_پوچھیں_کے ساتھ_تلاش = ابتدائیہ_ایجنٹ (
اوزار , ایل ایل ایم , ایجنٹ = ایجنٹ کی قسم۔ SELF_ASK_WITH_SEARCH ، لفظی = سچ ہے۔
)
خود_پوچھیں_کے ساتھ_تلاش رن (
'یو ایس اوپن ورلڈ چیمپیئن ڈومینک تھیم کا آبائی شہر کون سا ہے'
)

مندرجہ ذیل اسکرین شاٹ ظاہر کرتا ہے کہ خود سے پوچھنے والا ایجنٹ ڈیٹاسیٹ سے ہر اہم اصطلاح کے بارے میں معلومات نکالتا ہے۔ ایک بار جب یہ استفسار کے بارے میں تمام معلومات اکٹھا کر لیتا ہے اور سوالات کو سمجھ لیتا ہے، تو یہ آسانی سے جواب تیار کرتا ہے۔ ایجنٹ کے ذریعہ خود پوچھے گئے سوالات یہ ہیں:

  • ڈومینک تھیم کون ہے؟
  • ڈومینک تھیم کا آبائی شہر کیا ہے؟

ان سوالوں کے جوابات حاصل کرنے کے بعد، ایجنٹ نے اصل سوال کا جواب تیار کیا ہے جو کہ ' وینر نیوسٹاڈٹ، آسٹریا ”:

یہ سب کچھ LangChain فریم ورک کا استعمال کرتے ہوئے سرچ چین کے ساتھ سیلف اسک کو نافذ کرنے کے عمل کے بارے میں ہے۔

نتیجہ

LangChain میں تلاش کے ساتھ سیلف اسک کو لاگو کرنے کے لیے، ایجنٹ سے نتائج حاصل کرنے کے لیے صرف مطلوبہ ماڈیولز جیسے google-search-results انسٹال کریں۔ اس کے بعد، عمل شروع کرنے کے لیے OpenAI اور SerpAPi اکاؤنٹس سے API کیز کا استعمال کرتے ہوئے ماحول کو ترتیب دیں۔ ایجنٹ کو کنفیگر کریں اور AgentExecutor() طریقہ استعمال کرکے اسے جانچنے کے لیے سیلفی اسک ماڈل کے ساتھ ماڈل بنائیں۔