LangChain میں 'asyncio' لائبریری کا استعمال کیسے کریں؟

Langchain My Asyncio Laybryry Ka Ast Mal Kys Kry



LangChain مصنوعی ذہانت کا استعمال کرتے ہوئے زبان کے بڑے ماڈلز بنانے کا ایک فریم ورک ہے تاکہ یہ متن تیار کر سکے اور انسانوں کے ساتھ تعامل کر سکے۔ asyncio وہ لائبریری ہے جسے ایک ہی کمانڈ یا استفسار کا استعمال کرتے ہوئے LLM جیسے ماڈل کو متعدد بار کال کرنے کے لیے استعمال کیا جا سکتا ہے۔ یہ ہمارے LLM ماڈل کے کام کرنے کی رفتار کو بھی فروغ دیتا ہے تاکہ متن کو موثر طریقے سے بنایا جا سکے۔

یہ مضمون ظاہر کرتا ہے کہ LangChain میں 'asyncio' لائبریری کو کیسے استعمال کیا جائے۔







LangChain میں 'asyncio' لائبریری کا استعمال/عمل کیسے کریں؟

Async API کو LLMs کے لیے معاونت کے طور پر استعمال کیا جا سکتا ہے لہذا LangChain میں asyncio لائبریری استعمال کرنے کے لیے، بس اس گائیڈ پر عمل کریں:



شرطیں انسٹال کریں۔



LLMs کو بیک وقت کال کرنے کے لیے LangChain میں asyncio لائبریری کا استعمال شروع کرنے کے لیے LangChain ماڈیول انسٹال کریں:





pip انسٹال کریں langchain



OpenAI ماڈیول کو OpenAIEmbeddings کا استعمال کرتے ہوئے LLMs بنانے کے لیے بھی ضروری ہے:

pip انسٹال کریں اوپنائی

تنصیبات کے بعد، صرف مندرجہ ذیل کوڈ کا استعمال کرتے ہوئے OpenAI API کلید کو ترتیب دیں:

ہمیں درآمد کریں
گیٹ پاس درآمد کریں۔

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'اوپن اے آئی API کلید:' )

LLM بنانے کے لیے asyncio کا استعمال

asyncio لائبریری کو LLMs کی حمایت کے لیے استعمال کیا جا سکتا ہے کیونکہ درج ذیل کوڈ اسے LangChain میں استعمال کرتا ہے۔

درآمد وقت
asyncio درآمد کریں۔
#اسے استعمال کرنے کے لیے LangChain سے asyncio لائبریریوں کو درآمد کرنا
langchain.llms سے OpenAI درآمد کریں۔

# سیریل جنریشن کا ٹائم اسٹیمپ حاصل کرنے کے لیے فنکشن کی وضاحت کریں۔
def generate_serially ( ) :
llm = اوپن اے آئی ( درجہ حرارت = 0.9 )
کے لیے _ میں رینج ( 5 ) :
resp = llm.generate ( [ 'تم کیا کر رہے ہو؟' ] )
پرنٹ کریں ( نسلیں [ 0 ] [ 0 ] متن )

# سنکرونس جنریشن کا ٹائم اسٹیمپ حاصل کرنے کے لیے فنکشن کی وضاحت کریں۔
async def async_generate ( ایل ایل ایم ) :
resp = llm.agenerate کا انتظار کریں۔ ( [ 'تم کیا کر رہے ہو؟' ] )
پرنٹ کریں ( نسلیں [ 0 ] [ 0 ] متن )

# بیک وقت ڈیٹا جنریٹ کرنے کا ٹائم اسٹیمپ حاصل کرنے کے لیے فنکشن کی وضاحت کریں۔
async def generate_concurrently ( ) :
llm = اوپن اے آئی ( درجہ حرارت = 0.9 )
کام = [ async_generate ( ایل ایل ایم ) کے لیے _ میں رینج ( 10 ) ]
asyncio.gather کا انتظار کریں۔ ( * کام )

# کنکرنٹ آؤٹ پٹ حاصل کرنے کے لیے asyncio کا استعمال کرتے ہوئے نتیجے کے آؤٹ پٹ کو ترتیب دیں۔
s = time.perf_counter ( )
generate_concurrently کا انتظار کریں۔ ( )
گزر گیا = time.perf_counter ( ) --.s
پرنٹ کریں ( '\033[1m' + f 'سیکنڈز کو { گزرے ہوئے: 0.2f} سیکنڈ میں انجام دیا گیا۔' + '\033[0m' )

# سیریل آؤٹ پٹ حاصل کرنے کے لیے نتیجہ خیز آؤٹ پٹ کے لیے ٹائم اسٹیمپ کو ترتیب دیں۔
s = time.perf_counter ( )
generate_serially ( )
گزر گیا = time.perf_counter ( ) --.s
پرنٹ کریں ( '\033[1m' + f 'سیریل کو { گزرے ہوئے:0.2f} سیکنڈ میں انجام دیا گیا۔' + '\033[0m' )

مندرجہ بالا کوڈ asyncio لائبریری کا استعمال کرتا ہے تاکہ دو الگ الگ فنکشنز کا استعمال کرتے ہوئے ٹیکسٹ تیار کرنے کے وقت کی پیمائش کی جا سکے جیسے generate_serially() اور generate_concurrently() :

آؤٹ پٹ

مندرجہ ذیل اسکرین شاٹ سے ظاہر ہوتا ہے کہ دونوں فنکشنز کے لیے وقت کی پیچیدگی اور کنکرنٹ ٹیکسٹ جنریشن کی ٹائم پیچیدگی سیریل ٹیکسٹ جنریشن سے بہتر ہے:

یہ سب LangChain میں LLMs بنانے کے لیے 'asyncio' لائبریری کے استعمال کے بارے میں ہے۔

نتیجہ

LangChain میں asyncio لائبریری کو استعمال کرنے کے لیے، صرف LangChain اور OpenAI ماڈیولز انسٹال کریں تاکہ عمل شروع کیا جا سکے۔ Async API پچھلی بات چیت سے سیکھنے کے لیے چیٹ بوٹس بنانے کے لیے LLM ماڈل بناتے وقت مددگار ثابت ہو سکتا ہے۔ اس گائیڈ نے LangChain فریم ورک کا استعمال کرتے ہوئے LLMs کو سپورٹ کرنے کے لیے asyncio لائبریری کے استعمال کے عمل کی وضاحت کی ہے۔