LangChain இல் உரையாடல் டோக்கன் இடையகத்தை எவ்வாறு பயன்படுத்துவது?

Langchain Il Uraiyatal Tokkan Itaiyakattai Evvaru Payanpatuttuvatu



டேட்டாசெட்களைப் பயன்படுத்தி மாதிரிகளைப் பயிற்றுவிக்கும் இயந்திரக் கற்றல் அல்லது ஆழமான கற்றலைப் பயன்படுத்தி மாதிரிகளை உருவாக்க லாங்செயின் டெவலப்பர்களுக்கு உதவுகிறது. இந்த மாதிரிகள் தரவிலிருந்து வெவ்வேறு வடிவங்களைப் பெறலாம் அல்லது தகவலைப் பிரித்தெடுக்க தரவுத்தொகுப்பின் வடிவம் மற்றும் அதன் மொழியைப் புரிந்து கொள்ளலாம். பெரிய மொழி மாதிரிகள் அல்லது எல்எல்எம்களை லாங்செயின் கட்டமைப்பைப் பயன்படுத்தி கட்டமைக்கலாம் அல்லது வடிவமைக்கலாம், அவை இயற்கையான மொழிகளில் உரையைப் புரிந்துகொண்டு உருவாக்க முடியும்.

LangChain இல் உரையாடல் டோக்கன் இடையகத்தைப் பயன்படுத்தும் செயல்முறையை இந்த வழிகாட்டி விளக்கும்.

LangChain இல் உரையாடல் டோக்கன் இடையகத்தை எவ்வாறு பயன்படுத்துவது?

தி உரையாடல்TokenBufferMemory மிக சமீபத்திய செய்திகளை தாங்கல் நினைவகத்தில் சேமிக்க LangChain கட்டமைப்பிலிருந்து நூலகத்தை இறக்குமதி செய்யலாம். இடையகத்தில் சேமிக்கப்பட்ட செய்திகளின் எண்ணிக்கையைக் கட்டுப்படுத்த டோக்கன்களை உள்ளமைக்க முடியும் மற்றும் முந்தைய செய்திகள் தானாகவே பறிக்கப்படும்.







LangChain இல் உரையாடல் டோக்கன் இடையகத்தைப் பயன்படுத்துவதற்கான செயல்முறையை அறிய, பின்வரும் வழிகாட்டியைப் பயன்படுத்தவும்:



படி 1: தொகுதிகளை நிறுவவும்

முதலில், pip கட்டளையைப் பயன்படுத்தி தேவையான அனைத்து தொகுதிக்கூறுகளையும் கொண்ட LangChain கட்டமைப்பை நிறுவவும்:



pip நிறுவல் langchain





இப்போது, ​​OpenAI() முறையைப் பயன்படுத்தி LLMகள் மற்றும் சங்கிலிகளை உருவாக்க OpenAI தொகுதியை நிறுவவும்:

pip install openai



தொகுதிகளை நிறுவிய பின், OpenAI இன் API விசையைப் பயன்படுத்தவும் சூழலை அமைக்க OS மற்றும் getpass நூலகங்களைப் பயன்படுத்துதல்:

இறக்குமதி நீ

இறக்குமதி கெட்பாஸ்

நீ . தோராயமாக [ 'OPENAI_API_KEY' ] = கெட்பாஸ் . கெட்பாஸ் ( 'OpenAI API விசை:' )

படி 2: உரையாடல் டோக்கன் பஃபர் நினைவகத்தைப் பயன்படுத்துதல்

LLMகளை இறக்குமதி செய்த பின் OpenAI() முறையைப் பயன்படுத்தி உருவாக்கவும் உரையாடல்TokenBufferMemory LangChain கட்டமைப்பிலிருந்து நூலகம்:

இருந்து லாங்செயின். நினைவு இறக்குமதி உரையாடல்TokenBufferMemory

இருந்து லாங்செயின். llms இறக்குமதி OpenAI

llm = OpenAI ( )

டோக்கனை அமைக்க நினைவகத்தை உள்ளமைக்கவும், இது பழைய செய்திகளை பறித்து, இடையக நினைவகத்தில் சேமிக்கிறது. அதன் பிறகு, உரையாடலில் இருந்து செய்திகளைச் சேமித்து, அவற்றைச் சூழலாகப் பயன்படுத்துவதற்கான மிகச் சமீபத்திய செய்திகளைப் பெறுங்கள்:

நினைவு = உரையாடல்TokenBufferMemory ( llm = llm , அதிகபட்ச_டோக்கன்_வரம்பு = 10 )

நினைவு. சேமிப்பு_சூழல் ( { 'உள்ளீடு' : 'வணக்கம்' } , { 'வெளியீடு' : 'எப்படி இருக்கிறாய்' } )

நினைவு. சேமிப்பு_சூழல் ( { 'உள்ளீடு' : 'நான் நல்லா இருக்கேன் உனக்கு' } , { 'வெளியீடு' : 'அதிகமில்லை' } )

load_memory_variables() முறையைப் பயன்படுத்தி இடையக நினைவகத்தில் சேமிக்கப்பட்ட தரவைப் பெற நினைவகத்தை இயக்கவும்:

நினைவு. load_memory_variables ( { } )

படி 3: ஒரு சங்கிலியில் உரையாடல் டோக்கன் பஃபர் நினைவகத்தைப் பயன்படுத்துதல்

கட்டமைப்பதன் மூலம் சங்கிலிகளை உருவாக்கவும் உரையாடல் சங்கிலி() உரையாடல் டோக்கன் இடையக நினைவகத்தைப் பயன்படுத்த பல வாதங்களைக் கொண்ட முறை:

இருந்து லாங்செயின். சங்கிலிகள் இறக்குமதி உரையாடல் சங்கிலி

உரையாடல்_சுருக்கத்துடன் = உரையாடல் சங்கிலி (
llm = llm ,
நினைவு = உரையாடல்TokenBufferMemory ( llm = OpenAI ( ) , அதிகபட்ச_டோக்கன்_வரம்பு = 60 ) ,
வாய்மொழி = உண்மை ,
)
உரையாடல்_சுருக்கத்துடன். கணிக்க ( உள்ளீடு = 'ஹாய், என்னாச்சு?' )

இப்போது, ​​இயல்பான மொழியில் எழுதப்பட்ட அறிவுறுத்தல்களைப் பயன்படுத்தி கேள்விகளைக் கேட்டு உரையாடலைத் தொடரவும்:

உரையாடல்_சுருக்கத்துடன். கணிக்க ( உள்ளீடு = 'NLP திட்டத்தில் வேலை செய்கிறேன்' )

டோக்கன்களின் எண்ணிக்கையைப் பயன்படுத்தி இடையக நினைவகத்தில் சேமிக்கப்பட்ட தரவிலிருந்து வெளியீட்டைப் பெறவும்:

உரையாடல்_சுருக்கத்துடன். கணிக்க ( உள்ளீடு = 'எல்எல்எம்களை வடிவமைப்பதில் வேலை செய்கிறேன்' )

முந்தைய செய்திகள் தொடர்ந்து சுத்தப்படுத்தப்படுவதால், இடையகமானது ஒவ்வொரு புதிய உள்ளீட்டிலும் புதுப்பித்துக்கொண்டே இருக்கும்:

உரையாடல்_சுருக்கத்துடன். கணிக்க (

உள்ளீடு = 'எல்எல்எம் LangChain ஐப் பயன்படுத்துகிறது! அதைப் பற்றி நீங்கள் கேள்விப்பட்டிருக்கிறீர்களா'

)

LangChain இல் உரையாடல் டோக்கன் இடையகத்தைப் பயன்படுத்துவது பற்றியது.

முடிவுரை

LangChain இல் உரையாடல் டோக்கன் இடையகத்தைப் பயன்படுத்த, OpenAI கணக்கிலிருந்து API விசையைப் பயன்படுத்தி சூழலை அமைக்க தொகுதிகளை நிறுவவும். அதன் பிறகு, உரையாடலை இடையகத்தில் சேமிக்க LangChain தொகுதியைப் பயன்படுத்தி ConversationTokenBufferMemory நூலகத்தை இறக்குமதி செய்யவும். அரட்டையில் உள்ள ஒவ்வொரு புதிய செய்தியுடனும் பழைய செய்திகளை ஃப்ளஷ் செய்ய இடையக நினைவகம் ஒரு சங்கிலியில் பயன்படுத்தப்படலாம். LangChain இல் உரையாடல் டோக்கன் இடையக நினைவகத்தைப் பயன்படுத்துவது பற்றி இந்த இடுகை விரிவாகக் கூறப்பட்டுள்ளது.