網(wǎng)站的圖片怎么更換呂邵蒼設(shè)計(jì)公司網(wǎng)站
鶴壁市浩天電氣有限公司
2026/01/22 10:36:11
網(wǎng)站的圖片怎么更換,呂邵蒼設(shè)計(jì)公司網(wǎng)站,山東省住房和城鄉(xiāng)建設(shè)挺網(wǎng)站,沈陽(yáng)網(wǎng)站優(yōu)化怎么做輸出解析器 #xff1a;負(fù)責(zé)獲取模型的輸出并將其轉(zhuǎn)換為更適合下游任務(wù)的格式。 在使用大型語(yǔ)言模型生成結(jié)構(gòu)化數(shù)據(jù)或規(guī)范化聊天模型和大型語(yǔ)言模型的輸出時(shí)非常有用。結(jié)構(gòu)化輸出 #xff1a;對(duì)于某些用例#xff0c;限制大型語(yǔ)言模型的輸出為特定格式或結(jié)構(gòu)#xff0c;例如…輸出解析器負(fù)責(zé)獲取模型的輸出并將其轉(zhuǎn)換為更適合下游任務(wù)的格式。 在使用大型語(yǔ)言模型生成結(jié)構(gòu)化數(shù)據(jù)或規(guī)范化聊天模型和大型語(yǔ)言模型的輸出時(shí)非常有用。結(jié)構(gòu)化輸出 對(duì)于某些用例限制大型語(yǔ)言模型的輸出為特定格式或結(jié)構(gòu)例如如果輸出要存儲(chǔ)在關(guān)系數(shù)據(jù)庫(kù)中如果模型生成遵循定義的模式或格式的輸出將會(huì)容易得多。最常見(jiàn)的輸出格式將是JSON。①.with_structured_output()一些LangChain聊天模型支持.with_structured_output()方法。 該方法只需要一個(gè)模式作為輸入并返回一個(gè)字典或Pydantic對(duì)象。 通常這個(gè)方法僅在支持下面描述的更高級(jí)方法的模型上存在 并將在內(nèi)部使用其中一種。它負(fù)責(zé)導(dǎo)入合適的輸出解析器并 將模式格式化為模型所需的正確格式。ps:這個(gè)方法目前不支持國(guó)內(nèi)的deepseek模型以及Qwen的模型這里用的是智譜的模型。from typing import Optional from langchain_core.prompts import ChatPromptTemplate from pydantic import BaseModel,Field from langchain_demo.my_llm import llm class Joke(BaseModel): 搞笑段子的結(jié)構(gòu)類 start:strField(decription笑話的開(kāi)頭部分) punchline:strField(decription笑話的包袱/笑點(diǎn)) rating:Optional[int]Field(decription笑話的有趣程序評(píng)分范圍1到10) prompt_templateChatPromptTemplate.from_template( 幫我生成一個(gè)關(guān)于{topic}的笑話 ) chainprompt_template|llm.with_structured_output(Joke) respchain.invoke({topic:籃球}) print(resp) print(type(resp)) print(resp.start) 輸出結(jié)果 start為什么籃球總是很累 punchline因?yàn)樗偸窃谕痘@ rating6 class __main__.Joke 為什么籃球總是很累②.SimpleJsonOutputParser()限制模型的輸出始終為某種有效的 JSON。from langchain_classic.chains.summarize.map_reduce_prompt import prompt_template from langchain_core.output_parsers import SimpleJsonOutputParser from langchain_core.prompts import ChatPromptTemplate from langchain_demo.my_llm import llm prompt_templateChatPromptTemplate.from_messages([ (system, 你的輸出必須始終包含answer和followup_question鍵的JSON對(duì)象。 其中answer代表對(duì)用戶的回答。 followup_question代表用戶可能提出的后續(xù)問(wèn)題。 ), (user,{question}) ]) chainprompt_template|llm|SimpleJsonOutputParser() respchain.invoke({question:請(qǐng)簡(jiǎn)要回答下什么是深度學(xué)習(xí)}) print(resp) print(type(resp)) 輸出 --{answer: 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域它使用多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)模擬人腦的學(xué)習(xí)過(guò)程。通過(guò)大量數(shù)據(jù)訓(xùn)練這些網(wǎng)絡(luò)能夠自動(dòng)學(xué)習(xí)數(shù)據(jù)的復(fù)雜特征和表示無(wú)需人工設(shè)計(jì)特征。深度學(xué)習(xí)在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域取得了突破性進(jìn)展。, followup_question: 深度學(xué)習(xí)和傳統(tǒng)機(jī)器學(xué)習(xí)有什么區(qū)別} --class dict③.工具調(diào)用它的工作原理是首先將所需的模式直接或通過(guò) LangChain 工具 綁定到 聊天模型使用.bind_tools()方法。然后模型將生成一個(gè)包含與所需形狀匹配的 args 的 tool_calls 字段的 AIMessage。from pydantic import BaseModel,Field from langchain_demo.my_llm import llm class ResponseFormatter(BaseModel): 用此工具來(lái)結(jié)構(gòu)化你的用戶響應(yīng) answer:strField(decription對(duì)用戶問(wèn)題的回答) followup_question:strField(description用戶所提出的問(wèn)題) respllm.bind_tools([ResponseFormatter]).invoke(請(qǐng)簡(jiǎn)要介紹下深度學(xué)習(xí)) print(resp) print(resp.tool_calls[0][args]) 輸出結(jié)構(gòu) --content目前我無(wú)法為您提供關(guān)于深度學(xué)習(xí)的詳細(xì)介紹因?yàn)橄嚓P(guān)的知識(shí)庫(kù)查詢工具暫時(shí)不可用。
不過(guò)我可以告訴您深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支它使用多層神經(jīng)網(wǎng)絡(luò)來(lái)模擬人腦的學(xué)習(xí)過(guò)程。深度學(xué)習(xí)在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域取得了顯著成就。
如果您想了解更詳細(xì)的信息建議您
1. 查閱相關(guān)的學(xué)術(shù)資料或教科書(shū)
2. 訪問(wèn)專業(yè)的AI和機(jī)器學(xué)習(xí)網(wǎng)站
3. 參考在線課程平臺(tái)上的深度學(xué)習(xí)課程
您是否有其他我可以幫助您的問(wèn)題 additional_kwargs{refusal: None} response_metadata{token_usage: {completion_tokens: 269, prompt_tokens: 341, total_tokens: 610, completion_tokens_details: None, prompt_tokens_details: {audio_tokens: None, cached_tokens: 320}, prompt_cache_hit_tokens: 320, prompt_cache_miss_tokens: 21}, model_provider: openai, model_name: deepseek-chat, system_fingerprint: fp_eaab8d114b_prod0820_fp8_kvcache, id: ef6552b8-9222-42cb-8978-33f8704124f9, finish_reason: tool_calls, logprobs: None} idlc_run--019b5515-7fcb-7ab0-9978-145e91ce52ab-0 tool_calls[{name: ResponseFormatter, args: {answer: 目前我無(wú)法為您提供關(guān)于深度學(xué)習(xí)的詳細(xì)介紹因?yàn)橄嚓P(guān)的知識(shí)庫(kù)查詢工具暫時(shí)不可用。
不過(guò)我可以告訴您深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支它使用多層神經(jīng)網(wǎng)絡(luò)來(lái)模擬人腦的學(xué)習(xí)過(guò)程。深度學(xué)習(xí)在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域取得了顯著成就。
如果您想了解更詳細(xì)的信息建議您
1. 查閱相關(guān)的學(xué)術(shù)資料或教科書(shū)
2. 訪問(wèn)專業(yè)的AI和機(jī)器學(xué)習(xí)網(wǎng)站
3. 參考在線課程平臺(tái)上的深度學(xué)習(xí)課程, followup_question: 請(qǐng)簡(jiǎn)要介紹下深度學(xué)習(xí)}, id: call_00_ELKuV91YhlCSTY2KQxtEotqT, type: tool_call}] usage_metadata{input_tokens: 341, output_tokens: 269, total_tokens: 610, input_token_details: {cache_read: 320}, output_token_details: {}} --{answer: 目前我無(wú)法為您提供關(guān)于深度學(xué)習(xí)的詳細(xì)介紹因?yàn)橄嚓P(guān)的知識(shí)庫(kù)查詢工具暫時(shí)不可用。
不過(guò)我可以告訴您深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支它使用多層神經(jīng)網(wǎng)絡(luò)來(lái)模擬人腦的學(xué)習(xí)過(guò)程。深度學(xué)習(xí)在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域取得了顯著成就。
如果您想了解更詳細(xì)的信息建議您
1. 查閱相關(guān)的學(xué)術(shù)資料或教科書(shū)
2. 訪問(wèn)專業(yè)的AI和機(jī)器學(xué)習(xí)網(wǎng)站
3. 參考在線課程平臺(tái)上的深度學(xué)習(xí)課程, followup_question: 請(qǐng)簡(jiǎn)要介紹下深度學(xué)習(xí)}