97色伦色在线综合视频,无玛专区,18videosex性欧美黑色,日韩黄色电影免费在线观看,国产精品伦理一区二区三区,在线视频欧美日韩,亚洲欧美在线中文字幕不卡

北京建設(shè)網(wǎng)站公司哪家好家里做網(wǎng)站買什么服務(wù)器好

鶴壁市浩天電氣有限公司 2026/01/24 14:02:15
北京建設(shè)網(wǎng)站公司哪家好,家里做網(wǎng)站買什么服務(wù)器好,網(wǎng)站建設(shè)詢價(jià)采購,商丘網(wǎng)站優(yōu)化公司簡介 本文詳細(xì)介紹了RAG系統(tǒng)的高級(jí)優(yōu)化技術(shù)#xff0c;涵蓋索引優(yōu)化#xff08;數(shù)據(jù)預(yù)處理和分塊策略#xff09;、預(yù)檢索優(yōu)化#xff08;查詢轉(zhuǎn)換#xff09;、檢索優(yōu)化#xff08;元數(shù)據(jù)過濾、混合搜索等#xff09;和后檢索優(yōu)化#xff08;重新排序、上下文處理、提…簡介本文詳細(xì)介紹了RAG系統(tǒng)的高級(jí)優(yōu)化技術(shù)涵蓋索引優(yōu)化數(shù)據(jù)預(yù)處理和分塊策略、預(yù)檢索優(yōu)化查詢轉(zhuǎn)換、檢索優(yōu)化元數(shù)據(jù)過濾、混合搜索等和后檢索優(yōu)化重新排序、上下文處理、提示工程等四大階段。通過實(shí)施這些技術(shù)可顯著提高RAG系統(tǒng)的檢索準(zhǔn)確性和生成響應(yīng)質(zhì)量減少大模型幻覺為程序員提供構(gòu)建高性能RAG應(yīng)用的全面指導(dǎo)。RAG 為 LLM 提供來自外部知識(shí)源的信息以幫助減少幻覺并提高生成響應(yīng)的事實(shí)準(zhǔn)確性。一個(gè)簡單的 RAG 流水線由四個(gè)組件組成嵌入模型、向量數(shù)據(jù)庫、提示模板和 LLM。在推理時(shí)它會(huì)嵌入用戶查詢以從向量數(shù)據(jù)庫中檢索相關(guān)文檔信息塊并將其填充到 LLM 的提示中以生成答案。雖然這種簡單的方法很簡單但它有很多局限性而且往往會(huì)導(dǎo)致低質(zhì)量的響應(yīng)。本文討論了我們可以應(yīng)用的各種高級(jí)技術(shù)來提高 RAG 系統(tǒng)的性能。這些技術(shù)可以應(yīng)用于 RAG 流水線的各個(gè)階段如下所示索引優(yōu)化索引優(yōu)化技術(shù)通過以更有條理、更易于搜索的方式構(gòu)建外部數(shù)據(jù)來提高檢索準(zhǔn)確性。這些技術(shù)可以應(yīng)用于 RAG 流水線中的數(shù)據(jù)預(yù)處理和分塊階段確保有效檢索相關(guān)信息。數(shù)據(jù)預(yù)處理Data Pre-Processing數(shù)據(jù)預(yù)處理是任何 RAG 系統(tǒng)成功的基礎(chǔ)因?yàn)樘幚砗髷?shù)據(jù)的質(zhì)量直接影響整體性能。通過精心將原始數(shù)據(jù)轉(zhuǎn)換為適合 LLM 的結(jié)構(gòu)化格式我們可以在考慮更復(fù)雜的優(yōu)化之前顯著提高系統(tǒng)的效率。雖然有幾種常見的預(yù)處理技術(shù)可用但最佳方法和順序應(yīng)根據(jù)我們的特定用例和要求進(jìn)行量身定制。該過程通常從數(shù)據(jù)采集和集成開始也就是從多個(gè)來源收集各種文檔類型并將其整合到“知識(shí)庫”中。數(shù)據(jù)提取和解析Data Extraction Parsing在原始數(shù)據(jù)上進(jìn)行數(shù)據(jù)提取和解析以便為下游任務(wù)準(zhǔn)確處理數(shù)據(jù)。對(duì)于 Markdown、Word 文檔和純文本等基于文本的格式提取技術(shù)側(cè)重于在捕獲相關(guān)內(nèi)容的同時(shí)保留結(jié)構(gòu)。包含基于圖像的文本/表格的掃描文檔、圖像和 PDF 需要 OCROptical Character Recognition光學(xué)字符識(shí)別技術(shù)才能轉(zhuǎn)換為 LLM 可用的格式。然而多模態(tài)檢索模型如 ColPali 和 ColQwen的最新進(jìn)展徹底改變了這一過程。這些模型可以直接嵌入文檔圖像可能會(huì)使傳統(tǒng)的 OCR 過時(shí)。Web 內(nèi)容通常涉及 HTML 解析利用 DOM 遍歷來提取結(jié)構(gòu)化數(shù)據(jù)而電子表格則需要專門的解析來處理單元格關(guān)系。元數(shù)據(jù)提取在文件類型中也至關(guān)重要它會(huì)提取作者、時(shí)間戳和其他文檔屬性等關(guān)鍵詳細(xì)信息后面的元數(shù)據(jù)過濾部分會(huì)詳細(xì)說一下。數(shù)據(jù)清洗和降噪Data Cleaning Noise Reduction數(shù)據(jù)清洗和降噪包括刪除不相關(guān)的信息例如頁眉、頁腳或樣板文本、糾正不一致之處以及處理缺失值同時(shí)保持提取數(shù)據(jù)的結(jié)構(gòu)完整性。數(shù)據(jù)轉(zhuǎn)換Data Transformation無論原始文件類型如何這一步將所有提取和處理的內(nèi)容轉(zhuǎn)換為標(biāo)準(zhǔn)化架構(gòu)。正是在此階段發(fā)生文檔分區(qū)不要與分塊混淆將文檔內(nèi)容分成邏輯單元或元素例如段落、部分、表格。分塊技巧Chunking Strategies分塊將大型文檔劃分為較小的、語義上有意義的片段。此過程通過平衡上下文保留和可管理的塊大小來優(yōu)化檢索。RAG 中存在各種有效分塊的常用技術(shù)下面將討論其中一些技術(shù)固定大小分塊Fixed-size chunking是一種簡單的技術(shù)無論內(nèi)容結(jié)構(gòu)如何它都會(huì)將文本拆分成預(yù)定大小的塊。雖然這種方法成本低廉但缺乏上下文感知能力??梢允褂弥丿B塊來改進(jìn)這一點(diǎn)讓相鄰的塊共享一些內(nèi)容。遞歸分塊Recursive chunking提供了更大的靈活性它首先使用主分隔符如段落拆分文本然后如果分塊仍然太大則應(yīng)用次要分隔符如句子。此技術(shù)尊重文檔的結(jié)構(gòu)并能很好地適應(yīng)各種用例。基于文檔Document-based chunking的分塊根據(jù)文檔中的自然劃分例如標(biāo)題或章節(jié)創(chuàng)建分塊。它對(duì)于 HTML、Markdown 或代碼文件等結(jié)構(gòu)化數(shù)據(jù)特別有效但當(dāng)數(shù)據(jù)缺乏明確的結(jié)構(gòu)元素時(shí)用處不大。語義分塊Semantic chunking將文本劃分為有意義的單元然后將其矢量化。然后根據(jù)嵌入之間的余弦距離將這些單元組合成塊每當(dāng)檢測(cè)到顯著的上下文變化時(shí)就會(huì)形成一個(gè)新的塊。這種方法平衡了語義連貫性和塊大小?;?LLM 的分塊LLM-based chunking是一種先進(jìn)的技術(shù)它使用 LLM 通過處理文本并創(chuàng)建語義上獨(dú)立的句子或命題來生成塊。雖然它非常準(zhǔn)確但它也是計(jì)算要求最高的一種方法。上述每種技術(shù)都有其優(yōu)勢(shì)具體選擇取決于 RAG 系統(tǒng)的具體要求和所處理文檔的性質(zhì)。新方法不斷涌現(xiàn)例如后期分塊late chunking它先通過長上下文嵌入模型處理文本然后再將其拆分為塊以更好地保留文檔范圍內(nèi)的上下文。一直在更新更多的大模型學(xué)習(xí)和面試資料已經(jīng)上傳帶到CSDN的官方了有需要的朋友可以掃描下方二維碼免費(fèi)領(lǐng)取【保證100%免費(fèi)】預(yù)檢索優(yōu)化索引優(yōu)化技術(shù)通過以更有條理、更易于搜索的方式構(gòu)建外部數(shù)據(jù)來提高檢索準(zhǔn)確性。這些技術(shù)可應(yīng)用于 RAG 流水線中的數(shù)據(jù)預(yù)處理和分塊階段確保有效檢索相關(guān)信息。查詢轉(zhuǎn)換Query Transformation直接使用用戶查詢作為搜索查詢進(jìn)行檢索會(huì)導(dǎo)致搜索結(jié)果不佳。這就是為什么將原始用戶查詢轉(zhuǎn)換為優(yōu)化的搜索查詢至關(guān)重要。查詢轉(zhuǎn)換可以細(xì)化和擴(kuò)展不清楚、復(fù)雜或模棱兩可的用戶查詢以提高搜索結(jié)果的質(zhì)量。查詢重寫Query Rewriting涉及重新制定原始用戶查詢使其更適合檢索。這在用戶查詢措辭不當(dāng)或表達(dá)方式不同的情況下特別有用。這可以通過使用 LLM 重新措辭原始用戶查詢或采用專門為此任務(wù)訓(xùn)練的專門的小型語言模型來實(shí)現(xiàn)。這種方法稱為“重寫-檢索-閱讀”Rewrite-Retrieve-Read而不是傳統(tǒng)的“檢索后閱讀”Retrieve-then-Read范式。查詢擴(kuò)展Query Expansion側(cè)重于擴(kuò)大原始查詢的范圍以捕獲更多相關(guān)信息。這涉及使用 LLM 根據(jù)用戶的初始輸入生成多個(gè)類似查詢。然后這些擴(kuò)展的查詢將用于檢索過程從而增加檢索到的文檔的數(shù)量和相關(guān)性。注意由于檢索到的文檔數(shù)量增加通常需要執(zhí)行重新排序步驟以優(yōu)先考慮最相關(guān)的結(jié)果會(huì)在后面的重新排序部分介紹。查詢分解Query Decomposition查詢分解是一種將復(fù)雜查詢分解為更簡單的子查詢的技術(shù)。這對(duì)于回答需要多種信息源的多方面問題非常有用從而獲得更精確、更相關(guān)的搜索結(jié)果。該過程通常涉及兩個(gè)主要階段使用 LLM 將原始查詢分解為更小、更集中的子查詢?nèi)缓筇幚磉@些子查詢以檢索相關(guān)信息。例如復(fù)雜查詢“為什么我吃得健康但總是這么累我應(yīng)該改變飲食習(xí)慣還是嘗試一些飲食趨勢(shì)”可以分解為以下三個(gè)更簡單的子查詢哪些常見的飲食因素會(huì)導(dǎo)致疲勞哪些流行的飲食趨勢(shì)及其對(duì)能量水平的影響如何確定我的飲食是否均衡并支持我的能量需求每個(gè)子查詢都針對(duì)特定方面使檢索器能夠找到相關(guān)文檔或塊。子查詢也可以并行處理以提高效率。關(guān)鍵詞提取和元數(shù)據(jù)過濾器提取等附加技術(shù)可以幫助識(shí)別關(guān)鍵搜索詞和結(jié)構(gòu)化過濾條件從而實(shí)現(xiàn)更精確的搜索。檢索后系統(tǒng)會(huì)匯總和綜合所有子查詢的結(jié)果以生成對(duì)原始復(fù)雜查詢的全面答案。查詢路由Query Routing查詢路由是一種根據(jù)查詢的內(nèi)容和意圖將查詢定向到特定流水線的技術(shù)使 RAG 系統(tǒng)能夠有效地處理各種場(chǎng)景。它通過分析每個(gè)查詢并選擇最佳檢索方法或處理流水線來提供準(zhǔn)確的響應(yīng)。這通常需要實(shí)施多索引策略將不同類型的信息組織成單獨(dú)的、經(jīng)過優(yōu)化的專門索引。該過程可以包括 Agentic 元素其中 AI Agent 決定如何處理每個(gè)查詢。這些 Agent 評(píng)估查詢復(fù)雜性和領(lǐng)域等因素以確定最佳方法。例如基于事實(shí)的問題可能會(huì)被路由到一個(gè)流水線而需要總結(jié)或解釋的問題則會(huì)被發(fā)送到另一個(gè)流水線。Agentic RAG 的功能類似于一個(gè)專門 Agent 網(wǎng)絡(luò)每個(gè) Agent 都具有不同的專業(yè)知識(shí)。它可以從各種數(shù)據(jù)存儲(chǔ)、檢索策略基于關(guān)鍵字、語義或混合、查詢轉(zhuǎn)換針對(duì)結(jié)構(gòu)不良的查詢和專門工具或 API例如文本到 SQL 轉(zhuǎn)換器甚至 Web 搜索功能中進(jìn)行選擇。檢索優(yōu)化檢索優(yōu)化策略旨在通過直接操縱與用戶查詢相關(guān)的外部數(shù)據(jù)檢索方式來改善檢索結(jié)果。這可能涉及優(yōu)化搜索查詢例如使用元數(shù)據(jù)篩選候選或排除異常值甚至涉及微調(diào)外部數(shù)據(jù)的嵌入模型以提高底層嵌入本身的質(zhì)量。元數(shù)據(jù)過濾Metadata Filtering元數(shù)據(jù)是附加在向量數(shù)據(jù)庫中每個(gè)文檔或塊上的附加信息可提供有價(jià)值的上下文以增強(qiáng)檢索。這些補(bǔ)充數(shù)據(jù)可以包括時(shí)間戳、類別、作者信息、來源參考、語言、文件類型等。從向量數(shù)據(jù)庫檢索內(nèi)容時(shí)元數(shù)據(jù)有助于通過過濾掉不相關(guān)的對(duì)象即使它們?cè)谡Z義上與查詢相似來優(yōu)化結(jié)果。這縮小了搜索范圍并提高了檢索信息的相關(guān)性。使用元數(shù)據(jù)的另一個(gè)好處是時(shí)間意識(shí)。通過將時(shí)間戳合并為元數(shù)據(jù)系統(tǒng)可以優(yōu)先處理最近的信息確保檢索到的知識(shí)保持最新和相關(guān)。這在信息新鮮度至關(guān)重要的領(lǐng)域尤其有用。為了充分利用元數(shù)據(jù)過濾重要的是要仔細(xì)規(guī)劃并選擇能夠改善搜索而不會(huì)增加不必要復(fù)雜性的元數(shù)據(jù)。排除向量搜索異常值Excluding Vector Search Outliers定義返回結(jié)果數(shù)量的最直接方法是明確設(shè)置前 k 個(gè) (top_k) 結(jié)果的值。如果將 top_k 設(shè)置為 5我們將獲得五個(gè)最接近的向量無論它們的相關(guān)性如何。雖然很容易實(shí)現(xiàn)但這可能會(huì)包括較差的匹配因?yàn)樗鼈儽唤財(cái)嗔?。以下是兩種隱式管理搜索結(jié)果數(shù)量的技術(shù)它們可以幫助排除異常值距離閾值Distance thresholding通過設(shè)置向量之間的最大允許距離來添加質(zhì)量檢查。距離分?jǐn)?shù)高于此閾值的任何結(jié)果都會(huì)被過濾掉即使它本來可以達(dá)到 top_k 截止值。這有助于消除明顯的不良匹配但需要仔細(xì)調(diào)整閾值。Autocut 更具動(dòng)態(tài)性它查看結(jié)果距離的聚類方式。它不使用固定限制而是根據(jù)結(jié)果與查詢向量的相對(duì)距離對(duì)結(jié)果進(jìn)行分組。當(dāng)組間距離分?jǐn)?shù)出現(xiàn)大幅跳躍時(shí)Autocut 可以在該跳躍處截?cái)嘟Y(jié)果。這會(huì)捕獲可能通過 top_k 或基本距離閾值的異常值。混合搜索Hybrid Search混合搜索結(jié)合了基于向量的語義搜索和傳統(tǒng)的基于關(guān)鍵字的方法的優(yōu)勢(shì)。該技術(shù)旨在提高 RAG 系統(tǒng)中檢索信息的相關(guān)性和準(zhǔn)確性。混合搜索的關(guān)鍵在于“alpha”a參數(shù)它控制著語義和基于關(guān)鍵字的搜索方法之間的平衡a 1純語義搜索a 0純基于關(guān)鍵字的搜索0 a 1兩種方法的加權(quán)組合當(dāng)我們同時(shí)需要上下文理解和精確關(guān)鍵字匹配時(shí)這種方法特別有用。考慮一家軟件公司的技術(shù)支持知識(shí)庫。用戶可能會(huì)提交“更新后 Excel 公式計(jì)算不正確”之類的查詢。在這種情況下語義搜索有助于了解問題的上下文可能會(huì)檢索有關(guān)公式錯(cuò)誤、計(jì)算問題或軟件更新影響的文章。同時(shí)關(guān)鍵字搜索可確保不會(huì)忽略包含“Excel”和“公式”等特定術(shù)語的文檔。因此在實(shí)施混合搜索時(shí)根據(jù)我們的特定用例調(diào)整 alpha 參數(shù)以優(yōu)化性能至關(guān)重要。嵌入模型微調(diào)Embedding Model Fine-Tuning現(xiàn)成的嵌入模型通常在大型通用數(shù)據(jù)集上進(jìn)行訓(xùn)練以嵌入廣泛的數(shù)據(jù)輸入。但是嵌入模型可能無法捕獲較小、特定于領(lǐng)域的數(shù)據(jù)集的上下文和細(xì)微差別。在自定義數(shù)據(jù)集上微調(diào)嵌入模型可以顯著提高嵌入的質(zhì)量從而提高 RAG 等下游任務(wù)的性能。微調(diào)可以改進(jìn)嵌入以更好地捕獲數(shù)據(jù)集的含義和上下文從而在 RAG 應(yīng)用程序中實(shí)現(xiàn)更準(zhǔn)確、更相關(guān)的檢索。我們的數(shù)據(jù)集越小眾它就越能從嵌入模型微調(diào)中受益。具有專業(yè)詞匯的數(shù)據(jù)集如醫(yī)學(xué)或法律數(shù)據(jù)集是嵌入模型微調(diào)的理想選擇這有助于擴(kuò)展領(lǐng)域外的詞匯并提高 RAG 流水線中信息檢索和生成的準(zhǔn)確性和相關(guān)性。要微調(diào)現(xiàn)有的嵌入模型我們首先需要選擇一個(gè)想要改進(jìn)的基礎(chǔ)模型。接下來通過向模型提供特定于域的數(shù)據(jù)來開始微調(diào)過程。在此過程中損失函數(shù)會(huì)調(diào)整模型的嵌入以便語義相似的項(xiàng)目在嵌入空間中放置得更近。要評(píng)估微調(diào)后的嵌入模型我們可以使用一組精選的查詢-答案對(duì)驗(yàn)證集來評(píng)估 RAG 流水線中的檢索質(zhì)量?,F(xiàn)在該模型已準(zhǔn)備好為我們的特定數(shù)據(jù)集生成更準(zhǔn)確、更具代表性的嵌入。后檢索優(yōu)化檢索后優(yōu)化技術(shù)旨在提高生成的響應(yīng)的質(zhì)量這意味著它們的工作在檢索過程完成后開始。這組多樣化的技術(shù)包括使用模型對(duì)檢索結(jié)果進(jìn)行重新排序、增強(qiáng)或壓縮檢索到的上下文、提示工程以及在外部數(shù)據(jù)上微調(diào)生成 LLM。重新排序Re-Ranking一種行之有效的提高信息檢索系統(tǒng)性能的方法是利用檢索和重新排序流水線。檢索和重新排序流水線將向量搜索的速度與重新排序模型的上下文豐富性相結(jié)合。在向量搜索中查詢和文檔是分開處理的。首先對(duì)文檔進(jìn)行預(yù)索引。然后在查詢時(shí)處理查詢并檢索向量空間中最接近的文檔。雖然向量搜索是一種快速檢索候選的方法但它可能會(huì)錯(cuò)過上下文細(xì)微差別。這就是重新排序模型發(fā)揮作用的地方。由于重新排序模型在查詢時(shí)會(huì)同時(shí)處理查詢和文檔因此它們可以捕獲更多上下文細(xì)微差別。但是它們通常很復(fù)雜且資源密集因此不適合像向量搜索這樣的第一階段檢索。通過將向量搜索與重新排序模型相結(jié)合我們可以快速地收集大量潛在候選者然后對(duì)它們進(jìn)行重新排序以提高提示中相關(guān)上下文的質(zhì)量。請(qǐng)注意在使用重新排序模型時(shí)我們應(yīng)該過度檢索塊以便稍后過濾掉不太相關(guān)的塊。上下文后處理Context Post-Processing檢索后對(duì)檢索到的上下文進(jìn)行后處理以便生成會(huì)大有裨益。例如如果檢索到的上下文可能受益于附加信息則可以使用元數(shù)據(jù)對(duì)其進(jìn)行增強(qiáng)。另一方面如果它包含冗余數(shù)據(jù)則可以對(duì)其進(jìn)行壓縮。使用元數(shù)據(jù)進(jìn)行上下文增強(qiáng)Context Enhancement with Metadata一種后處理技術(shù)是使用元數(shù)據(jù)通過附加信息增強(qiáng)檢索到的上下文以提高生成準(zhǔn)確性。雖然我們可以簡單地從元數(shù)據(jù)中添加附加信息例如時(shí)間戳、文檔名稱等但我們也可以應(yīng)用更具創(chuàng)意的技術(shù)。當(dāng)數(shù)據(jù)需要預(yù)處理成較小的塊大小以實(shí)現(xiàn)更好的檢索精度但其不包含足夠的上下文信息來生成高質(zhì)量的響應(yīng)時(shí)上下文增強(qiáng)特別有用。在這種情況下我們可以應(yīng)用一種稱為“句子窗口檢索”Sentence window retrieval的技術(shù)。此技術(shù)將初始文檔分塊成較小的部分通常是單個(gè)句子但在其元數(shù)據(jù)中存儲(chǔ)較大的上下文窗口。在檢索時(shí)較小的塊有助于提高檢索精度。檢索后檢索到的較小塊將被較大的上下文窗口替換以提高生成質(zhì)量。上下文壓縮Context CompressionRAG 系統(tǒng)依賴各種知識(shí)源來檢索相關(guān)信息。然而這通常會(huì)導(dǎo)致檢索不相關(guān)或冗余的數(shù)據(jù)從而導(dǎo)致響應(yīng)不理想和 LLM 調(diào)用成本高昂更多 token。上下文壓縮通過從檢索到的數(shù)據(jù)中提取最有意義的信息有效地解決了這一挑戰(zhàn)。此過程從基本檢索器開始該檢索器檢索與查詢相關(guān)的文檔/塊。然后這些文檔/塊通過文檔壓縮器進(jìn)行壓縮以縮短它們并消除不相關(guān)的內(nèi)容確保有價(jià)值的數(shù)據(jù)不會(huì)丟失在大量無關(guān)信息中。上下文壓縮減少了數(shù)據(jù)量降低了檢索和運(yùn)營成本。當(dāng)前的研究主要集中在兩種方法上基于嵌入和基于詞匯的壓縮這兩種方法都旨在保留基本信息同時(shí)減輕 RAG 系統(tǒng)的計(jì)算需求。提示工程Prompt EngineeringLLM 的生成輸出受其相應(yīng)提示的質(zhì)量、語氣、長度和結(jié)構(gòu)的影響很大。提示工程是優(yōu)化 LLM 提示以提高生成輸出的質(zhì)量和準(zhǔn)確性的實(shí)踐。提示工程通常是改進(jìn) RAG 系統(tǒng)的技術(shù)中最容易實(shí)現(xiàn)的成果之一它不需要對(duì)底層 LLM 本身進(jìn)行更改。這使得它成為一種高效且易于訪問的方法來提高性能而無需進(jìn)行復(fù)雜的修改。有幾種不同的提示技術(shù)在改進(jìn) RAG 流水線方面特別有用。CoT (Chain of Thought思維鏈) 提示涉及要求模型“逐步思考”并將復(fù)雜的推理任務(wù)分解為一系列中間步驟。當(dāng)檢索到的文檔包含需要仔細(xì)分析的沖突或密集信息時(shí)這尤其有用。ToT (Tree of Thoughts思維樹) 提示以 CoT 為基礎(chǔ)指示模型評(píng)估其在解決問題過程中每一步的響應(yīng)甚至生成問題的幾種不同解決方案并選擇最佳結(jié)果。當(dāng)存在許多潛在證據(jù)時(shí)這在 RAG 中很有用并且模型需要根據(jù)多個(gè)檢索到的文檔權(quán)衡不同的可能答案。ReActReasoning and Acting推理和行動(dòng)提示將 CoT 與 Agent 相結(jié)合創(chuàng)建了一個(gè)系統(tǒng)其中模型可以生成想法并將行動(dòng)委托給 AgentAgent 在迭代過程中與外部數(shù)據(jù)源交互。ReAct 可以通過使 LLM 能夠動(dòng)態(tài)地與檢索到的文檔交互、根據(jù)外部知識(shí)更新推理和行動(dòng)來改進(jìn) RAG 流水線從而提供更準(zhǔn)確、更符合上下文的響應(yīng)。LLM 微調(diào)LLM Fine-Tuning預(yù)訓(xùn)練的 LLM 在大型、多樣化的數(shù)據(jù)集上進(jìn)行訓(xùn)練以獲得一般知識(shí)包括語言和語法模式、廣泛的詞匯量以及執(zhí)行一般任務(wù)的能力。對(duì)于 RAG使用預(yù)訓(xùn)練的 LLM 有時(shí)會(huì)導(dǎo)致生成的輸出過于籠統(tǒng)、事實(shí)不正確或無法直接解決檢索到的上下文。微調(diào)預(yù)訓(xùn)練模型涉及在特定數(shù)據(jù)集或任務(wù)上對(duì)其進(jìn)行進(jìn)一步訓(xùn)練以使模型的一般知識(shí)適應(yīng)該特定領(lǐng)域的細(xì)微差別從而提高其在該領(lǐng)域的性能。在 RAG 流水線中使用微調(diào)模型有助于提高生成的響應(yīng)的質(zhì)量尤其是當(dāng)手頭的主題高度專業(yè)化時(shí)。高質(zhì)量的領(lǐng)域特定數(shù)據(jù)對(duì)于微調(diào) LLM 至關(guān)重要。標(biāo)記數(shù)據(jù)集如正面和負(fù)面的客戶評(píng)論可以幫助微調(diào)模型更好地執(zhí)行下游任務(wù)如文本分類或情緒分析。另一方面未標(biāo)記的數(shù)據(jù)集如 PubMed 上發(fā)布的最新文章可以幫助微調(diào)模型獲得更多領(lǐng)域特定知識(shí)并擴(kuò)大詞匯量。在微調(diào)過程中預(yù)訓(xùn)練的 LLM也稱為基礎(chǔ)模型的模型權(quán)重通過稱為反向傳播的過程進(jìn)行迭代更新以從領(lǐng)域特定數(shù)據(jù)集中學(xué)習(xí)。結(jié)果是經(jīng)過微調(diào)的 LLM 可以更好地捕捉新數(shù)據(jù)的細(xì)微差別和要求例如特定術(shù)語、風(fēng)格或語氣。總結(jié)RAG 通過使生成模型能夠引用外部數(shù)據(jù)來增強(qiáng)生成模型從而提高響應(yīng)準(zhǔn)確性和相關(guān)性同時(shí)減輕幻覺和信息差距。簡單的 RAG 根據(jù)查詢相似性檢索文檔并直接將它們輸入生成模型以生成響應(yīng)。但是更先進(jìn)的技術(shù)如本指南中詳細(xì)介紹的技術(shù)可以通過增強(qiáng)檢索信息的相關(guān)性和準(zhǔn)確性來顯著提高 RAG 流水線的質(zhì)量。本文回顧了可應(yīng)用于 RAG 流水線各個(gè)階段的高級(jí) RAG 技術(shù)以提高檢索質(zhì)量和生成響應(yīng)的準(zhǔn)確性。索引優(yōu)化技術(shù)如數(shù)據(jù)預(yù)處理和分塊專注于格式化外部數(shù)據(jù)以提高其效率和可搜索性。預(yù)檢索技術(shù)旨在通過重寫、重新格式化或?qū)⒉樵兟酚傻綄S昧魉€來優(yōu)化用戶查詢本身。檢索優(yōu)化策略通常側(cè)重于在檢索階段優(yōu)化搜索結(jié)果。檢索后優(yōu)化策略旨在通過各種技術(shù)提高生成結(jié)果的準(zhǔn)確性包括對(duì)檢索結(jié)果進(jìn)行重新排序、增強(qiáng)或壓縮檢索上下文以及操縱提示或生成模型 (LLM)。我建議實(shí)施驗(yàn)證流水線以確定 RAG 系統(tǒng)的哪些部分需要優(yōu)化并評(píng)估高級(jí)技術(shù)的有效性。評(píng)估我們的 RAG 流水線可以實(shí)現(xiàn)持續(xù)監(jiān)控和改進(jìn)確保優(yōu)化對(duì)檢索質(zhì)量和模型性能產(chǎn)生積極影響。如何系統(tǒng)的學(xué)習(xí)大模型 AI 由于新崗位的生產(chǎn)效率要優(yōu)于被取代崗位的生產(chǎn)效率所以實(shí)際上整個(gè)社會(huì)的生產(chǎn)效率是提升的。但是具體到個(gè)人只能說是“最先掌握AI的人將會(huì)比較晚掌握AI的人有競(jìng)爭優(yōu)勢(shì)”。這句話放在計(jì)算機(jī)、互聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)的開局時(shí)期都是一樣的道理。我在一線互聯(lián)網(wǎng)企業(yè)工作十余年里指導(dǎo)過不少同行后輩。幫助很多人得到了學(xué)習(xí)和成長。我意識(shí)到有很多經(jīng)驗(yàn)和知識(shí)值得分享給大家也可以通過我們的能力和經(jīng)驗(yàn)解答大家在人工智能學(xué)習(xí)中的很多困惑所以在工作繁忙的情況下還是堅(jiān)持各種整理和分享。但苦于知識(shí)傳播途徑有限很多互聯(lián)網(wǎng)行業(yè)朋友無法獲得正確的資料得到學(xué)習(xí)提升故此將并將重要的AI大模型資料包括AI大模型入門學(xué)習(xí)思維導(dǎo)圖、精品AI大模型學(xué)習(xí)書籍手冊(cè)、視頻教程、實(shí)戰(zhàn)學(xué)習(xí)等錄播視頻免費(fèi)分享出來。一直在更新更多的大模型學(xué)習(xí)和面試資料已經(jīng)上傳帶到CSDN的官方了有需要的朋友可以掃描下方二維碼免費(fèi)領(lǐng)取【保證100%免費(fèi)】01.大模型風(fēng)口已至月薪30K的AI崗正在批量誕生2025年大模型應(yīng)用呈現(xiàn)爆發(fā)式增長根據(jù)工信部最新數(shù)據(jù)國內(nèi)大模型相關(guān)崗位缺口達(dá)47萬初級(jí)工程師平均薪資28K數(shù)據(jù)來源BOSS直聘報(bào)告70%企業(yè)存在能用模型不會(huì)調(diào)優(yōu)的痛點(diǎn)真實(shí)案例某二本機(jī)械專業(yè)學(xué)員通過4個(gè)月系統(tǒng)學(xué)習(xí)成功拿到某AI醫(yī)療公司大模型優(yōu)化崗offer薪資直接翻3倍02.大模型 AI 學(xué)習(xí)和面試資料1?? 提示詞工程把ChatGPT從玩具變成生產(chǎn)工具2?? RAG系統(tǒng)讓大模型精準(zhǔn)輸出行業(yè)知識(shí)3?? 智能體開發(fā)用AutoGPT打造24小時(shí)數(shù)字員工熬了三個(gè)大夜整理的《AI進(jìn)化工具包》送你?? 大廠內(nèi)部LLM落地手冊(cè)含58個(gè)真實(shí)案例?? 提示詞設(shè)計(jì)模板庫覆蓋12大應(yīng)用場(chǎng)景?? 私藏學(xué)習(xí)路徑圖0基礎(chǔ)到項(xiàng)目實(shí)戰(zhàn)僅需90天第一階段10天初階應(yīng)用該階段讓大家對(duì)大模型 AI有一個(gè)最前沿的認(rèn)識(shí)對(duì)大模型 AI 的理解超過 95% 的人可以在相關(guān)討論時(shí)發(fā)表高級(jí)、不跟風(fēng)、又接地氣的見解別人只會(huì)和 AI 聊天而你能調(diào)教 AI并能用代碼將大模型和業(yè)務(wù)銜接。大模型 AI 能干什么大模型是怎樣獲得「智能」的用好 AI 的核心心法大模型應(yīng)用業(yè)務(wù)架構(gòu)大模型應(yīng)用技術(shù)架構(gòu)代碼示例向 GPT-3.5 灌入新知識(shí)提示工程的意義和核心思想Prompt 典型構(gòu)成指令調(diào)優(yōu)方法論思維鏈和思維樹Prompt 攻擊和防范…第二階段30天高階應(yīng)用該階段我們正式進(jìn)入大模型 AI 進(jìn)階實(shí)戰(zhàn)學(xué)習(xí)學(xué)會(huì)構(gòu)造私有知識(shí)庫擴(kuò)展 AI 的能力??焖匍_發(fā)一個(gè)完整的基于 agent 對(duì)話機(jī)器人。掌握功能最強(qiáng)的大模型開發(fā)框架抓住最新的技術(shù)進(jìn)展適合 Python 和 JavaScript 程序員。為什么要做 RAG搭建一個(gè)簡單的 ChatPDF檢索的基礎(chǔ)概念什么是向量表示Embeddings向量數(shù)據(jù)庫與向量檢索基于向量檢索的 RAG搭建 RAG 系統(tǒng)的擴(kuò)展知識(shí)混合檢索與 RAG-Fusion 簡介向量模型本地部署…第三階段30天模型訓(xùn)練恭喜你如果學(xué)到這里你基本可以找到一份大模型 AI相關(guān)的工作自己也能訓(xùn)練 GPT 了通過微調(diào)訓(xùn)練自己的垂直大模型能獨(dú)立訓(xùn)練開源多模態(tài)大模型掌握更多技術(shù)方案。到此為止大概2個(gè)月的時(shí)間。你已經(jīng)成為了一名“AI小子”。那么你還想往下探索嗎為什么要做 RAG什么是模型什么是模型訓(xùn)練求解器 損失函數(shù)簡介小實(shí)驗(yàn)2手寫一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)并訓(xùn)練它什么是訓(xùn)練/預(yù)訓(xùn)練/微調(diào)/輕量化微調(diào)Transformer結(jié)構(gòu)簡介輕量化微調(diào)實(shí)驗(yàn)數(shù)據(jù)集的構(gòu)建…第四階段20天商業(yè)閉環(huán)對(duì)全球大模型從性能、吞吐量、成本等方面有一定的認(rèn)知可以在云端和本地等多種環(huán)境下部署大模型找到適合自己的項(xiàng)目/創(chuàng)業(yè)方向做一名被 AI 武裝的產(chǎn)品經(jīng)理。硬件選型帶你了解全球大模型使用國產(chǎn)大模型服務(wù)搭建 OpenAI 代理熱身基于阿里云 PAI 部署 Stable Diffusion在本地計(jì)算機(jī)運(yùn)行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何優(yōu)雅地在阿里云私有部署開源大模型部署一套開源 LLM 項(xiàng)目內(nèi)容安全互聯(lián)網(wǎng)信息服務(wù)算法備案…學(xué)習(xí)是一個(gè)過程只要學(xué)習(xí)就會(huì)有挑戰(zhàn)。天道酬勤你越努力就會(huì)成為越優(yōu)秀的自己。如果你能在15天內(nèi)完成所有的任務(wù)那你堪稱天才。然而如果你能完成 60-70% 的內(nèi)容你就已經(jīng)開始具備成為一名大模型 AI 的正確特征了。這份完整版的大模型 AI 學(xué)習(xí)資料已經(jīng)上傳CSDN朋友們?nèi)绻枰梢晕⑿艗呙柘路紺SDN官方認(rèn)證二維碼免費(fèi)領(lǐng)取【保證100%免費(fèi)】
版權(quán)聲明: 本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)聯(lián)系我們進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

網(wǎng)站內(nèi)容品質(zhì)網(wǎng)絡(luò)營銷的概念和界定

網(wǎng)站內(nèi)容品質(zhì),網(wǎng)絡(luò)營銷的概念和界定,手機(jī)版網(wǎng)頁游戲在線玩,wordpress 顯示置頂文章在人工智能技術(shù)迅猛發(fā)展的今天#xff0c;其與藝術(shù)設(shè)計(jì)教育的深度融合正不斷拓展教學(xué)與創(chuàng)作的邊界。華東師范大學(xué)設(shè)

2026/01/23 12:56:02

網(wǎng)站建設(shè)開發(fā)制作設(shè)計(jì)海南萬江區(qū)網(wǎng)站建設(shè)公司

網(wǎng)站建設(shè)開發(fā)制作設(shè)計(jì)海南,萬江區(qū)網(wǎng)站建設(shè)公司,重慶網(wǎng)站建設(shè)公司價(jià)錢,網(wǎng)頁傳奇打金Excalidraw AI服務(wù)按Token計(jì)費(fèi)模式探討 在遠(yuǎn)程協(xié)作日益成為常態(tài)的今天#xff0c;團(tuán)隊(duì)對(duì)可視化工具的需求

2026/01/23 15:46:02

本地常州網(wǎng)站建設(shè)上傳網(wǎng)站根目錄

本地常州網(wǎng)站建設(shè),上傳網(wǎng)站根目錄,備案 網(wǎng)站名稱什么用,黃岡商城網(wǎng)站建設(shè)哪家好“AI的真正價(jià)值不僅在于技術(shù)的先進(jìn)性#xff0c;更在于能否深入產(chǎn)業(yè)一線、解決實(shí)際問題?!?2月11日#xff0c;螞蟻數(shù)

2026/01/22 21:50:01