思而憂網(wǎng)站網(wǎng)站建設(shè)服務(wù)標語
鶴壁市浩天電氣有限公司
2026/01/24 10:53:39
思而憂網(wǎng)站,網(wǎng)站建設(shè)服務(wù)標語,網(wǎng)站seo外鏈接,建網(wǎng)站seo大模型能力強大#xff0c;卻受限于靜態(tài)知識庫#xff0c;還容易“一本正經(jīng)地胡說八道”。RAG#xff08;檢索增強生成#xff09;正是破局關(guān)鍵#xff01;本文深入淺出講解 RAG 的核心原理——通過實時檢索外部知識庫#xff0c;為生成模型注入最新、最準的上下文信息卻受限于靜態(tài)知識庫還容易“一本正經(jīng)地胡說八道”。RAG檢索增強生成正是破局關(guān)鍵本文深入淺出講解 RAG 的核心原理——通過實時檢索外部知識庫為生成模型注入最新、最準的上下文信息顯著提升回答的準確性、專業(yè)性與可解釋性。帶你從零搭建本地 RAG 系統(tǒng)使用 PyPDF2 解析 PDF、DashScope 嵌入模型向量化、Faiss 構(gòu)建高效檢索庫并通過 LangChain 調(diào)用 DeepSeek 大模型實現(xiàn)智能問答。全流程覆蓋數(shù)據(jù)預(yù)處理、索引構(gòu)建到問答生成附關(guān)鍵技術(shù)細節(jié)與工程實踐建議。無論你是開發(fā)者、AI 愛好者還是企業(yè)技術(shù)決策者這篇干貨都能幫你快速掌握 RAG 落地的核心能力一、RAG簡介1.什么是RAGRAGRetrieval-Augmented Generation檢索增強生成是一種結(jié)合信息檢索Retrieval和文本生成Generation的技術(shù)。RAG技術(shù)通過實時檢索相關(guān)文檔或信息并將其作為上下文輸入到生成模型中從而提高生成結(jié)果的時效性和準確性。2.RAG的優(yōu)勢是什么解決知識時效性問題大模型的訓(xùn)練數(shù)據(jù)通常是靜態(tài)的無法涵蓋最新信息而RAG可以檢索外部知識庫實時更新信息。減少模型幻覺通過引入外部知識RAG能夠減少模型生成虛假或不準確內(nèi)容的可能性。提升專業(yè)領(lǐng)域回答質(zhì)量RAG能夠結(jié)合垂直領(lǐng)域的專業(yè)知識庫生成更具專業(yè)深度的回答。生成內(nèi)容的溯源可解釋性3.RAG 的核心原理與流程步驟1數(shù)據(jù)預(yù)處理構(gòu)建索引庫知識庫構(gòu)建收集并整理文檔、網(wǎng)頁、數(shù)據(jù)庫等多源數(shù)據(jù)構(gòu)建外部知識庫。文檔分塊將文檔切分為適當大小的片段chunks以便后續(xù)檢索。分塊策略需要在語義完整性與檢索效率之間取得平衡。向量化處理使用嵌入模型如BGE、M3E、ChineseAlpaca2等將文本塊轉(zhuǎn)換為向量并存儲在向量數(shù)據(jù)庫中步驟2檢索階段查詢處理將用戶輸入的問題轉(zhuǎn)換為向量并在向量數(shù)據(jù)庫中進行相似度檢索找到最相關(guān)的文本片段。重排序?qū)z索結(jié)果進行相關(guān)性排序選擇最相關(guān)的片段作為生成階段的輸入。步驟3檢索階段上下文組裝將用戶輸入的問題轉(zhuǎn)換為向量并在向量數(shù)據(jù)庫中進行相似度檢索找到最相關(guān)的文本片段。生成回答對檢索結(jié)果進行相關(guān)性排序選擇最相關(guān)的片段作為生成階段的輸入。劃重點RAG本質(zhì)上就是重構(gòu)了一個新的 Prompt4.NativeRAGNativeRAG的步驟Indexing如何更好地把知識存起來。Retrieval如何在大量的知識中找到一小部分有用的給到模型參考。Generation如何結(jié)合用戶的提問和檢索到的知識讓模型生成有用的答案。上面三個步驟雖然看似簡單但在 RAG 應(yīng)用從構(gòu)建到落地實施的整個過程中涉及較多復(fù)雜的工作內(nèi)容5.Prompt vs RAG vs Fine-tuning 什么時候使用二、Embedding模型選擇1.通用文本嵌入模型BGE-M3(智源研究院)特點支持100語言輸入長度達8192tokens融合密集、稀疏、多向量混合檢索適合跨語言長文檔檢索。適用場景跨語言長文檔檢索、高精度RAG應(yīng)用。文件大小2.3Gtext-embedding-3-largeOpenAI特點向量維度3072維長文本語義捕捉能力強英文表現(xiàn)優(yōu)秀。適用場景英文內(nèi)容優(yōu)先的全球化應(yīng)用。jina-embedding-v2-smallJina AI特點參數(shù)量僅35M支持實時推理RT50ms適合輕量化部署。適用場景輕量級文本處理、實時推理任務(wù)。2.中文嵌入模型M3E-Base特點針對中文優(yōu)化的輕量模型適合本地化部署。適用場景中文法律、醫(yī)療領(lǐng)域檢索任務(wù)。文件大小0.4Gxiaobu-embedding-v2特點針對中文語義優(yōu)化語義理解能力強。適用場景中文文本分類、語義檢索。stella-mrl-large-zh-v3.5-1792特點處理大規(guī)模中文數(shù)據(jù)能力強捕捉細微語義關(guān)系。適用場景中文文本高級語義分析、自然語言處理任務(wù)。3.指令驅(qū)動與復(fù)雜任務(wù)模型gte-Qwen2-7B-instruct阿里巴巴特點基于Qwen大模型微調(diào)支持代碼與文本跨模態(tài)檢索。適用場景復(fù)雜指令驅(qū)動任務(wù)、智能問答系統(tǒng)。E5-mistral-7BMicrosoft特點基于Microsoft架構(gòu)Zero-shot任務(wù)表現(xiàn)優(yōu)異。適用場景動態(tài)調(diào)整語義密度的復(fù)雜系統(tǒng)。4.企業(yè)級與復(fù)雜系統(tǒng)BGE-M3智源研究院特點適合企業(yè)級部署支持混合檢索。適用場景企業(yè)級語義檢索、復(fù)雜RAG應(yīng)用。E5-mistral-7BMicrosoft特點適合企業(yè)級部署支持指令微調(diào)。適用場景需要動態(tài)調(diào)整語義密度的復(fù)雜系統(tǒng)。5.CASE-BGE-M3使用模型下載from FlagEmbedding import BGEM3FlagModel model BGEM3FlagModel(/root/models/BAAI/bge-m3, use_fp16True)示例代碼from FlagEmbedding import BGEM3FlagModel model BGEM3FlagModel(/root/models/BAAI/bge-m3, use_fp16True) sentences_1 [什么是 BGE M3, BM25 的定義] sentences_2 [BGE M3 是一種嵌入模型支持稠密檢索、詞匯匹配和多向量交互。, BM25 是一種基于詞袋的檢索函數(shù)根據(jù)查詢詞在每個文檔中出現(xiàn)的情況對文檔集合進行排序。] embeddings_1 model.encode(sentences_1, batch_size12, max_length8192, # 如果不需要這么長的長度可以設(shè)置一個較小的值以加快編碼速度。 )[dense_vecs] embeddings_2 model.encode(sentences_2)[dense_vecs] similarity embeddings_1 embeddings_2.T print(similarity) # [[0.6265, 0.3477], [0.3499, 0.678 ]]代碼解釋similarity embeddings_1 embeddings_2.T計算兩組嵌入向量embeddings之間的相似度矩陣。embeddings_1包含了第一組句子(sentences_1)的嵌入向量形狀為[sentences_1的數(shù)量嵌入維度]embeddings_2包含了第二組句子(sentences_2)的嵌入向量形狀為[sentences_2的數(shù)量嵌入維度]embeddings_2.T是對embeddings_2進行轉(zhuǎn)置操作形態(tài)變?yōu)閇嵌入維度sentences_2的數(shù)量]符號在Python中表示矩陣乘法運算通過矩陣乘法計算了兩組句子之間的余弦相似度矩陣。結(jié)果similarity形狀是[sentences_1的數(shù)量sentences_2的數(shù)量]6.gte-qwen2使用模型下載from sentence_transformers import SentenceTransformer model_dir /root/models/iic/gte_Qwen2-1___5B-instruct model SentenceTransformer(model_dir, trust_remote_codeTrue)示例代碼from sentence_transformers import SentenceTransformer model_dir /root/models/iic/gte_Qwen2-1___5B-instruct model SentenceTransformer(model_dir, trust_remote_codeTrue) model.max_seq_length 8192 queries [ 女性每天應(yīng)該攝入多少蛋白質(zhì), “summit”的定義是什么,] documents [ 根據(jù)一般指南美國疾控中心CDC建議19至70歲女性每日平均蛋白質(zhì)攝入量為46克。但如下面圖表所示如果你正在備孕或備戰(zhàn)馬拉松就需要增加攝入量。請查看下方圖表了解你每天應(yīng)攝入多少蛋白質(zhì)。, “summit”對英語學(xué)習(xí)者的定義1. 山的最高點山頂。2. 最高水平。3. 兩個或多個國家領(lǐng)導(dǎo)人之間的會議或系列會議。,] document_embeddings model.encode(documents) print(scores.tolist())三、RAG實戰(zhàn)基于LangChain采用DeepSeekFaiss快速搭建本地知識庫檢索。3.1 環(huán)境準備1本地安裝好Conda環(huán)境2推薦使用阿里大模型平臺百煉https://bailian.console.aliyun.com/3百煉平臺使用注冊登錄、申請api key。3.2 技術(shù)選型向量數(shù)據(jù)庫Faiss作為高效的向量檢索嵌入模型阿里云DashScope的text-embedding-v1大語言模型deepseek-v3文檔處理PyPDF2用于PDF文本提取3.3 程序邏輯結(jié)構(gòu)介紹步驟1:文檔預(yù)處理PDF文件-文本提取-文本分割-頁碼映射1)PDF文本提取逐頁提取文本內(nèi)容記錄每行文本對應(yīng)的頁碼信息處理空頁和異常情況2文本分割策略使用遞歸字符分割器分割參數(shù)chunk_size1000,chunk_overlap200分割優(yōu)先級段落-句子-空格-字符3頁面映射處理基于字符位置計算每個文本塊的頁面使用眾數(shù)統(tǒng)計確定文本塊的主要來源頁碼建立文本塊與頁碼的映射關(guān)系步驟2:知識庫構(gòu)建文本塊-嵌入向量-Faiss索引-本地持久化1向量數(shù)據(jù)庫構(gòu)建使用DashScope嵌入模型生成向量將向量存儲到Faiss索引結(jié)構(gòu)2數(shù)據(jù)持久化保存Faiss索引文件.faiss保存元數(shù)據(jù)信息.pkl保存頁碼映射關(guān)系page_info.pkl步驟3:問答查詢用戶問題-向量檢索-文檔組合-LLM生成-答案輸出1相似度檢索將用戶問題轉(zhuǎn)換為向量在Faiss中搜索最相似的文檔塊返回Top-K相關(guān)文檔2問答鏈處理使用LangChain的load_qa_chain采用stuff策略組合文檔將組合后的上下文和問題發(fā)送給LLM3答案生成與展示3.4代碼實例安裝依賴的包!pip install pypdf2 !pip install dashscope !pip install langchain !pip install langchain-openai !pip install langchain-community !pip install faiss-cpu導(dǎo)入依賴的包from PyPDF2 import PdfReader from langchain.chains.question_answering import load_qa_chain from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain_community.embeddings import DashScopeEmbeddings from langchain_community.vectorstores import FAISS from typing import List, Tuple import os import pickle從PDF中提取文本并記錄每個字符對應(yīng)的頁碼def extract_text_with_page_numbers(pdf) - Tuple[str, List[Tuple[str, int]]]: 從PDF中提取文本并記錄每個字符對應(yīng)的頁碼 參數(shù): pdf: PDF文件對象 返回: text: 提取的文本內(nèi)容 char_page_mapping: 每個字符對應(yīng)的頁碼列表 text char_page_mapping [] for page_number, page in enumerate(pdf.pages, start1): extracted_text page.extract_text() if extracted_text: text extracted_text # 為當前頁面的每個字符記錄頁碼 char_page_mapping.extend([page_number] * len(extracted_text)) else: print(fNo text found on page {page_number}.) return text, char_page_mapping處理文本并創(chuàng)建向量存儲def process_text_with_splitter(text: str, char_page_mapping: List[int], save_path: str None) - FAISS: 處理文本并創(chuàng)建向量存儲 參數(shù): text: 提取的文本內(nèi)容 char_page_mapping: 每個字符對應(yīng)的頁碼列表 save_path: 可選保存向量數(shù)據(jù)庫的路徑 返回: knowledgeBase: 基于FAISS的向量存儲對象 # 創(chuàng)建文本分割器用于將長文本分割成小塊 text_splitter RecursiveCharacterTextSplitter( separators[
,
, ., , ], chunk_size1000, chunk_overlap200, length_functionlen, ) # 分割文本 chunks text_splitter.split_text(text) print(f文本被分割成 {len(chunks)} 個塊。) # 創(chuàng)建嵌入模型 embeddings DashScopeEmbeddings( modeltext-embedding-v1, dashscope_api_keyDASHSCOPE_API_KEY, ) # 從文本塊創(chuàng)建知識庫 knowledgeBase FAISS.from_texts(chunks, embeddings) print(已從文本塊創(chuàng)建知識庫。) # 為每個文本塊找到對應(yīng)的頁碼信息 page_info {} current_pos 0 for chunk in chunks: chunk_start current_pos chunk_end current_pos len(chunk) # 找到這個文本塊中字符對應(yīng)的頁碼 chunk_pages char_page_mapping[chunk_start:chunk_end] # 取頁碼的眾數(shù)出現(xiàn)最多的頁碼作為該塊的頁碼 if chunk_pages: # 統(tǒng)計每個頁碼出現(xiàn)的次數(shù) page_counts {} for page in chunk_pages: page_counts[page] page_counts.get(page, 0) 1 # 找到出現(xiàn)次數(shù)最多的頁碼 most_common_page max(page_counts, keypage_counts.get) page_info[chunk] most_common_page else: page_info[chunk] 1 # 默認頁碼 current_pos chunk_end knowledgeBase.page_info page_info print(f頁碼映射完成共 {len(page_info)} 個文本塊) # 如果提供了保存路徑則保存向量數(shù)據(jù)庫和頁碼信息 if save_path: # 確保目錄存在 os.makedirs(save_path, exist_okTrue) # 保存FAISS向量數(shù)據(jù)庫 knowledgeBase.save_local(save_path) print(f向量數(shù)據(jù)庫已保存到: {save_path}) # 保存頁碼信息到同一目錄 with open(os.path.join(save_path, page_info.pkl), wb) as f: pickle.dump(page_info, f) print(f頁碼信息已保存到: {os.path.join(save_path, page_info.pkl)}) return knowledgeBase從磁盤加載向量數(shù)據(jù)庫和頁碼信息def load_knowledge_base(load_path: str, embeddings None) - FAISS: 從磁盤加載向量數(shù)據(jù)庫和頁碼信息 參數(shù): load_path: 向量數(shù)據(jù)庫的保存路徑 embeddings: 可選嵌入模型。如果為None將創(chuàng)建一個新的DashScopeEmbeddings實例 返回: knowledgeBase: 加載的FAISS向量數(shù)據(jù)庫對象 # 如果沒有提供嵌入模型則創(chuàng)建一個新的 if embeddings is None: embeddings DashScopeEmbeddings( modeltext-embedding-v1, dashscope_api_keyDASHSCOPE_API_KEY, ) # 加載FAISS向量數(shù)據(jù)庫添加allow_dangerous_deserializationTrue參數(shù)以允許反序列化 knowledgeBase FAISS.load_local(load_path, embeddings, allow_dangerous_deserializationTrue) print(f向量數(shù)據(jù)庫已從 {load_path} 加載。) # 加載頁碼信息 page_info_path os.path.join(load_path, page_info.pkl) if os.path.exists(page_info_path): with open(page_info_path, rb) as f: page_info pickle.load(f) knowledgeBase.page_info page_info print(頁碼信息已加載。) else: print(警告: 未找到頁碼信息文件。) return knowledgeBase讀取PDF文件并寫入到知識庫# 讀取PDF文件 pdf_reader PdfReader(./考核辦法.pdf) # 提取文本和頁碼信息 text, char_page_mapping extract_text_with_page_numbers(pdf_reader) #print(page_numbers,page_numbers) print(f提取的文本長度: {len(text)} 個字符。) # 處理文本并創(chuàng)建知識庫同時保存到磁盤 save_dir ./vector_db knowledgeBase process_text_with_splitter(text, char_page_mapping, save_pathsave_dir)如何加載已保存的向量數(shù)據(jù)庫# 創(chuàng)建嵌入模型 embeddings DashScopeEmbeddings( modeltext-embedding-v1, dashscope_api_keyDASHSCOPE_API_KEY, ) # 從磁盤加載向量數(shù)據(jù)庫 loaded_knowledgeBase load_knowledge_base(./vector_db, embeddings) # 使用加載的知識庫進行查詢 docs loaded_knowledgeBase.similarity_search(客戶經(jīng)理每年評聘申報時間是怎樣的) # 直接使用FAISS.load_local方法加載替代方法 # loaded_knowledgeBase FAISS.load_local(./vector_db, embeddings, allow_dangerous_deserializationTrue) # 注意使用這種方法加載時需要手動加載頁碼信息對話調(diào)用from langchain_community.llms import Tongyi llm Tongyi(model_namedeepseek-v3, dashscope_api_keyDASHSCOPE_API_KEY) # qwen-turbo # 設(shè)置查詢問題 query 客戶經(jīng)理被投訴了投訴一次扣多少分 #query 客戶經(jīng)理每年評聘申報時間是怎樣的 if query: # 執(zhí)行相似度搜索找到與查詢相關(guān)的文檔 docs knowledgeBase.similarity_search(query,k10) # 加載問答鏈 chain load_qa_chain(llm, chain_typestuff) # 準備輸入數(shù)據(jù) input_data {input_documents: docs, question: query} # 執(zhí)行問答鏈 response chain.invoke(inputinput_data) print(response[output_text]) print(來源:) # 記錄唯一的頁碼 unique_pages set() # 顯示每個文檔塊的來源頁碼 for doc in docs: #print(doc,doc) text_content getattr(doc, page_content, ) source_page knowledgeBase.page_info.get( text_content.strip(), 未知 ) if source_page not in unique_pages: unique_pages.add(source_page) print(f文本塊頁碼: {source_page})3.5 示例總結(jié)PDF文本提取與處理使用PyPDF2庫的PdfReader從PDF文件中提取文本在提取過程中記錄每行文本對應(yīng)的頁碼便于后續(xù)溯源。使用RecursiveCharacterTextSplitter將長文本分割成小塊便于向量化處理。向量數(shù)據(jù)庫構(gòu)建使用OpenAIEmbeddings / DashScopeEmbeddings將文本塊轉(zhuǎn)換為向量表示。使用FAISS向量數(shù)據(jù)庫存儲文本向量支持高效的相似度搜索為每個文本塊保存對應(yīng)的頁碼信息實現(xiàn)查詢結(jié)果溯源。語義搜索與問答鏈基于用戶查詢使用similarity_search在向量數(shù)據(jù)庫中檢索相關(guān)文本塊。使用文本語言模型和load_qa_chain構(gòu)建問答鏈將檢索到的文檔和用戶問題作為輸入生成回答。成本跟蹤與結(jié)果展示使用get_openai_callback跟蹤API調(diào)用成本。展示問答結(jié)果和來源頁碼方便用戶驗證信息。四、LangChain中的問答鏈在LangChain問答鏈中有4種chain\_typechain\_type參數(shù)決定了RAG流程中如何將檢索到的多個相關(guān)文檔塊與用戶的問題組合起來發(fā)送給大模型以生成最終答案。需要根據(jù)應(yīng)用場景選擇不同的chain\_type以保證在效果、成本和速度上的權(quán)衡。1.stuff堆疊式工作原理將所有檢索到的文檔片段直接拼接成一個長上下文與問題一起構(gòu)造 Prompt單次調(diào)用 LLM 生成答案。優(yōu)點實現(xiàn)最簡單、延遲最低 單次LLM調(diào)用成本最低 所有信息同時可見利于全局理解。缺點受限于LLM的最大上下文長度文檔過多或過長時會截斷 若檢索結(jié)果包含噪聲可能干擾生成質(zhì)量。適用場景檢索返回的文檔數(shù)量少、內(nèi)容精煉如chunk_size較小對響應(yīng)速度和成本敏感的輕量級應(yīng)用。2.map_reduce映射-歸約工作原理Map階段對每個文檔chunk獨立構(gòu)造Prompt分別調(diào)用LLM生成中間摘要或回答。 Reduce階段將所有中間結(jié)果合并再次調(diào)用LLM生成最終答案。優(yōu)點可處理超長文檔集合不受單次上下文長度限制 Map階段可并行執(zhí)行提升吞吐率 適合信息分散在多個片段中的場景。缺點至少需要N1次LLM調(diào)用N為文檔數(shù)成本高延遲大 各文檔獨立處理缺乏文檔上下文關(guān)聯(lián)。適用場景檢索結(jié)果較多且分散需要對大量文檔進行綜合歸納如報告生成多源信息整合。3.refine迭代細化在第一個chunk上做prompt得到結(jié)果然后再合并下一個文件再輸出結(jié)果工作原理先用第一個文檔和問題生成初步答案 依次將后續(xù)文檔與當前答案合并逐步“細化”輸出每次更新答案。優(yōu)點能在一定程度上保留跨文檔上下文信息 每次只處理一個新文檔 當前答案Token使用較為可控 最終答案融合了所有文檔的信息流。缺點必須串行處理無法并行延遲較高 早期錯誤可能被累積放大適用場景文檔間存在邏輯遞進或補充關(guān)系需要在有限上下文窗口內(nèi)處理中等數(shù)量文檔 對答案連續(xù)性要求較高。4.map_rerank映射重排序?qū)γ總€chunk做prompt然后打個分然后根據(jù)分數(shù)返回最好的文檔中的結(jié)果。會大量地調(diào)用LLM每個document之間是獨立處理。工作原理對每個文檔獨立構(gòu)造Prompt要求LLM輸出一個答案置信度分數(shù) 根據(jù)分數(shù)排序返回得分最高的答案通常只取Top-1.優(yōu)點能有效過濾低質(zhì)量或無關(guān)文檔 返回的答案來自最相關(guān)片段精準度高。缺點每個文檔都需要調(diào)用一次LLM成本高 不副合多文檔信息僅返回單個最佳答案可能丟失互補信息 依賴LLM對“打分”的一致性部分模型不擅長此任務(wù)。適用場景檢索結(jié)果中存在明顯“最佳匹配”文檔任務(wù)為事實型問答如“XX 的定義是什么” 需要高置信度、簡潔答案而非綜合歸納。5.總結(jié)特性stuffmap_reducerefinemap_rerankLLM調(diào)用次數(shù)1N 1NN速度最快中等最慢慢Token 消耗低高高高處理長文檔能力差好好好答案質(zhì)量高 (上下文完整)中等 (可能丟失關(guān)聯(lián))最高 (迭代細化)取決于最佳塊適用場景默認選擇文檔短文檔多需平衡文檔多要求高精度事實型問題答案在單塊中五、如果LLM可以處理無限上下文RAG還有意義嗎效率成本LLM處理上下文時計算資源消耗大響應(yīng)時間增加。RAG通過檢索相關(guān)片段減少輸入長度。知識更新LLM的知識截止于訓(xùn)練數(shù)據(jù)無法實時更新。RAG可以連接外部知識庫增強時效性??山忉屝訰AG的檢索過程透明用戶可查看來源增強信任。LLM的生成過程則較難追溯。定制化RAG可針對特定領(lǐng)域定制檢索系統(tǒng)提供更精準的結(jié)果而LLM的通用性可能無法滿足特定需求。數(shù)據(jù)隱私RAG允許在本地或私有數(shù)據(jù)源上檢索避免敏感數(shù)據(jù)上傳云端適合隱私要求高的場景。結(jié)合LLM的生成能力和RAG的檢索能力可以提升整體性能提供更全面、準確的回答。想入門 AI 大模型卻找不到清晰方向備考大廠 AI 崗還在四處搜集零散資料別再浪費時間啦2025 年AI 大模型全套學(xué)習(xí)資料已整理完畢從學(xué)習(xí)路線到面試真題從工具教程到行業(yè)報告一站式覆蓋你的所有需求現(xiàn)在全部免費分享掃碼免費領(lǐng)取全部內(nèi)容?一、學(xué)習(xí)必備100本大模型電子書26 份行業(yè)報告 600 套技術(shù)PPT幫你看透 AI 趨勢想了解大模型的行業(yè)動態(tài)、商業(yè)落地案例大模型電子書這份資料幫你站在 “行業(yè)高度” 學(xué) AI1. 100本大模型方向電子書2. 26 份行業(yè)研究報告覆蓋多領(lǐng)域?qū)嵺`與趨勢報告包含阿里、DeepSeek 等權(quán)威機構(gòu)發(fā)布的核心內(nèi)容涵蓋職業(yè)趨勢《AI 職業(yè)趨勢報告》《中國 AI 人才糧倉模型解析》商業(yè)落地《生成式 AI 商業(yè)落地白皮書》《AI Agent 應(yīng)用落地技術(shù)白皮書》領(lǐng)域細分《AGI 在金融領(lǐng)域的應(yīng)用報告》《AI GC 實踐案例集》行業(yè)監(jiān)測《2024 年中國大模型季度監(jiān)測報告》《2025 年中國技術(shù)市場發(fā)展趨勢》。3. 600套技術(shù)大會 PPT聽行業(yè)大咖講實戰(zhàn)PPT 整理自 2024-2025 年熱門技術(shù)大會包含百度、騰訊、字節(jié)等企業(yè)的一線實踐安全方向《端側(cè)大模型的安全建設(shè)》《大模型驅(qū)動安全升級騰訊代碼安全實踐》產(chǎn)品與創(chuàng)新《大模型產(chǎn)品如何創(chuàng)新與創(chuàng)收》《AI 時代的新范式構(gòu)建 AI 產(chǎn)品》多模態(tài)與 Agent《Step-Video 開源模型視頻生成進展》《Agentic RAG 的現(xiàn)在與未來》工程落地《從原型到生產(chǎn)AgentOps 加速字節(jié) AI 應(yīng)用落地》《智能代碼助手 CodeFuse 的架構(gòu)設(shè)計》。二、求職必看大廠 AI 崗面試 “彈藥庫”300 真題 107 道面經(jīng)直接抱走想沖字節(jié)、騰訊、阿里、蔚來等大廠 AI 崗這份面試資料幫你提前 “押題”拒絕臨場慌1. 107 道大廠面經(jīng)覆蓋 Prompt、RAG、大模型應(yīng)用工程師等熱門崗位面經(jīng)整理自 2021-2025 年真實面試場景包含 TPlink、字節(jié)、騰訊、蔚來、蝦皮、中興、科大訊飛、京東等企業(yè)的高頻考題每道題都附帶思路解析2. 102 道 AI 大模型真題直擊大模型核心考點針對大模型專屬考題從概念到實踐全面覆蓋幫你理清底層邏輯3. 97 道 LLMs 真題聚焦大型語言模型高頻問題專門拆解 LLMs 的核心痛點與解決方案比如讓很多人頭疼的 “復(fù)讀機問題”三、路線必明 AI 大模型學(xué)習(xí)路線圖1 張圖理清核心內(nèi)容剛接觸 AI 大模型不知道該從哪學(xué)起這份「AI大模型 學(xué)習(xí)路線圖」直接幫你劃重點不用再盲目摸索路線圖涵蓋 5 大核心板塊從基礎(chǔ)到進階層層遞進一步步帶你從入門到進階從理論到實戰(zhàn)。L1階段:啟航篇丨極速破界AI新時代L1階段了解大模型的基礎(chǔ)知識以及大模型在各個行業(yè)的應(yīng)用和分析學(xué)習(xí)理解大模型的核心原理、關(guān)鍵技術(shù)以及大模型應(yīng)用場景。L2階段攻堅篇丨RAG開發(fā)實戰(zhàn)工坊L2階段AI大模型RAG應(yīng)用開發(fā)工程主要學(xué)習(xí)RAG檢索增強生成包括Naive RAG、Advanced-RAG以及RAG性能評估還有GraphRAG在內(nèi)的多個RAG熱門項目的分析。L3階段躍遷篇丨Agent智能體架構(gòu)設(shè)計L3階段大模型Agent應(yīng)用架構(gòu)進階實現(xiàn)主要學(xué)習(xí)LangChain、 LIamaIndex框架也會學(xué)習(xí)到AutoGPT、 MetaGPT等多Agent系統(tǒng)打造Agent智能體。L4階段精進篇丨模型微調(diào)與私有化部署L4階段大模型的微調(diào)和私有化部署更加深入的探討Transformer架構(gòu)學(xué)習(xí)大模型的微調(diào)技術(shù)利用DeepSpeed、Lamam Factory等工具快速進行模型微調(diào)并通過Ollama、vLLM等推理部署框架實現(xiàn)模型的快速部署。L5階段專題集丨特訓(xùn)篇 【錄播課】四、資料領(lǐng)取全套內(nèi)容免費抱走學(xué) AI 不用再找第二份不管你是 0 基礎(chǔ)想入門 AI 大模型還是有基礎(chǔ)想沖刺大廠、了解行業(yè)趨勢這份資料都能滿足你現(xiàn)在只需按照提示操作就能免費領(lǐng)取掃碼免費領(lǐng)取全部內(nèi)容?2025 年想抓住 AI 大模型的風口別猶豫這份免費資料就是你的 “起跑線”