97色伦色在线综合视频,无玛专区,18videosex性欧美黑色,日韩黄色电影免费在线观看,国产精品伦理一区二区三区,在线视频欧美日韩,亚洲欧美在线中文字幕不卡

企業(yè)手機網(wǎng)站cmswordpress站點獲利

鶴壁市浩天電氣有限公司 2026/01/24 06:57:26
企業(yè)手機網(wǎng)站cms,wordpress站點獲利,建站工具有什么用,深圳做網(wǎng)站建設(shè)比較好的公司對于希望嘗試大模型訓(xùn)練的同學(xué)來說#xff0c;從 LLaMA-Factory 入手是一個非常不錯的選擇#xff01;在實際工作中#xff0c;也經(jīng)常用到 LLaMA-Factory 進行模型訓(xùn)練。用得越多#xff0c;越能體會到它的便捷與高效。尤其值得一提的是#xff0c;LLaMA-Factory 提供了完…對于希望嘗試大模型訓(xùn)練的同學(xué)來說從 LLaMA-Factory 入手是一個非常不錯的選擇在實際工作中也經(jīng)常用到 LLaMA-Factory 進行模型訓(xùn)練。用得越多越能體會到它的便捷與高效。尤其值得一提的是LLaMA-Factory 提供了完整的中文學(xué)習(xí)文檔這對英文閱讀不太熟練的同學(xué)來說真的非常友好01 安裝小編一般喜歡從源碼安裝源碼里面有很多可以參考的文檔~git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e .[torch,metrics]驗證是否安裝成功llamafactory-cli version簡單看一下項目結(jié)構(gòu)其中src核心源碼目錄data主要包含數(shù)據(jù)集配置和示例數(shù)據(jù)dataset_info.json - 數(shù)據(jù)集注冊配置文件定義所有可用數(shù)據(jù)集的元信息示例數(shù)據(jù)集文件 - 包含各種格式的示例數(shù)據(jù)集JSON、JSONL等examples包含各種訓(xùn)練和推理的配置示例文件docker包含不同硬件平臺的 Docker 配置如果看了官方文檔你還是不知道訓(xùn)練數(shù)據(jù)怎么組織你可以去data目錄下面找一找示例數(shù)集文件如果你不知道訓(xùn)練腳本怎么寫你可以去examples目錄下找一找示例腳本02 使用第一步準備好你的數(shù)據(jù)LLaMA-Factory 支持的微調(diào)數(shù)據(jù)格式有AlpacaShareGPTOpenAI預(yù)訓(xùn)練格式和DPO、KTO等強化學(xué)習(xí)的訓(xùn)練格式也支持不同訓(xùn)練方式數(shù)據(jù)格式組織方式也不一樣具體可見官方文檔寫的非常詳細https://llamafactory.readthedocs.io/zh-cn/latest/getting_started/data_preparation.html上面也提到過在LLaMA-Factory項目的data目錄下也給出了一些數(shù)據(jù)文件的例子可供參考~準備好的數(shù)據(jù)文件需要在LLaMA-Factory項目的data目錄下的dataset_info.json文件中增加你的數(shù)據(jù)集說明比如openai的數(shù)據(jù)組織格式如下[ { messages:[ { role:system, content:系統(tǒng)提示詞選填 }, { role:user, content:人類指令 }, { role:assistant, content:模型回答 } ] } ]對于上述格式的數(shù)據(jù)dataset_info.json中需要新增數(shù)據(jù)集描述數(shù)據(jù)集名稱: { file_name: data.json, formatting: sharegpt, columns: { messages: messages }, tags: { role_tag: role, content_tag: content, user_tag: user, assistant_tag: assistant, system_tag: system } }第二步下載好你的訓(xùn)練模型下載預(yù)訓(xùn)練模型到你的路徑下一般我們會從modelscope這個網(wǎng)站上下載非常方便第三步組織訓(xùn)練腳本這里給出了一個參考腳本主要通過deepspeed進行單機多卡訓(xùn)練你需要替換的地方有模型路徑、數(shù)據(jù)集名稱、數(shù)據(jù)集路徑、deepspeed腳本文件位置等其他參數(shù)可按需修改或者添加每個腳本參數(shù)的含義后文已給出相關(guān)解釋nohup deepspeed --include localhost:1,2,3 --master_port 1234 ./src/train.py --stage sft --do_train --deepspeed ./examples/deepspeed/ds_z3_config.json --model_name_or_path YOUR_MODEL_PATH --dataset YOUR_DATASET_NAME --val_size 0.05 --dataset_dir YOUR_DATASET_PATH --template qwen --max_length 4096 --finetuning_type lora --lora_target q_proj,v_proj --lora_rank 8 --lora_alpha 16 --lora_dropout 0.1 --output_dir ${out_dir} --overwrite_cache --overwrite_output_dir --cutoff_len 4096 --mask_history False --per_device_train_batch_size 1 --per_device_eval_batch_size 1 --gradient_accumulation_steps 8 --lr_scheduler_type cosine --logging_steps 5 --save_steps 16 --save_total_limit 3 --learning_rate 5e-5 --num_train_epochs 6 --eval_steps 8 --plot_loss --bf16 --warmup_ratio 0.05 --ddp_find_unused_parameters False --preprocessing_num_workers 16 ${out_dir}/train.log 21 1. 啟動與環(huán)境配置nohup: 在后臺運行命令即使終端關(guān)閉也不會中斷進程。deepspeed: 使用 DeepSpeed 庫進行分布式訓(xùn)練。--include localhost:1,2,3: 指定使用本地的 GPU 設(shè)備編號為 1、2、3 的 GPU。--master_port 1234: 設(shè)置分布式訓(xùn)練的主節(jié)點端口號為 1234。2. 訓(xùn)練腳本入口./src/train.py: 主要的訓(xùn)練腳本路徑llamafactory項目的src目錄下3. 訓(xùn)練任務(wù)配置--stage sft: 訓(xùn)練階段為監(jiān)督微調(diào)Supervised Fine-Tuning。--do_train: 執(zhí)行訓(xùn)練模式。4. DeepSpeed 配置--deepspeed ./examples/deepspeed/ds_z3_config.json: 指定 DeepSpeed 的配置文件路徑ZeRO Stage 3 配置這個配置文件在llamafactory項目的examples目錄下可以找到5. 模型與數(shù)據(jù)配置--model_name_or_path YOUR_MODEL_PATH: 預(yù)訓(xùn)練模型的路徑或 Hugging Face 模型名稱。--dataset YOUR_DATASET_NAME: 使用的數(shù)據(jù)集名稱。--val_size 0.05: 驗證集比例5%。--dataset_dir YOUR_DATASET_PATH: 數(shù)據(jù)集存放的目錄路徑。--template qwen: 使用 Qwen 模型的對話模板格式。--max_length 4096: 輸入序列的最大長度。--cutoff_len 4096: 截斷長度與max_length一致。--mask_history False: 不屏蔽歷史對話內(nèi)容。6. LoRA 參數(shù)配置--finetuning_type lora: 使用 LoRALow-Rank Adaptation進行微調(diào)。--lora_target q_proj,v_proj: 對模型的q_proj查詢投影和v_proj值投影模塊應(yīng)用 LoRA。--lora_rank 8: LoRA 的秩rank為 8。--lora_alpha 16: LoRA 的縮放系數(shù)為 16。--lora_dropout 0.1: LoRA 層的 Dropout 比例為 0.1。7. 訓(xùn)練超參數(shù)--per_device_train_batch_size 1: 每個 GPU 的訓(xùn)練批次大小為 1。--per_device_eval_batch_size 1: 每個 GPU 的驗證批次大小為 1。--gradient_accumulation_steps 8: 梯度累積步數(shù)為 8等效批次大小 批次大小 × 梯度累積步數(shù) × GPU 數(shù)量。--learning_rate 5e-5: 學(xué)習(xí)率為 0.00005。--num_train_epochs 6: 訓(xùn)練 epoch 數(shù)為 6。--lr_scheduler_type cosine: 使用余弦學(xué)習(xí)率調(diào)度器。--warmup_ratio 0.05: 學(xué)習(xí)率預(yù)熱步數(shù)占總訓(xùn)練步數(shù)的 5%。8. 訓(xùn)練過程管理--output_dir ${out_dir}: 模型和日志的輸出目錄。--overwrite_cache: 覆蓋已有的緩存文件。--overwrite_output_dir: 覆蓋輸出目錄如果已存在。--logging_steps 5: 每 5 步記錄一次日志。--save_steps 16: 每 16 步保存一次模型。--save_total_limit 3: 最多保留 3 個模型檢查點舊的會被刪除。--eval_steps 8: 每 8 步進行一次驗證。--plot_loss: 繪制損失曲線。--preprocessing_num_workers 16: 使用 16 個進程進行數(shù)據(jù)預(yù)處理。9. 硬件與性能優(yōu)化--bf16: 使用 BF16 混合精度訓(xùn)練適合 NVIDIA Ampere GPU。--ddp_find_unused_parameters False: 禁用 DDP 中未使用參數(shù)的檢測節(jié)省內(nèi)存可能適用于某些模型。10. 日志重定向 ${out_dir}/train.log 21 : 將標準輸出和錯誤輸出重定向到train.log文件并在后臺運行第四步訓(xùn)練與查看運行上述腳本即可啟動訓(xùn)練訓(xùn)練完成后在你文件保存的目錄下除了有模型文件還有兩個loss文件training_eval_loss.pngtraining_loss.png通過loss文件可以查看模型訓(xùn)練效果第五步模型推理如果你是lora訓(xùn)練推理之前還需要進行模型合并合并腳本merge_config.yaml如下### examples/merge_lora/llama3_lora_sft.yaml ### model model_name_or_path: meta-llama/Meta-Llama-3-8B-Instruct adapter_name_or_path: saves/llama3-8b/lora/sft template: llama3 finetuning_type: lora ### export export_dir: models/llama3_lora_sft export_size: 2 export_device: cpu export_legacy_format: false通過llamafactory-cli export merge_config.yaml指令運行即可得到合并之后的模型模型推理這里就不再過多贅述有任何問題歡迎評論區(qū)留言交流Good good studyday day up想入門 AI 大模型卻找不到清晰方向備考大廠 AI 崗還在四處搜集零散資料別再浪費時間啦2025 年AI 大模型全套學(xué)習(xí)資料已整理完畢從學(xué)習(xí)路線到面試真題從工具教程到行業(yè)報告一站式覆蓋你的所有需求現(xiàn)在全部免費分享掃碼免費領(lǐng)取全部內(nèi)容?一、學(xué)習(xí)必備100本大模型電子書26 份行業(yè)報告 600 套技術(shù)PPT幫你看透 AI 趨勢想了解大模型的行業(yè)動態(tài)、商業(yè)落地案例大模型電子書這份資料幫你站在 “行業(yè)高度” 學(xué) AI1. 100本大模型方向電子書2. 26 份行業(yè)研究報告覆蓋多領(lǐng)域?qū)嵺`與趨勢報告包含阿里、DeepSeek 等權(quán)威機構(gòu)發(fā)布的核心內(nèi)容涵蓋職業(yè)趨勢《AI 職業(yè)趨勢報告》《中國 AI 人才糧倉模型解析》商業(yè)落地《生成式 AI 商業(yè)落地白皮書》《AI Agent 應(yīng)用落地技術(shù)白皮書》領(lǐng)域細分《AGI 在金融領(lǐng)域的應(yīng)用報告》《AI GC 實踐案例集》行業(yè)監(jiān)測《2024 年中國大模型季度監(jiān)測報告》《2025 年中國技術(shù)市場發(fā)展趨勢》。3. 600套技術(shù)大會 PPT聽行業(yè)大咖講實戰(zhàn)PPT 整理自 2024-2025 年熱門技術(shù)大會包含百度、騰訊、字節(jié)等企業(yè)的一線實踐安全方向《端側(cè)大模型的安全建設(shè)》《大模型驅(qū)動安全升級騰訊代碼安全實踐》產(chǎn)品與創(chuàng)新《大模型產(chǎn)品如何創(chuàng)新與創(chuàng)收》《AI 時代的新范式構(gòu)建 AI 產(chǎn)品》多模態(tài)與 Agent《Step-Video 開源模型視頻生成進展》《Agentic RAG 的現(xiàn)在與未來》工程落地《從原型到生產(chǎn)AgentOps 加速字節(jié) AI 應(yīng)用落地》《智能代碼助手 CodeFuse 的架構(gòu)設(shè)計》。二、求職必看大廠 AI 崗面試 “彈藥庫”300 真題 107 道面經(jīng)直接抱走想沖字節(jié)、騰訊、阿里、蔚來等大廠 AI 崗這份面試資料幫你提前 “押題”拒絕臨場慌1. 107 道大廠面經(jīng)覆蓋 Prompt、RAG、大模型應(yīng)用工程師等熱門崗位面經(jīng)整理自 2021-2025 年真實面試場景包含 TPlink、字節(jié)、騰訊、蔚來、蝦皮、中興、科大訊飛、京東等企業(yè)的高頻考題每道題都附帶思路解析2. 102 道 AI 大模型真題直擊大模型核心考點針對大模型專屬考題從概念到實踐全面覆蓋幫你理清底層邏輯3. 97 道 LLMs 真題聚焦大型語言模型高頻問題專門拆解 LLMs 的核心痛點與解決方案比如讓很多人頭疼的 “復(fù)讀機問題”三、路線必明 AI 大模型學(xué)習(xí)路線圖1 張圖理清核心內(nèi)容剛接觸 AI 大模型不知道該從哪學(xué)起這份「AI大模型 學(xué)習(xí)路線圖」直接幫你劃重點不用再盲目摸索路線圖涵蓋 5 大核心板塊從基礎(chǔ)到進階層層遞進一步步帶你從入門到進階從理論到實戰(zhàn)。L1階段:啟航篇丨極速破界AI新時代L1階段了解大模型的基礎(chǔ)知識以及大模型在各個行業(yè)的應(yīng)用和分析學(xué)習(xí)理解大模型的核心原理、關(guān)鍵技術(shù)以及大模型應(yīng)用場景。L2階段攻堅篇丨RAG開發(fā)實戰(zhàn)工坊L2階段AI大模型RAG應(yīng)用開發(fā)工程主要學(xué)習(xí)RAG檢索增強生成包括Naive RAG、Advanced-RAG以及RAG性能評估還有GraphRAG在內(nèi)的多個RAG熱門項目的分析。L3階段躍遷篇丨Agent智能體架構(gòu)設(shè)計L3階段大模型Agent應(yīng)用架構(gòu)進階實現(xiàn)主要學(xué)習(xí)LangChain、 LIamaIndex框架也會學(xué)習(xí)到AutoGPT、 MetaGPT等多Agent系統(tǒng)打造Agent智能體。L4階段精進篇丨模型微調(diào)與私有化部署L4階段大模型的微調(diào)和私有化部署更加深入的探討Transformer架構(gòu)學(xué)習(xí)大模型的微調(diào)技術(shù)利用DeepSpeed、Lamam Factory等工具快速進行模型微調(diào)并通過Ollama、vLLM等推理部署框架實現(xiàn)模型的快速部署。L5階段專題集丨特訓(xùn)篇 【錄播課】四、資料領(lǐng)取全套內(nèi)容免費抱走學(xué) AI 不用再找第二份不管你是 0 基礎(chǔ)想入門 AI 大模型還是有基礎(chǔ)想沖刺大廠、了解行業(yè)趨勢這份資料都能滿足你現(xiàn)在只需按照提示操作就能免費領(lǐng)取掃碼免費領(lǐng)取全部內(nèi)容?2025 年想抓住 AI 大模型的風口別猶豫這份免費資料就是你的 “起跑線”
版權(quán)聲明: 本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請聯(lián)系我們進行投訴反饋,一經(jīng)查實,立即刪除!

做網(wǎng)站需要掌握的技術(shù)wordpress模板論壇

做網(wǎng)站需要掌握的技術(shù),wordpress模板論壇,山東網(wǎng)站建設(shè)運行工資,iframe 一直網(wǎng)站底部未來綠色移動云計算的資源管理 1. 引言 移動云計算的出現(xiàn)是為了滿足移動設(shè)備對外部處理能力的需求。

2026/01/21 19:35:01

新建網(wǎng)站如何被搜索平面設(shè)計網(wǎng)課推薦

新建網(wǎng)站如何被搜索,平面設(shè)計網(wǎng)課推薦,騰訊郵箱網(wǎng)頁版登錄入口,學(xué)室內(nèi)設(shè)計后悔了Electron應(yīng)用性能優(yōu)化#xff1a;從架構(gòu)瓶頸到極致體驗的實戰(zhàn)指南 【免費下載鏈接】xray An experime

2026/01/22 21:50:01