97色伦色在线综合视频,无玛专区,18videosex性欧美黑色,日韩黄色电影免费在线观看,国产精品伦理一区二区三区,在线视频欧美日韩,亚洲欧美在线中文字幕不卡

成都建設(shè)網(wǎng)站哪家好wordpress 增加js

鶴壁市浩天電氣有限公司 2026/01/24 17:57:36
成都建設(shè)網(wǎng)站哪家好,wordpress 增加js,網(wǎng)站制作 服務(wù)器 系統(tǒng),wordpress添加單頁前言#xff1a;AI如何學(xué)會“看”世界#xff1f; 想象一下#xff0c;你正在教一個外星人認(rèn)識貓。你不會從量子物理開始講起#xff0c;而是指著圖片說#xff1a;“看#xff0c;這是貓——有胡須、尖耳朵、毛茸茸的?!本矸e神經(jīng)網(wǎng)絡(luò)#xff08;CNN#xff09;的學(xué)習(xí)…前言AI如何學(xué)會“看”世界想象一下你正在教一個外星人認(rèn)識貓。你不會從量子物理開始講起而是指著圖片說“看這是貓——有胡須、尖耳朵、毛茸茸的?!本矸e神經(jīng)網(wǎng)絡(luò)CNN的學(xué)習(xí)過程也是如此直觀第一章為什么需要CNN—— 全連接網(wǎng)絡(luò)的“近視眼”問題1.1 圖像識別的原始困境假設(shè)你要識別一張100×100像素的貓圖片傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的做法把圖像拉直成10,000個像素點100×100每個像素點都連接到下一層的每個神經(jīng)元產(chǎn)生數(shù)百萬甚至數(shù)千萬個連接參數(shù)這就像讓你通過記住每個像素的顏色來認(rèn)人而不是記住面部特征。三大致命缺陷參數(shù)爆炸稍微大點的圖片就難以處理位置敏感貓移動幾個像素就認(rèn)不出來了忽略結(jié)構(gòu)完全無視像素之間的空間關(guān)系1.2 生物學(xué)啟示人類視覺的工作原理1981年諾貝爾醫(yī)學(xué)獎得主Hubel和Wiesel發(fā)現(xiàn)大腦視覺皮層有簡單細(xì)胞檢測邊緣和復(fù)雜細(xì)胞檢測更復(fù)雜模式視覺信息是分層處理的CNN正是受此啟發(fā)而誕生第二章CNN的核心思想——三把“利器”2.1 利器一局部感受野Local Receptive Fields通俗理解不要一眼看全圖而是用“小窗口”掃描# 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)每個神經(jīng)元看全圖傳統(tǒng)神經(jīng)元盯著整張圖片看# CNN神經(jīng)元每個神經(jīng)元只看一小塊CNN神經(jīng)元拿著放大鏡每次只看圖片的一小部分實際效果第一個神經(jīng)元看左上角第二個神經(jīng)元看右上角一點點偏移以此類推覆蓋整張圖片2.2 利器二權(quán)值共享Weight Sharing天才之處同一個特征檢測器全圖通用舉個例子如果你有一個“垂直邊緣檢測器”無論垂直邊緣出現(xiàn)在圖片的哪個位置都用同一個檢測器去識別。# 傳統(tǒng)網(wǎng)絡(luò)每個位置學(xué)不同的檢測器傳統(tǒng)方式需要學(xué)習(xí)10000個不同的“垂直邊緣檢測器”每個位置一個# CNN只需學(xué)習(xí)1個檢測器全圖共享CNN方式只學(xué)1個“垂直邊緣檢測器”在整張圖上滑動使用參數(shù)減少量從百萬級降到百級2.3 利器三池化Pooling目的讓網(wǎng)絡(luò)“抓大放小”關(guān)注主要特征兩種常見池化最大池化取窗口內(nèi)最大值保留最顯著特征平均池化取窗口內(nèi)平均值更平滑# 池化前4×4區(qū)域[[1,3,2,1],[2,9,1,2],[1,3,2,1],[2,2,1,4]]# 2×2最大池化后取每個2×2塊的最大值[[9,2],[3,4]]池化的好處減少計算量增加平移不變性物體稍微移動仍能識別防止過擬合第三章CNN的完整工作流程——五層“理解階梯”讓我們跟隨一張貓圖片通過CNN的每一層處理第1層卷積層 —— 尋找“邊緣和輪廓”輸入貓的彩色圖片 操作用多個不同的“特征檢測器”掃描 輸出發(fā)現(xiàn)“這里有豎邊”“這里有橫邊”“這里顏色突變”第2層激活層 —— 決定“哪些特征重要”ReLU函數(shù)f(x) max(0, x)負(fù)數(shù) → 0不重要正數(shù) → 保留重要為什么需要激活函數(shù)沒有激活函數(shù)多層網(wǎng)絡(luò)會退化為單層網(wǎng)絡(luò)第3層池化層 —— 濃縮“關(guān)鍵信息”“這張圖里重要的是這個區(qū)域有條明顯的邊緣具體在哪里不重要”第4層更多卷積層 —— 組合成“復(fù)雜特征”從“邊緣”到“形狀”到“部件”邊緣 → 角點 → 貓耳朵輪廓 → 貓耳朵第5層全連接層 —— 做出“最終判斷”“根據(jù)這些特征胡須尖耳朵毛茸茸85%概率是貓”第四章用Python親手“搭建”CNN4.1 環(huán)境準(zhǔn)備# 安裝必要的庫在命令行中運行# pip install torch torchvision matplotlib numpy4.2 完整代碼示例識別手寫數(shù)字importtorchimporttorch.nnasnnimporttorch.optimasoptimimporttorchvisionimporttorchvision.transformsastransformsimportmatplotlib.pyplotasplt# 1. 定義我們的CNN模型classSimpleCNN(nn.Module):def__init__(self):super(SimpleCNN,self).__init__()# 第一層卷積1個輸入通道黑白圖16個輸出通道3×3卷積核self.conv1nn.Conv2d(1,16,3,padding1)# 第二層卷積16個輸入通道32個輸出通道self.conv2nn.Conv2d(16,32,3,padding1)# 最大池化層self.poolnn.MaxPool2d(2,2)# 全連接層self.fc1nn.Linear(32*7*7,128)# 經(jīng)過兩次池化28×28變成7×7self.fc2nn.Linear(128,10)# 10個數(shù)字0-9# Dropout防止過擬合self.dropoutnn.Dropout(0.25)defforward(self,x):# 卷積 - 激活 - 池化xself.pool(torch.relu(self.conv1(x)))# 28×28 - 14×14xself.pool(torch.relu(self.conv2(x)))# 14×14 - 7×7# 展平xx.view(-1,32*7*7)# 全連接層xself.dropout(x)xtorch.relu(self.fc1(x))xself.dropout(x)xself.fc2(x)returnx# 2. 加載數(shù)據(jù)transformtransforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,),(0.5,))])train_datasettorchvision.datasets.MNIST(root./data,trainTrue,downloadTrue,transformtransform)train_loadertorch.utils.data.DataLoader(train_dataset,batch_size64,shuffleTrue)# 3. 創(chuàng)建模型和優(yōu)化器modelSimpleCNN()criterionnn.CrossEntropyLoss()optimizeroptim.Adam(model.parameters(),lr0.001)# 4. 訓(xùn)練函數(shù)deftrain_model(epochs5):forepochinrange(epochs):running_loss0.0fori,datainenumerate(train_loader,0):inputs,labelsdata# 清零梯度optimizer.zero_grad()# 前向傳播outputsmodel(inputs)# 計算損失losscriterion(outputs,labels)# 反向傳播loss.backward()# 更新參數(shù)optimizer.step()running_lossloss.item()ifi%10099:print(fEpoch{epoch1}, Batch{i1}, Loss:{running_loss/100:.3f})running_loss0.0# 5. 開始訓(xùn)練print(開始訓(xùn)練CNN模型...)train_model(epochs3)print(訓(xùn)練完成)# 6. 測試模型test_datasettorchvision.datasets.MNIST(root./data,trainFalse,downloadTrue,transformtransform)test_loadertorch.utils.data.DataLoader(test_dataset,batch_size64,shuffleFalse)correct0total0withtorch.no_grad():fordataintest_loader:images,labelsdata outputsmodel(images)_,predictedtorch.max(outputs.data,1)totallabels.size(0)correct(predictedlabels).sum().item()print(f測試準(zhǔn)確率:{100*correct/total:.2f}%)4.3 可視化理解看看CNN到底學(xué)了什么# 查看第一個卷積層的權(quán)重weightsmodel.conv1.weight.data# 可視化16個3×3的卷積核fig,axesplt.subplots(4,4,figsize(10,10))fori,axinenumerate(axes.flat):# 顯示第i個卷積核ax.imshow(weights[i][0],cmapgray)ax.set_title(fFilter{i1})ax.axis(off)plt.suptitle(第一層卷積核的可視化)plt.show()第五章CNN的進(jìn)化史——五大里程碑5.1 LeNet-51998—— CNN的誕生貢獻(xiàn)首次成功應(yīng)用于銀行手寫支票識別特點2個卷積層 3個全連接層準(zhǔn)確率MNIST數(shù)據(jù)集上99%5.2 AlexNet2012—— 深度學(xué)習(xí)的“寒武紀(jì)大爆發(fā)”歷史時刻ImageNet競賽中錯誤率從26%降至15%創(chuàng)新使用ReLU激活函數(shù)訓(xùn)練速度加快6倍使用Dropout防止過擬合首次在GPU上訓(xùn)練大型CNN5.3 VGGNet2014—— 簡潔的力量核心理念堆疊3×3小卷積核代替大卷積核結(jié)構(gòu)16-19層非常規(guī)整名言“越深越好”但需要仔細(xì)初始化5.4 GoogLeNet2014—— Inception模塊創(chuàng)新Inception模塊多尺度并行處理特點22層但參數(shù)只有AlexNet的1/12思想“讓網(wǎng)絡(luò)自己決定用什么尺度的卷積核”5.5 ResNet2015—— 超越人類水平突破殘差連接解決梯度消失問題深度可訓(xùn)練152層甚至1000層的網(wǎng)絡(luò)成就ImageNet錯誤率3.57%人類約5.1%第六章CNN的現(xiàn)代應(yīng)用——不止于“看”6.1 計算機視覺的四大任務(wù)圖像分類這是什么目標(biāo)檢測有什么在哪里語義分割每個像素是什么實例分割每個物體實例是什么6.2 超越視覺CNN的跨界應(yīng)用醫(yī)學(xué)肺癌篩查準(zhǔn)確率94%超過放射科醫(yī)生農(nóng)業(yè)作物病害識別手機拍照即可診斷天文尋找系外行星已發(fā)現(xiàn)數(shù)百顆游戲AlphaGo的部分視覺處理自然語言處理文本分類、情感分析6.3 最新進(jìn)展注意力機制讓CNN學(xué)會“聚焦”重要區(qū)域神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索讓AI設(shè)計更好的CNN輕量化網(wǎng)絡(luò)MobileNet、ShuffleNet可在手機上運行第七章學(xué)習(xí)路線圖——從小白到專家階段一基礎(chǔ)理解1-2周理解卷積、池化的基本概念跑通MNIST手寫數(shù)字識別示例可視化卷積核理解特征提取階段二實戰(zhàn)應(yīng)用1個月使用預(yù)訓(xùn)練模型ResNet、VGG嘗試遷移學(xué)習(xí)用少量數(shù)據(jù)訓(xùn)練參加Kaggle入門競賽如貓狗分類階段三深入原理2-3個月閱讀經(jīng)典論文AlexNet、ResNet理解反向傳播在CNN中的實現(xiàn)從零實現(xiàn)CNN不用深度學(xué)習(xí)框架階段四前沿探索持續(xù)學(xué)習(xí)注意力機制探索3D CNN視頻處理了解生成對抗網(wǎng)絡(luò)GAN結(jié)語CNN的哲學(xué)啟示卷積神經(jīng)網(wǎng)絡(luò)不僅是一項技術(shù)更是一種思維方式局部到整體復(fù)雜問題可以分解共享與復(fù)用好的模式處處適用分層抽象從細(xì)節(jié)到概念逐級理解適應(yīng)不變性核心特征不受表面變化影響最后的話12年前AlexNet的誕生開啟了深度學(xué)習(xí)革命。今天CNN已成為AI的“標(biāo)配視覺系統(tǒng)”。但故事遠(yuǎn)未結(jié)束——當(dāng)注意力機制、Transformer等新架構(gòu)出現(xiàn)CNN也在不斷進(jìn)化。記住最好的學(xué)習(xí)方式是動手實踐。運行上面的代碼修改參數(shù)觀察效果。__
版權(quán)聲明: 本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請聯(lián)系我們進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

網(wǎng)站源模板wordpress 全文搜索

網(wǎng)站源模板,wordpress 全文搜索,音樂網(wǎng)頁設(shè)計素材,30_10_鄭州網(wǎng)站制作LocalVocal#xff1a;打造專屬語音識別助手的完整指南 【免費下載鏈接】obs-localvocal OB

2026/01/22 23:14:01

專業(yè)做包裝的電商網(wǎng)站seo網(wǎng)絡(luò)推廣公司

專業(yè)做包裝的電商網(wǎng)站,seo網(wǎng)絡(luò)推廣公司,施工企業(yè)質(zhì)量發(fā)展規(guī)劃,仿美團版網(wǎng)站開發(fā)制作Langchain-Chatchat v0.2.8 新特性深度解析#xff1a;從實驗到生產(chǎn)的跨越 在企業(yè)智能化轉(zhuǎn)型

2026/01/23 14:00:01

正規(guī)投資軟件app哪個好東莞seo

正規(guī)投資軟件app哪個好,東莞seo,網(wǎng)站開發(fā)公司臻動,網(wǎng)站建設(shè)網(wǎng)上消費算在年費創(chuàng)建ASP.NET Web表單:從基礎(chǔ)到數(shù)據(jù)綁定的全面指南 1. Web表單生命周期 Web表單的生命周期包含多個關(guān)

2026/01/21 15:45:01