注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能機(jī)器視覺(jué)之TensorFlow 2:入門(mén)、原理與應(yīng)用實(shí)戰(zhàn)

機(jī)器視覺(jué)之TensorFlow 2:入門(mén)、原理與應(yīng)用實(shí)戰(zhàn)

機(jī)器視覺(jué)之TensorFlow 2:入門(mén)、原理與應(yīng)用實(shí)戰(zhàn)

定 價(jià):¥118.00

作 者: 李金洪 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787115539090 出版時(shí)間: 2020-08-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 331 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)主要介紹了TensorFlow 2在機(jī)器視覺(jué)中的應(yīng)用。本書(shū)共8章,主要內(nèi)容包括神經(jīng)網(wǎng)絡(luò)的原理,如何搭建開(kāi)發(fā)環(huán)境,如何在網(wǎng)絡(luò)側(cè)搭建圖片分類器,如何識(shí)別圖片中不同膚色的人數(shù),如何用遷移學(xué)習(xí)診斷醫(yī)療影像,如何使用Anchor-Free模型檢測(cè)文字,如何實(shí)現(xiàn)OCR模型,如何優(yōu)化OCR模型。本書(shū)適合機(jī)器視覺(jué)、深度學(xué)習(xí)方面的專業(yè)人士閱讀。

作者簡(jiǎn)介

  李金洪,代碼醫(yī)生工作室高級(jí)工程師,大蛇智能網(wǎng)站創(chuàng)始人,精通C、C++、匯編、Python、Java、Go等語(yǔ)言,擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)、算法、協(xié)議分析、移動(dòng)互聯(lián)網(wǎng)安全架構(gòu)等技術(shù),先后擔(dān)任過(guò)CAD算法工程師、手機(jī)架構(gòu)師、項(xiàng)目經(jīng)理、首席技術(shù)官、部門(mén)經(jīng)理、資深產(chǎn)品總監(jiān)等職位。在深度學(xué)習(xí)領(lǐng)域中參與過(guò)某移動(dòng)互聯(lián)網(wǎng)后臺(tái)的光學(xué)字符識(shí)別項(xiàng)目、某娛樂(lè)節(jié)目機(jī)器人的語(yǔ)音識(shí)別和聲紋識(shí)別項(xiàng)目及金融領(lǐng)域的若干分類項(xiàng)目。發(fā)布過(guò)兩套關(guān)于CNTK深度學(xué)習(xí)框架的視頻教程。

圖書(shū)目錄

第 一篇基礎(chǔ)知識(shí)
第 1章 神經(jīng)網(wǎng)絡(luò)的原理/3
1.1 神經(jīng)網(wǎng)絡(luò)/4
1.1.1 神經(jīng)元的結(jié)構(gòu)/4
1.1.2 生物神經(jīng)元與計(jì)算機(jī)中神經(jīng)元模型結(jié)構(gòu)的相似性/6
1.1.3 生物神經(jīng)元與計(jì)算機(jī)神經(jīng)元模型工作流程的相似性/6
1.1.4 神經(jīng)網(wǎng)絡(luò)的形成/6
1.2 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系/7
1.3 全連接神經(jīng)網(wǎng)絡(luò)/7
1.3.1 全連接神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)/7
1.3.2 實(shí)例分析:全連接神經(jīng)網(wǎng)絡(luò)中每個(gè)神經(jīng)元的作用/8
1.3.3 全連接神經(jīng)網(wǎng)絡(luò)的擬合原理/10
1.3.4 全連接神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)思想/10
1.4 生物界的視覺(jué)處理系統(tǒng)/11
1.4.1 大腦對(duì)視覺(jué)信號(hào)的處理流程 /11
1.4.2 大腦對(duì)神經(jīng)信號(hào)的分級(jí)處理 /12
1.5 離散微積分/12
1.5.1 離散微分與離散積分/12
1.5.2 計(jì)算機(jī)視覺(jué)中的離散積分/13
1.6 卷積神經(jīng)網(wǎng)絡(luò)/13
1.6.1 卷積的過(guò)程/14
1.6.2 1D卷積、2D卷積和3D卷積/14
1.6.3 實(shí)例分析:Sobel算子的原理/15
1.6.4 深度神經(jīng)網(wǎng)絡(luò)中的卷積核/17
1.6.5 反卷積/18
1.7 卷積分/18
1.8 卷積神經(jīng)網(wǎng)絡(luò)與全連接神經(jīng)網(wǎng)絡(luò)的關(guān)系/19
第 2章 搭建開(kāi)發(fā)環(huán)境/21
2.1 準(zhǔn)備硬件環(huán)境/22
2.2 下載及安裝Anaconda/22
2.2.1 下載Anaconda開(kāi)發(fā)工具/22
2.2.2 安裝Anaconda開(kāi)發(fā)工具/23
2.2.3 安裝Anaconda開(kāi)發(fā)工具時(shí)的注意事項(xiàng)/23
2.3 使用Anaconda安裝TensorFlow/24
2.3.1 查看TensorFlow的版本/24
2.3.2 使用Anaconda 安裝TensorFlow/24
2.3.3 TensorFlow的安裝指南/25
2.4 測(cè)試顯卡及開(kāi)發(fā)環(huán)境的一些常用命令/25
2.4.1 使用nvidia-smi命令查看顯卡 信息/25
2.4.2 nvidia-smi命令失效的解決 辦法/26
2.4.3 查看CUDA 的版本/27
2.4.4 查看cuDNN 的版本/27
2.4.5 用代碼測(cè)試安裝環(huán)境/28
2.5 使用Python虛環(huán)境實(shí)現(xiàn)多個(gè) TensorFlow版本共存/28
2.5.1 查看當(dāng)前的Python虛環(huán)境及Python版本/28
2.5.2 創(chuàng)建Python虛環(huán)境/29
2.5.3 在Python虛環(huán)境中安裝TensorFlow 1.x版本/31
2.5.4 進(jìn)行界面配置/31
2.5.5 使用PyCharm編輯器切換虛環(huán)境/33
2.6 安裝Docker/35
2.6.1 Docker簡(jiǎn)介/35
2.6.2 在Dabian系列的Linux系統(tǒng)中安裝Docker/35
2.6.3 在Red Had系列的Linux系統(tǒng)中安裝Docker/36
2.6.4 安裝NVIDIA Docker/38
2.7 安裝TF_Serving模塊/38
2.7.1 在Linux系統(tǒng)中使用apt-get命令安裝TF_Serving模塊/38
2.7.2 在Linux系統(tǒng)中使用Docker安裝TF_Serving模塊/39
第3章 在網(wǎng)絡(luò)側(cè)搭建圖片分類器/41
3.1基礎(chǔ)概念/42
3.1.1 ResNet50模型與殘差網(wǎng)絡(luò)/42
3.1.2 tf.keras接口/43
3.2 代碼環(huán)境及模型準(zhǔn)備/44
3.2.1 獲取預(yù)訓(xùn)練模型/44
3.2.2 在本地進(jìn)行模型部署/45
3.3 代碼實(shí)現(xiàn):用ResNet50模型識(shí)別圖片所屬類別/45
3.4 使用模型時(shí)如何預(yù)處理輸入圖片/48
3.4.1 最近鄰法/48
3.4.2 調(diào)整圖片尺寸的其他方法/48
3.4.3 數(shù)據(jù)預(yù)處理在模型應(yīng)用中的重要性/49
3.4.4 ImgNet中預(yù)訓(xùn)練模型的數(shù)據(jù)預(yù)處理方法/49
3.5 代碼實(shí)現(xiàn):將模型導(dǎo)出為支持部署的凍結(jié)圖/50
3.5.1 saved_model的用法/50
3.5.2 調(diào)用saved_model模塊為模型添加簽名并保存/50
3.5.3 運(yùn)行代碼并生成凍結(jié)圖/51
3.6 在服務(wù)器上部署分類器模型/52
3.6.1 指定模型的版本號(hào)/52
3.6.2 啟動(dòng)服務(wù)容器/52
3.6.3 關(guān)閉網(wǎng)絡(luò)側(cè)服務(wù)的方法/53
3.7 代碼實(shí)現(xiàn):構(gòu)建URL請(qǐng)求客戶端/54
3.8 網(wǎng)絡(luò)側(cè)的分類應(yīng)用/55
3.9 擴(kuò)展:使用更多預(yù)訓(xùn)練模型進(jìn)行部署/56
3.9.1 VGG模型/56
3.9.2 Inception模型/56
3.9.3 DenseNet模型/57
3.9.4 PNASNet模型/57
3.9.5 EfficientNet模型/58
3.9.6主流卷積模型的通用結(jié)構(gòu)/60
第二篇中級(jí)應(yīng)用
第4章 識(shí)別圖片中不同膚色的人數(shù)/63
4.1 安裝實(shí)例所依賴的模塊/64
4.1.1 安裝opencv-python模塊/64
4.1.2 安裝face_recognition模塊/64
4.1.3 安裝imageio模塊/65
4.1.4 安裝tqdm模塊/65
4.2 編寫(xiě)爬蟲(chóng)程序并收集樣本/65
4.2.1 設(shè)計(jì)爬蟲(chóng)程序/65
4.2.2 代碼實(shí)現(xiàn):定義爬蟲(chóng)類/66
4.2.3 代碼實(shí)現(xiàn):用爬蟲(chóng)爬取圖片/69
4.3 加工樣本/70
4.3.1 提取人臉信息的具體步驟/70
4.3.2 代碼實(shí)現(xiàn):將裁剪圖片加工成訓(xùn)練樣本/70
4.4 將樣本載入數(shù)據(jù)集/72
4.4.1 tf.data.Dataset接口/72
4.4.2 tf.data.Dataset接口支持的數(shù)據(jù)集變換操作/72
4.4.3 代碼實(shí)現(xiàn):構(gòu)建數(shù)據(jù)集/77
4.5 tf.keras接口的使用/79
4.5.1 調(diào)用函數(shù)式API的模式/79
4.5.2 構(gòu)建子類的模式/83
4.5.3 其他模式及總結(jié)/86
4.6 深度卷積神經(jīng)網(wǎng)絡(luò)/86
4.6.1 深度卷積神經(jīng)網(wǎng)絡(luò)的組成/87
4.6.2 卷積運(yùn)算/87
4.6.3 池化運(yùn)算/88
4.6.4 激活函數(shù)ReLU及相關(guān)的變體函數(shù)/89
4.7 構(gòu)建網(wǎng)絡(luò)模型/91
4.7.1 設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)/92
4.7.2 Dropout層的實(shí)現(xiàn)與原理/92
4.7.3 Softmax算法及其原理/93
4.7.4 常用的損失算法/94
4.7.5 代碼實(shí)現(xiàn):用tf.keras接口搭建卷積神經(jīng)網(wǎng)絡(luò)/95
4.7.6 代碼實(shí)現(xiàn):定義網(wǎng)絡(luò)模型的訓(xùn)練接口/97
4.7.7 代碼實(shí)現(xiàn):可視化模型結(jié)構(gòu)/98
4.8 使用模型/101
4.8.1 代碼實(shí)現(xiàn):使用模型對(duì)圖片進(jìn)行識(shí)別/101
4.8.2 代碼實(shí)現(xiàn):使用模型對(duì)實(shí)時(shí)視頻流進(jìn)行識(shí)別/102
4.8.3 在Linux系統(tǒng)中調(diào)用攝像頭并使用模型/104
4.9 卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法/106
4.9.1 批量歸一化/106
4.9.2 更好的激活函數(shù)/106
4.9.3 更好的Dropout方法/108
4.9.4 更好的網(wǎng)絡(luò)結(jié)構(gòu)/110
4.9.5 更好的卷積核/111
4.9.6 卷積核的分解技巧/114
4.9.7 可分離深度卷積/115
4.9.8 空洞卷積/115
4.10 練習(xí)題/116
第5章 用遷移學(xué)習(xí)診斷醫(yī)療影像/117
5.1 處理樣本/118
5.1.1 醫(yī)療影像的文件格式/118
5.1.2 ChestX-ray14數(shù)據(jù)集/119
5.1.3 在實(shí)例中部署數(shù)據(jù)集/121
5.1.4 數(shù)據(jù)增強(qiáng)/121
5.1.5 用tf.keras接口進(jìn)行數(shù)據(jù)增強(qiáng)的方法/123
5.1.6 代碼實(shí)現(xiàn):創(chuàng)建用于數(shù)據(jù)增強(qiáng)的圖像生成器/125
5.1.7 應(yīng)用圖像生成器的方法/126
5.1.8 代碼實(shí)現(xiàn):在數(shù)據(jù)集上應(yīng)用圖像生成器/129
5.2 分類任務(wù)與樣本均衡/134
5.2.1 二分類任務(wù)/134
5.2.2 互斥多分類任務(wù)與互斥分類任務(wù)/134
5.2.3 非互斥分類任務(wù)/134
5.2.4 訓(xùn)練過(guò)程中的樣本均衡問(wèn)題/134
5.2.5 代碼實(shí)現(xiàn):為ChestX-ray14 數(shù)據(jù)集進(jìn)行樣本均衡/135
5.3 遷移訓(xùn)練CheXNet模型/137
5.3.1 遷移訓(xùn)練/137
5.3.2 CheXNet模型/137
5.3.3 下載DenseNet121預(yù)訓(xùn)練模型/139
5.3.4 代碼實(shí)現(xiàn):用tf.keras接口搭建預(yù)訓(xùn)練模型/139
5.3.5 代碼實(shí)現(xiàn):構(gòu)建模型/141
5.4 編譯模型/141
5.4.1 優(yōu)化器的種類與選取/141
5.4.2 tf.keras接口中的損失函數(shù)/143
5.4.3 學(xué)習(xí)率與退化學(xué)習(xí)率的設(shè)置/143
5.4.4 評(píng)估函數(shù)的設(shè)置/144
5.4.5 代碼實(shí)現(xiàn):為模型添加自定義評(píng)估接口/145
5.4.6 代碼實(shí)現(xiàn):編譯模型/147
5.5 tf.keras接口中訓(xùn)練模型的方法/148
5.5.1 fit方法的使用/148
5.5.2 fit_generator方法的使用/149
5.6 tf.keras訓(xùn)練模型中的Callbacks方法/150
5.6.1 輸出訓(xùn)練過(guò)程中的指定數(shù)據(jù)/151
5.6.2 將訓(xùn)練過(guò)程中的指定數(shù)據(jù)輸出到TensorBoard上/151
5.6.3 保存訓(xùn)練過(guò)程中的檢查點(diǎn)文件/151
5.6.4 設(shè)置訓(xùn)練模型的早停功能/152
5.6.5 設(shè)置退化學(xué)習(xí)率/152
5.6.6 自定義Callbacks方法/152
5.7 添加回調(diào)函數(shù)并訓(xùn)練模型/153
5.7.1 代碼實(shí)現(xiàn):添加檢查點(diǎn)回調(diào)函數(shù)/153
5.7.2 代碼實(shí)現(xiàn):添加退化學(xué)習(xí)率回調(diào)函數(shù)/153
5.7.3 代碼實(shí)現(xiàn):訓(xùn)練模型并可視化訓(xùn)練過(guò)程/154
5.8 使用基于梯度定位的深度網(wǎng)絡(luò)可視化方法顯示病灶區(qū)域/156
5.8.1 Grad-CAM方法/156
5.8.2 代碼實(shí)現(xiàn):計(jì)算病灶區(qū)域/158
5.9 擴(kuò)展實(shí)例:多模型融合/161
5.9.1 多模型融合/161
5.9.2 使用八度卷積來(lái)替換模型中的普通卷積/162
5.9.3 使用隨機(jī)數(shù)據(jù)增強(qiáng)方法訓(xùn)練模型/164
5.9.4 使用AdvProp方法訓(xùn)練模型/164
5.9.5 使用自訓(xùn)練框架Noisy Student訓(xùn)練模型/166
5.9.6 關(guān)于更多訓(xùn)練方法的展望/167
5.10 在衣服數(shù)據(jù)集上處理多標(biāo)簽非互斥分類任務(wù)/167
第三篇高級(jí)應(yīng)用
第6章 用Anchor-Free模型檢測(cè)
文字/173
6.1 基于圖片內(nèi)容的處理任務(wù)/174
6.1.1 目標(biāo)識(shí)別任務(wù)/174
6.1.2 圖片分割任務(wù)/174
6.1.3 Anchor-Free模型/175
6.1.4 非極大值抑制算法/176
6.1.5 FCOS模型/176
6.1.6 focal loss算法/177
6.1.7 CornerNet與CornerNet-Lite模型/178
6.1.8 CenterNet模型/179
6.1.9 高斯核函數(shù)/179
6.1.10 Matrix Net模型/182
6.1.11 目標(biāo)檢測(cè)中的上采樣與下采樣/183
6.1.12 卷積運(yùn)算與補(bǔ)零間的關(guān)系/183
6.2 處理樣本/184
6.2.1 樣本/184
6.2.2 代碼實(shí)現(xiàn):用tf.data.Dataset接口開(kāi)發(fā)版本兼容的數(shù)據(jù)集/185
6.2.3 代碼實(shí)現(xiàn):為尺寸調(diào)整后的樣本圖片同步標(biāo)注坐標(biāo)/192
6.2.4 代碼實(shí)現(xiàn):將標(biāo)簽改為“中心點(diǎn)、高、寬”的形式/195
6.3 構(gòu)建堆疊式沙漏網(wǎng)絡(luò)模型/198
6.3.1 沙漏網(wǎng)絡(luò)模型/198
6.3.2 代碼實(shí)現(xiàn): 構(gòu)建沙漏網(wǎng)絡(luò)模型的基礎(chǔ)結(jié)構(gòu)/200
6.3.3 代碼實(shí)現(xiàn): 構(gòu)建沙漏網(wǎng)絡(luò)模型的前置結(jié)構(gòu)/201
6.3.4 代碼實(shí)現(xiàn): 構(gòu)建沙漏網(wǎng)絡(luò)模型的主體結(jié)構(gòu)/203
6.3.5 代碼實(shí)現(xiàn): 搭建堆疊式沙漏網(wǎng)絡(luò)模型/206
6.3.6 代碼實(shí)現(xiàn): 對(duì)沙漏網(wǎng)絡(luò)模型進(jìn)行單元測(cè)試/207
6.4 構(gòu)建CenterNet模型類/208
6.4.1 代碼實(shí)現(xiàn): 定義CenterNet模型類并實(shí)現(xiàn)初始化方法/208
6.4.2 代碼實(shí)現(xiàn): 定義模型的輸入節(jié)點(diǎn)/209
6.4.3 代碼實(shí)現(xiàn): 構(gòu)建模型的網(wǎng)絡(luò)結(jié)構(gòu)/211
6.4.4 代碼實(shí)現(xiàn): 計(jì)算模型的損失值/215
6.4.5 高斯核半徑的計(jì)算/220
6.4.6 代碼實(shí)現(xiàn): 實(shí)現(xiàn)CenterNet模型類的訓(xùn)練/222
6.5 訓(xùn)練模型/224
6.5.1 代碼實(shí)現(xiàn): 構(gòu)建數(shù)據(jù)集/224
6.5.2 代碼實(shí)現(xiàn): 實(shí)例化MyCenterNet類并加載權(quán)重參數(shù)/225
6.5.3 代碼實(shí)現(xiàn): 訓(xùn)練模型并保存最優(yōu)結(jié)果/226
6.6 使用模型/228
6.6.1 代碼實(shí)現(xiàn): 實(shí)例化MyCenterNet類/228
6.6.2 代碼實(shí)現(xiàn): 讀取圖片并預(yù)測(cè)/229
6.7 模型開(kāi)發(fā)過(guò)程中的經(jīng)驗(yàn)與技巧/230
6.7.1 如何用tf.data.Dataset接口返回變長(zhǎng)的批次樣本數(shù)據(jù)/230
6.7.2 在模型訓(xùn)練過(guò)程中處理?yè)p失值為None的思路/231
6.7.3 實(shí)例分析:由于計(jì)算方法的問(wèn)題,引起損失值為None/232
6.7.4 使用tf.data.Dataset接口對(duì)齊填充時(shí)的注意事項(xiàng)/233
6.7.5 實(shí)例分析:由于模型輸出的問(wèn)題,引起損失值為None/233
6.7.6 實(shí)例分析:由于學(xué)習(xí)率過(guò)大,引起損失值為None/234
6.7.7 歸一化權(quán)重設(shè)置不當(dāng)會(huì)使模型停止收斂/235
6.7.8 實(shí)例分析:歸一化權(quán)重設(shè)置不當(dāng)會(huì)使模型停止收斂/235
6.7.9 退化學(xué)習(xí)率使用不當(dāng)會(huì)使模型停止收斂/236
6.7.10 如何避免模型在預(yù)測(cè)和訓(xùn)練時(shí)處理的樣本相同卻得到不同的結(jié)果/237
6.7.11 實(shí)例分析:用模型檢測(cè)相同的數(shù)據(jù)卻得出不同的結(jié)果/237
6.7.12 常用的帶補(bǔ)零的卷積運(yùn)算/238
6.7.13 使用更好的骨干網(wǎng)模型Res2Net/239
6.8 擴(kuò)展:對(duì)漢字進(jìn)行區(qū)域檢測(cè)/240
6.9 練習(xí)題/240
第7章 實(shí)現(xiàn)OCR模型——可以從圖片中識(shí)別出文字的模型/241
7.1實(shí)例:用CNN模型識(shí)別驗(yàn)證碼/242
7.1.1 樣本/242
7.1.2 代碼實(shí)現(xiàn):生成自定義字體的驗(yàn)證碼/242
7.1.3 代碼實(shí)現(xiàn):構(gòu)建輸入數(shù)據(jù)集/243
7.1.4 模型的設(shè)計(jì)思路/244
7.1.5 代碼實(shí)現(xiàn):搭建卷積網(wǎng)絡(luò)模型/244
7.1.6 代碼實(shí)現(xiàn):搭建多分類輸出層/246
7.1.7 訓(xùn)練模型并輸出結(jié)果/247
7.1.8 原理分析:輸出層的每個(gè)分類是否可以與字符序列對(duì)應(yīng)/247
7.1.9 練習(xí)題:可視化分類器的關(guān)注區(qū)域/248
7.2 通用OCR的實(shí)現(xiàn)原理/250
7.3 文字檢測(cè)的相關(guān)技術(shù)/251
7.4 文字識(shí)別的相關(guān)技術(shù)/252
7.5 實(shí)例:用CRNN模型識(shí)別圖片中的 變長(zhǎng)文字/252
7.5.1 制作樣本/253
7.5.2 代碼實(shí)現(xiàn):用tf.data.Dataset接口開(kāi)發(fā)版本兼容的數(shù)據(jù)集/253
7.5.3 CRNN中的RNN/259
7.5.4 代碼實(shí)現(xiàn):構(gòu)建CRNN模型/259
7.5.5 CTC算法與損失計(jì)算/264
7.5.6 代碼實(shí)現(xiàn):實(shí)現(xiàn)損失計(jì)算函數(shù)/265
7.5.7 代碼實(shí)現(xiàn):實(shí)現(xiàn)自定義Callbacks類并重新計(jì)算損失值/266
7.5.8 代碼實(shí)現(xiàn):訓(xùn)練CRNN模型/267
7.5.9 代碼實(shí)現(xiàn):使用CRNN模型進(jìn)行預(yù)測(cè)/270
7.6 開(kāi)發(fā)模型過(guò)程中的經(jīng)驗(yàn)與技巧/272
7.6.1 在下采樣操作中盡可能用步長(zhǎng)為2的操作代替池化/272
7.6.2 實(shí)例驗(yàn)證:全尺寸卷積與全連接完全一樣/273
7.6.3 批量歸一化與激活函數(shù)的位置關(guān)系/274
7.6.4 在神經(jīng)網(wǎng)絡(luò)模型中是否有必要操作Dropout層/277
7.6.5 實(shí)例分析:應(yīng)該將圖片歸 一 化到[0,1]區(qū)間還是[-1,1]區(qū)間/278
7.6.6 用tf.keras接口編寫(xiě)組合模型時(shí)容易犯的錯(cuò)誤/279
7.6.7 開(kāi)發(fā)含CTC算法的代碼的注意事項(xiàng)/282
7.6.8 在使用相同數(shù)據(jù)集的情況下訓(xùn)練過(guò)程的損失值和驗(yàn)證過(guò)程的損失值不同/282
7.6.9 實(shí)例驗(yàn)證:訓(xùn)練時(shí)優(yōu)化器的選?。?83
第8章 優(yōu)化OCR模型——基于卷積網(wǎng)絡(luò)和循環(huán)網(wǎng)絡(luò)的優(yōu)化/285
8.1 優(yōu)化OCR模型中的圖像特征處理部分/286
8.1.1 提升深度卷積神經(jīng)網(wǎng)絡(luò)魯棒性的思路/286
8.1.2 STN模型/286
8.1.3 STN模型的原理分析/287
8.2 實(shí)例:用STN實(shí)現(xiàn)MNIST數(shù)據(jù)集的仿射變換/288
8.2.1 樣本/288
8.2.2 代碼實(shí)現(xiàn):構(gòu)建STN層/288
8.2.3 代碼實(shí)現(xiàn):測(cè)試STNtransformer類/294
8.2.4 代碼實(shí)現(xiàn):制作DataSet/297
8.2.5 獨(dú)立組件層的原理/298
8.2.6 代碼實(shí)現(xiàn):搭建應(yīng)用ReNorm算法的IC層/299
8.2.7 ReNorm算法的原理/299
8.2.8 代碼實(shí)現(xiàn):搭建有STN層的卷積模型/300
8.2.9 代碼實(shí)現(xiàn):訓(xùn)練STN模型/302
8.2.10 代碼實(shí)現(xiàn):使用模型進(jìn)行預(yù)測(cè)并顯示STN層的結(jié)果/303
8.3 實(shí)例:用STN層優(yōu)化OCR模型/305
8.3.1 帶STN層的CRNN模型的結(jié)構(gòu)/305
8.3.2 代碼實(shí)現(xiàn):搭建有STN層的CRNN模型/306
8.3.3 代碼實(shí)現(xiàn):訓(xùn)練模型并輸出結(jié)果/307
8.3.4 優(yōu)化步驟1:使損失不變的模型發(fā)生收斂/308
8.3.5 優(yōu)化步驟2:消除模型在訓(xùn)練和預(yù)測(cè)相同數(shù)據(jù)時(shí)的效果差異/310
8.3.6 擴(kuò)展:廣義的STN/313
8.4 對(duì)OCR網(wǎng)絡(luò)中的序列生成部分進(jìn)行優(yōu)化/315
8.4.1 多頭注意力與自注意力機(jī)制/315
8.4.2 用多頭自注意力機(jī)制模型替換RNN模型/316
8.4.3 用注意力機(jī)制改善RNN模型/318
8.4.4 用seq2seq框架改善輸出序列/321
8.4.5 Addons模塊/322
8.4.6 使用反向序列/322
8.5 擴(kuò)展實(shí)例:用控制點(diǎn)校正的方法優(yōu)化OCR網(wǎng)絡(luò)/323
8.5.1 代碼實(shí)現(xiàn): 搭建有控制點(diǎn)校正的STN模型/324
8.5.2 控制點(diǎn)在模型預(yù)測(cè)中的效果/325
8.5.3 ASTER模型/326
8.6 開(kāi)發(fā)模型的經(jīng)驗(yàn)與技巧/327
8.6.1 相關(guān)函數(shù)/327
8.6.2 防范手動(dòng)初始化權(quán)重的陷阱/329
8.6.3 測(cè)試模型泛化能力過(guò)程中的注意事項(xiàng)/331
8.6.4 使用Mish激活函數(shù)與Ranger優(yōu)化器進(jìn)一步提升性能/331

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)