注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能計算機視覺中的深度學(xué)習(xí)

計算機視覺中的深度學(xué)習(xí)

計算機視覺中的深度學(xué)習(xí)

定 價:¥98.00

作 者: 姜竹青 著
出版社: 電子工業(yè)出版社
叢編項:
標 簽: 暫缺

ISBN: 9787121411922 出版時間: 2021-06-01 包裝: 平裝
開本: 16開 頁數(shù): 328 字數(shù):  

內(nèi)容簡介

  人工智能相比于人力而言具有低成本、高效率和全天候等巨大優(yōu)勢,但其發(fā)展往往不能全面滿足實際場景的旺盛需求。近年來人工智能與計算機視覺的結(jié)合日益緊密,基于深度學(xué)習(xí)研究計算機視覺成為一個新方向。深度學(xué)習(xí)的特點是層次化的特征提取、規(guī)模更大、數(shù)據(jù)更多、計算更復(fù)雜。本書從介紹計算機視覺的任務(wù)入手,總結(jié)從傳統(tǒng)手工提取特征方法到深度學(xué)習(xí)的發(fā)展歷程。然后,針對不同層次的計算機視覺任務(wù),結(jié)合作者團隊近年來的研究成果,以及部分學(xué)界公認的里程碑式成果,從理論層面論述深度學(xué)習(xí)在具體計算機視覺任務(wù)中的應(yīng)用。本書作者來自北京郵電大學(xué)長期從事多媒體技術(shù)教學(xué)和研究的一線教師。本書適合從事圖像和視頻的處理和理解的研究人員、相關(guān)領(lǐng)域軟件開發(fā)人員或研究生閱讀。

作者簡介

  姜竹青,博士,加拿大麥吉爾大學(xué)訪問學(xué)者,現(xiàn)任教于北京郵電大學(xué),碩士生導(dǎo)師。主持或主要參與多項機器學(xué)習(xí)相關(guān)的國家自然科學(xué)基金,在國際學(xué)術(shù)會議發(fā)表相關(guān)論文30余篇,并與國家廣播電影電視總局、中國航天科技集團、中國石油天然氣股份有限公司、中國移動通信集團等部委和企業(yè)保持合作關(guān)系。

圖書目錄

目 錄
第1章 計算機視覺及其任務(wù)\t1
1.1 計算機視覺的定義\t1
1.2 計算機視覺的發(fā)展沿革\t1
1.3 計算機視覺的主要任務(wù)及其應(yīng)用\t2
1.3.1 圖像恢復(fù)\t2
1.3.2 圖像識別\t3
1.3.3 動作分析\t4
1.3.4 場景重建\t5
1.3.5 行人再識別\t6
1.4 本章小結(jié)\t7
本章參考文獻\t7
第2章 手工特征\t8
2.1 初級圖像特征\t8
2.1.1 顏色特征\t8
2.1.2 紋理特征\t11
2.1.3 形狀特征\t12
2.2 中級圖像特征\t13
2.2.1 Haar-like特征\t14
2.2.2 SIFT特征\t16
2.2.3 SURF特征\t19
2.3 本章小結(jié)\t21
本章參考文獻\t21
第3章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論\t23
3.1 神經(jīng)元概述\t23
3.1.1 感知器\t23
3.1.2 激活函數(shù)\t24
3.1.3 神經(jīng)元模型\t28
3.2 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)結(jié)構(gòu)\t28
3.2.1 兩層神經(jīng)網(wǎng)絡(luò)模型\t28
3.2.2 前饋神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)\t29
3.2.3 神經(jīng)網(wǎng)絡(luò)中的參數(shù)\t30
3.3 神經(jīng)網(wǎng)絡(luò)訓(xùn)練\t31
3.3.1 權(quán)重初始化\t31
3.3.2 偏置初始化\t32
3.3.3 前向傳播\t32
3.3.4 損失函數(shù)\t32
3.3.5 反向傳播\t33
3.3.6 參數(shù)更新\t35
3.3.7 批歸一化\t37
3.3.8 正則化\t38
3.4 常見的神經(jīng)元模型\t40
3.4.1 空間信息處理單元\t40
3.4.2 時間信息處理單元\t41
3.5 本章小結(jié)\t43
本章參考文獻\t44
第4章 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)\t46
4.1 LENET5\t46
4.2 ALEXNET\t48
4.3 VGGNET\t50
4.4 INCEPTION\t53
4.5 RESNET\t55
4.6 DENSENET\t57
4.7 MOBILENET\t60
4.8 FCN\t63
4.9 本章小結(jié)\t71
本章參考文獻\t71
第5章 目標分割\t73
5.1 目標分割技術(shù)概述\t73
5.1.1 目標分割技術(shù)基本理論與模型\t73
5.1.2 目標分割技術(shù)概述\t74
5.1.3 評價標準\t77
5.2 基于深度學(xué)習(xí)多路徑特征融合的圖像語義分割\t79
5.2.1 特點\t79
5.2.2 基于VGGNet的多路徑特征融合算法\t80
5.2.3 基于ResNet的多路徑特征融合算法\t85
5.3 基于模糊邏輯的多特征視頻運動目標分割\t88
5.3.1 特點\t88
5.3.2 算法\t88
5.3.3 實驗\t96
5.4 目標分割未來趨勢\t98
本章參考文獻\t99
第6章 目標檢測\t102
6.1 目標檢測算法概述\t102
6.1.1 算法概述\t102
6.1.2 評價指標\t104
6.2 傳統(tǒng)目標檢測方法\t106
6.2.1 區(qū)域選擇算法\t106
6.2.2 典型人工圖像特征\t106
6.2.3 分類器類型及訓(xùn)練\t106
6.3 基于候選區(qū)域的目標檢測方法\t110
6.3.1 R-CNN的實現(xiàn)\t110
6.3.2 SPP-net的實現(xiàn)\t111
6.3.3 Fast R-CNN的實現(xiàn)\t112
6.3.4 Faster R-CNN的實現(xiàn)\t113
6.4 基于回歸的目標檢測\t115
6.4.1 YOLO的實現(xiàn)\t115
6.4.2 SSD的實現(xiàn)\t117
6.4.3 YOLOv2的改進\t119
6.5 改進算法拾萃\t122
6.5.1 困難樣本挖掘\t122
6.5.2 YOLOv2損失函數(shù)\t123
6.5.3 基于上下文信息的SSD改進\t124
6.5.4 多特征多尺度融合\t126
6.6 目標檢測未來趨勢\t129
本章參考文獻\t130
第7章 目標跟蹤\t132
7.1 目標跟蹤技術(shù)概述\t132
7.1.1 目標跟蹤算法基本理論與模型\t132
7.1.2 目標跟蹤算法概述\t133
7.1.3 評價標準\t135
7.2 平衡正負樣本權(quán)重的多示例學(xué)習(xí)跟蹤算法\t136
7.2.1 MIL跟蹤算法\t136
7.2.2 平衡正負樣本權(quán)重\t138
7.3 基于核化相關(guān)濾波器的視覺目標跟蹤算法研究與改進\t143
7.3.1 基于相關(guān)濾波器的目標跟蹤算法\t143
7.3.2 自適應(yīng)模板更新的目標跟蹤算法\t150
7.3.3 CNN和相關(guān)濾波結(jié)合的跟蹤算法\t158
7.4 基于中心對比CNN的目標跟蹤算法研究\t169
7.4.1 逐任務(wù)驅(qū)動的CNN目標跟蹤算法\t169
7.4.2 中心對比CNN目標跟蹤算法\t170
7.4.3 小運動優(yōu)先的視覺目標跟蹤算法\t175
7.5 目標跟蹤未來趨勢\t180
本章參考文獻\t180
第8章 行人再識別\t183
8.1 行人再識別技術(shù)概述\t183
8.1.1 行人再識別技術(shù)基本理論與模型\t183
8.1.2 行人再識別技術(shù)簡介\t184
8.1.3 評價標準\t186
8.2 基于ADARANK進行特征集成的行人再識別算法\t188
8.2.1 算法特點\t188
8.2.2 算法細節(jié)\t188
8.2.3 實驗結(jié)果\t200
8.3 基于增強深度特征的行人再識別算法\t206
8.3.1 算法特點\t206
8.3.2 引入注意力機制的網(wǎng)絡(luò)模型\t207
8.3.3 引入手工特征:LOMO特征融合到多級注意力識別―驗證網(wǎng)絡(luò)\t215
8.4 基于屬性和身份特征融合的行人再識別算法\t221
8.4.1 特點\t221
8.4.2 算法\t222
8.4.3 實驗\t230
8.5 行人再識別未來趨勢\t236
本章參考文獻\t237
第9章 圖像壓縮\t242
9.1 有損壓縮和無損壓縮\t242
9.1.1 無損壓縮\t242
9.1.2 有損壓縮\t243
9.2 經(jīng)典的有損圖像壓縮方法\t243
9.2.1 JPEG\t243
9.2.2 JPEG 2000\t243
9.2.3 BPG\t244
9.3 基于深度學(xué)習(xí)的圖像壓縮技術(shù)\t244
9.4 基于空間能量壓縮的圖像壓縮\t244
9.4.1 算法特點\t244
9.4.2 算法細節(jié)\t245
9.4.3 實驗結(jié)果\t249
9.5 利用卷積神經(jīng)網(wǎng)絡(luò)進行內(nèi)容加權(quán)的圖像壓縮\t249
9.5.1 算法特點\t249
9.5.2 算法細節(jié)\t250
9.5.3 實驗結(jié)果\t254
9.6 基于生成式對抗網(wǎng)絡(luò)的圖像壓縮\t255
9.6.1 算法特點\t255
9.6.2 算法細節(jié)\t255
9.6.3 實驗結(jié)果\t257
9.7 圖像壓縮未來趨勢\t257
本章參考文獻\t258
第10章 超分辨率重建\t259
10.1 超分辨率技術(shù)概述\t259
10.1.1 超分辨率技術(shù)的基本理論與模型\t259
10.1.2 超分辨率技術(shù)概述\t261
10.2 基于深度殘差網(wǎng)絡(luò)注意力機制的圖像超分辨率重建\t263
10.2.1 存在的問題\t263
10.2.2 提出的解決方案\t264
10.2.3 具體實現(xiàn)細節(jié)\t264
10.2.4 實驗結(jié)果比較分析\t267
10.3 基于增強的可變形卷積網(wǎng)絡(luò)的視頻超分辨率\t271
10.3.1 視頻超分辨率\t271
10.3.2 存在的問題\t272
10.3.3 針對存在的問題提出的解決方案\t272
10.3.4 具體實現(xiàn)\t274
10.3.5 實驗對比\t277
10.4 真實原始傳感器數(shù)據(jù)的超分辨率重建\t278
10.4.1 存在的問題\t278
10.4.2 針對問題提出的解決方案\t279
10.4.3 具體實現(xiàn)細節(jié)\t279
10.4.4 實驗對比\t281
10.5 超分辨率重建未來趨勢\t283
本章參考文獻\t284
第11章 圖像去噪技術(shù)\t287
11.1 圖像去噪技術(shù)概述\t287
11.1.1 圖像去噪基本理論與模型\t287
11.1.2 圖像去噪算法\t287
11.1.3 評價標準\t292
11.2 去噪卷積神經(jīng)網(wǎng)絡(luò)\t293
11.2.1 算法特點\t293
11.2.2 存在問題\t294
11.2.3 算法細節(jié)\t294
11.2.4 實驗結(jié)果\t295
11.3 盲去噪卷積神經(jīng)網(wǎng)絡(luò)\t299
11.3.1 算法特點\t299
11.3.2 存在問題\t299
11.3.3 算法細節(jié)\t299
11.3.4 實驗\t302
11.4 真實圖像去噪神經(jīng)網(wǎng)絡(luò)\t307
11.4.1 特點\t307
11.4.2 存在問題\t307
11.4.3 算法細節(jié)\t307
11.4.4 實驗\t310
11.4.5 總結(jié)\t312
11.5 圖像去噪未來趨勢\t312
本章參考文獻\t312
附錄A 術(shù)語與縮略詞表\t313

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號