注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡圖形圖像、多媒體、網頁制作其他處理軟件計算機視覺從入門到進階實戰(zhàn):基于PyTorch

計算機視覺從入門到進階實戰(zhàn):基于PyTorch

計算機視覺從入門到進階實戰(zhàn):基于PyTorch

定 價:¥99.00

作 者: 孫玉林 編著
出版社: 化學工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787122452023 出版時間: 2024-08-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內容簡介

  本書基于PyTorch深度學習框架,結合計算機視覺中的主流任務,介紹了深度學習相關算法的計算機視覺上的應用。本書主要內容分為兩部分。第一部分為PyTorch框架使用的相關知識,以及計算機視覺和深度學習的入門知識。第二部分重點介紹深度學習在計算機視覺上的應用,包括:經典的深度卷積網絡、深度注意力網絡,以及基于自注意力的Transformer系列網絡在圖像分類中的應用;R-CNN系列、YOLO系列、SSD系列目標檢測網絡的算法思想及在目標檢測中的應用;FCN、U-Net等全卷積網絡在圖像語義分割領域的應用;針對風格遷移任務,介紹了快速風格遷移、CycleGan等算法的實戰(zhàn)應用;針對自編碼器和擴散模型,介紹了相關算法在圖像重構、去噪以及生成相關計算機視覺任務中的實戰(zhàn)應用;最后介紹了遷移學習和域自適應的經典算法在跨域計算機視覺圖像分類任務中的應用。本書適合對計算機視覺、深度學習、人工智能、PyTorch使用感興趣的初學者及研究人員自學使用,也可作為高等院校相關專業(yè)的教材及參考書。

作者簡介

  無

圖書目錄

第1章 計算機視覺與深度學習  001
1.1 計算機視覺簡介   002
1.1.1 數(shù)字圖像處理基礎   003
1.1.2 主流計算機視覺任務   008
1.2 深度學習簡介   010
1.2.1 深度學習發(fā)展簡史   010
1.2.2 感知機與人工神經網絡   012
1.2.3 卷積神經網絡   012
1.2.4 循環(huán)神經網絡   013
1.2.5 優(yōu)化算法   014
1.2.6 欠擬合與過擬合   016
1.3 Python與PyTorch安裝   017
1.3.1 安裝Python   017
1.3.2 安裝PyTorch   020
1.3.3 PyTorch核心模塊   021
1.3.4 PyTorch輔組庫   023
1.3.5 其他Python庫   023
1.4 本章小結   025
第2章 PyTorch快速入門  026
2.1 張量Tensor   027
2.1.1 張量的數(shù)據(jù)類型   027
2.1.2 張量的生成   028
2.1.3 張量操作   034
2.1.4 張量計算   041
2.2 torch.nn模塊   047
2.2.1 卷積層   047
2.2.2 池化層   049
2.2.3 填充層   051
2.2.4 激活函數(shù)層   052
2.2.5 歸一化函數(shù)層   053
2.2.6 循環(huán)層   054
2.2.7 全連接層   054
2.2.8 Transformer層   055
2.3 圖像數(shù)據(jù)操作和預處理   055
2.3.1 從datasets模塊中導入數(shù)據(jù)并預處理   057
2.3.2 從文件夾中導入數(shù)據(jù)并進行預處理   058
2.4 優(yōu)化器與損失函數(shù)   060
2.4.1 優(yōu)化器   061
2.4.2 損失函數(shù)   063
2.5 預訓練網絡   065
2.6 GPU部署和使用   067
2.7 本章小結   068
第3章 圖像分類  069
3.1 經典的深度圖像分類網絡   070
3.1.1 LeNet-5網絡   070
3.1.2 AlexNet網絡   071
3.1.3 VGG網絡結構   072
3.1.4 GoogLeNet   073
3.1.5 ResNet網絡   074
3.1.6 DenseNet網絡   076
3.1.7 CLIP模型   078
3.2 卷積神經網絡識別FashionMNIST   080
3.2.1 圖像數(shù)據(jù)準備   081
3.2.2 卷積神經網絡的搭建   083
3.2.3 卷積神經網絡訓練與預測   084
3.3 ResNet網絡預測CIFAR10   089
3.3.1 圖像數(shù)據(jù)準備   090
3.3.2 ResNet網絡搭建   092
3.3.3 ResNet網絡訓練與預測   096
3.4 微調預訓練的卷積網絡   101
3.4.1 微調預訓練的VGG網絡   102
3.4.2 準備新網絡需要的數(shù)據(jù)   104
3.4.3 微調VGG網絡的訓練和預測   106
3.5 卷積網絡可視化   108
3.5.1 網絡中間特征可視化   109
3.5.2 類激活熱力圖可視化   112
3.6 CLIP模型應用   116
3.6.1 CLIP零樣本學習   117
3.6.2 CIFAR10使用CLIP特征分類   118
3.7 本章小結   120
第4章 目標檢測與識別  121
4.1 目標檢測方法   122
4.1.1 目標檢測算法分類   122
4.1.2 目標檢測評價指標   122
4.1.3 目標檢測常用損失函數(shù)   123
4.1.4 錨框與非極大值抑制   125
4.2 經典的目標檢測網絡   126
4.2.1 R-CNN系列網絡   126
4.2.2 YOLO系列網絡   129
4.2.3 SSD系列網絡   132
4.2.4 其他目標檢測網絡   135
4.3 使用預訓練的目標檢測網絡   138
4.3.1 目標檢測常用數(shù)據(jù)集   138
4.3.2 圖像目標檢測   139
4.3.3 人體關鍵點檢測   140
4.4 訓練自己的YOLOv3目標檢測網絡   142
4.4.1 PASCAL VOC數(shù)據(jù)準備   143
4.4.2 YOLOv3網絡搭建   154
4.4.3 YOLOv3網絡訓練   158
4.4.4 YOLOv3目標檢測   163
4.5 本章小結   164
第5章 語義分割  165
5.1 語義分割方法   166
5.2 經典的語義分割網絡   167
5.2.1 FCN   167
5.2.2 SegNet   169
5.2.3 U-Net   169
5.2.4 DeepLab系列   170
5.2.5 PSPNet   172
5.2.6 SAM   172
5.3 使用預訓練的語義分割網絡   173
5.3.1 使用預訓練網絡   173
5.3.2 語義分割評價指標   176
5.4 訓練自己的語義分割網絡   176
5.4.1 數(shù)據(jù)準備   177
5.4.2 FCN語義分割網絡   186
5.4.3 U-Net語義分割網絡   194
5.5 本章小結   201
第6章 注意力機制與Transformer  202
6.1 經典的注意力模型   204
6.1.1 SE-Net   204
6.1.2 SPANet   205
6.1.3 CBAM   206
6.1.4 Transformer   207
6.1.5 ViT   209
6.1.6 Swin Transformer   210
6.2 PyTorch預訓練ViT網絡應用   211
6.2.1 預訓練ViT網絡導入   212
6.2.2 CIFAR100數(shù)據(jù)準備   213
6.2.3 預訓練ViT網絡訓練與預測   214
6.3 ViT網絡圖像分類   218
6.3.1 ViT網絡搭建   220
6.3.2 CIFAR00數(shù)據(jù)準備   224
6.3.3 ViT網絡訓練與預測   226
6.4 本章小結   228
第7章 圖像風格遷移  229
7.1 經典的圖像風格遷移方法   230
7.1.1 固定風格固定內容的風格遷移   231
7.1.2 固定風格任意內容的風格遷移   233
7.1.3 任意風格任意內容的風格遷移   234
7.1.4 基于Gan的圖像風格遷移   236
7.2 固定風格固定內容的風格遷移   239
7.2.1 準備VGG19網絡   239
7.2.2 圖像數(shù)據(jù)準備   240
7.2.3 圖像的輸出特征和Gram矩陣的計算   242
7.2.4 進行圖像風格遷移   244
7.3 固定風格任意內容的風格遷移   247
7.3.1 快速風格遷移網絡準備   247
7.3.2 快速風格遷移數(shù)據(jù)準備   251
7.3.3 快速風格遷移網絡訓練和結果展示   253
7.4 CycleGan風格遷移   260
7.4.1 CycleGan網絡搭建   260
7.4.2 非成對圖像數(shù)據(jù)準備   263
7.4.3 網絡訓練   265
7.4.4 圖像轉換結果展示   270
7.5 本章小結   271
第8章 自編碼器與擴散模型  272
8.1 自編器模型與擴散模型介紹   273
8.1.1 自編碼器原理   273
8.1.2 變分自編碼器   274
8.1.3 VQ-VAE圖像生成   275
8.1.4 Stable Diffusion圖像生成   276
8.2 自編碼器圖像重構   278
8.2.1 自編碼網絡數(shù)據(jù)準備   279
8.2.2 自編碼網絡的構建   281
8.2.3 自編碼網絡的訓練   282
8.2.4 自編碼網絡的數(shù)據(jù)重構   283
8.2.5 網絡的編碼特征可視化   284
8.3 自編碼器圖像去噪   285
8.3.1 數(shù)據(jù)準備   286
8.3.2 網絡搭建   289
8.3.3 網絡訓練與預測   291
8.4 Stable Diffusion圖像生成   296
8.4.1 數(shù)據(jù)準備   296
8.4.2 網絡搭建   298
8.4.3 網絡訓練與預測   310
8.5 本章小結   312
第9章 遷移學習與域自適應  313
9.1 遷移學習簡介   314
9.1.1 遷移學習的定義   314
9.1.2 為什么需要遷移學習   315
9.1.3 遷移學習的分類   316
9.1.4 度量準則   318
9.2 經典的遷移學習算法   319
9.2.1 基于深度遷移的finetune模型   319
9.2.2 基于對抗學習的遷移學習   320
9.2.3 基于對齊的遷移學習   324
9.2.4 基于偽標簽的遷移學習   326
9.2.5 其他遷移學習損失函數(shù)   328
9.3 遷移學習圖像分類實戰(zhàn)   328
9.3.1 數(shù)據(jù)和網絡準備工作   329
9.3.2 基于微調的遷移學習   335
9.3.3 基于對齊的遷移學習   338
9.3.4 基于對抗的遷移學習   343
9.3.5 基于目標域標簽互信息的遷移學習   347
9.4 本章小結   351
參考文獻  352

本目錄推薦

掃描二維碼
Copyright ? 讀書網 ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號