注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)教育/教材/教輔教材高職高專教材TensorFlow深度學(xué)習(xí)實(shí)例教程

TensorFlow深度學(xué)習(xí)實(shí)例教程

TensorFlow深度學(xué)習(xí)實(shí)例教程

定 價(jià):¥65.00

作 者: 平震宇,匡亮
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111703655 出版時(shí)間: 2022-12-01 包裝:
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 234 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)按照“強(qiáng)基礎(chǔ)、重應(yīng)用”的原則進(jìn)行編寫(xiě),在內(nèi)容的安排上采用“理論+實(shí)踐”的方式,由淺入深,選取的項(xiàng)目可以讓學(xué)生很快上手。 \n本書(shū)主要包括8個(gè)項(xiàng)目,分別為搭建TensorFlow開(kāi)發(fā)環(huán)境,手寫(xiě)數(shù)字識(shí)別:TensorFlow初探,房?jī)r(jià)預(yù)測(cè):前饋神經(jīng)網(wǎng)絡(luò),服裝圖像識(shí)別:Keras搭建與訓(xùn)練模型,圖像識(shí)別:卷積神經(jīng)網(wǎng)絡(luò),AI詩(shī)人:循環(huán)神經(jīng)網(wǎng)絡(luò),預(yù)測(cè)汽車(chē)油耗效率:TensorFlow.js應(yīng)用開(kāi)發(fā),花卉識(shí)別:TensorFlow Lite。 \n本書(shū)既可以作為高等職業(yè)院校、應(yīng)用型本科院校的計(jì)算機(jī)類、電子信息類、通信類及自動(dòng)化類等專業(yè)的教材,也可以作為各種技能認(rèn)證考試的參考用書(shū),還可以作為相關(guān)技術(shù)人員的參考用書(shū)。 \n \n

作者簡(jiǎn)介

暫缺《TensorFlow深度學(xué)習(xí)實(shí)例教程》作者簡(jiǎn)介

圖書(shū)目錄

前言 \n
二維碼資源清單 \n
項(xiàng)目1 搭建TensorFlow開(kāi)發(fā)環(huán)境1 \n
項(xiàng)目描述1 \n
思維導(dǎo)圖1 \n
項(xiàng)目目標(biāo)1 \n
1.1 人工智能、機(jī)器學(xué)習(xí)與深度學(xué)習(xí)2 \n
1.1.1 人工智能2 \n
1.1.2 機(jī)器學(xué)習(xí)2 \n
1.1.3 深度學(xué)習(xí)4 \n
1.2 深度學(xué)習(xí)簡(jiǎn)介5 \n
1.2.1 深度學(xué)習(xí)發(fā)展簡(jiǎn)史5 \n
1.2.2 深度學(xué)習(xí)的工作原理7 \n
1.2.3 深度學(xué)習(xí)的應(yīng)用9 \n
1.3 任務(wù)1:認(rèn)識(shí)深度學(xué)習(xí)框架13 \n
1.3.1 TensorFlow13 \n
1.3.2 Keras14 \n
1.3.3 PyTorch14 \n
1.3.4 Caffe15 \n
1.3.5 MXNet15 \n
1.3.6 PaddlePaddle16 \n
1.4 任務(wù)2:搭建深度學(xué)習(xí)開(kāi)發(fā)環(huán)境17 \n
1.4.1 安裝Anaconda17 \n
1.4.2 使用Conda管理環(huán)境20 \n
1.4.3 安裝TensorFlow21 \n
1.4.4 常用編輯器22 \n
拓展項(xiàng)目24 \n
項(xiàng)目2 手寫(xiě)數(shù)字識(shí)別:TensorFlow初探26 \n
項(xiàng)目描述26 \n
思維導(dǎo)圖26 \n
項(xiàng)目目標(biāo)26 \n
2.1 TensorFlow架構(gòu)27 \n
2.1.1 TensorFlow架構(gòu)圖27 \n
2.1.2 TensorFlow 1.x和2.0之間的差異28 \n
2.1.3 TensorFlow數(shù)據(jù)流圖29 \n
2.1.4 TensorFlow運(yùn)行機(jī)制31 \n
2.2 任務(wù)1:張量的基本操作32 \n
2.2.1 張量的階、形狀、數(shù)據(jù)類型32 \n
2.2.2 現(xiàn)實(shí)世界中的數(shù)據(jù)張量35 \n
2.2.3 MNIST數(shù)據(jù)集39 \n
2.2.4 索引與切片43 \n
2.2.5 維度變換47 \n
2.2.6 廣播機(jī)制51 \n
2.3 任務(wù)2:張量的進(jìn)階操作54 \n
2.3.1 合并與分割54 \n
2.3.2 大值、小值、均值、和58 \n
2.3.3 張量比較60 \n
2.3.4 張量排序63 \n
2.3.5 張量中提取數(shù)值64 \n
拓展項(xiàng)目65 \n
項(xiàng)目3 房?jī)r(jià)預(yù)測(cè):前饋神經(jīng)網(wǎng)絡(luò)67 \n
項(xiàng)目描述67 \n
思維導(dǎo)圖67 \n
項(xiàng)目目標(biāo)67 \n
3.1 任務(wù)1:實(shí)現(xiàn)一元線性回歸模型68 \n
3.1.1 準(zhǔn)備數(shù)據(jù)69 \n
3.1.2 構(gòu)建模型69 \n
3.1.3 迭代訓(xùn)練70 \n
3.1.4 保存和讀取模型71 \n
3.2 認(rèn)識(shí)神經(jīng)網(wǎng)絡(luò)72 \n
3.2.1 神經(jīng)元72 \n
3.2.2 激活函數(shù)74 \n
3.3 任務(wù)2:房?jī)r(jià)預(yù)測(cè)78 \n
3.3.1 準(zhǔn)備數(shù)據(jù)集79 \n
3.3.2 構(gòu)建模型81 \n
3.3.3 訓(xùn)練模型83 \n
3.4 前饋神經(jīng)網(wǎng)絡(luò)87 \n
3.4.1 前饋神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)87 \n
3.4.2 損失函數(shù)89 \n
3.4.3 反向傳播算法92 \n
3.4.4 梯度下降算法95 \n
拓展項(xiàng)目100 \n
項(xiàng)目4 服裝圖像識(shí)別:Keras搭建與訓(xùn)練模型102 \n
項(xiàng)目描述102 \n
思維導(dǎo)圖102 \n
項(xiàng)目目標(biāo)102 \n
4.1 認(rèn)識(shí)tf.keras103 \n
4.1.1 Keras與tf.keras103 \n
4.1.2 層(Layer)104 \n
4.1.3 模型(Model)106 \n
4.2 任務(wù)1:服裝圖像識(shí)別108 \n
4.2.1 構(gòu)建模型108 \n
4.2.2 訓(xùn)練模型111 \n
4.2.3 評(píng)估模型115 \n
4.3 任務(wù)2:保存與加載模型116 \n
4.3.1 SavedModel方式保存模型117 \n
4.3.2 H5格式保存模型118 \n
4.3.3 檢查點(diǎn)(Checkpoint)格式保存模型119 \n
4.4 任務(wù)3:tf.data優(yōu)化訓(xùn)練數(shù)據(jù)120 \n
4.4.1 訓(xùn)練數(shù)據(jù)輸入模型的方法120 \n
4.4.2 tf.data API121 \n
4.4.3 tf.data.Dataset122 \n
4.5 任務(wù)4:花卉識(shí)別125 \n
4.5.1 下載圖片125 \n
4.5.2 構(gòu)建花卉數(shù)據(jù)集127 \n
4.5.3 構(gòu)建與訓(xùn)練模型129 \n
4.5.4 保存與加載模型130 \n
拓展項(xiàng)目131 \n
項(xiàng)目5 圖像識(shí)別:卷積神經(jīng)網(wǎng)絡(luò)132 \n
項(xiàng)目描述132 \n
思維導(dǎo)圖132 \n
項(xiàng)目目標(biāo)132 \n
5.1 認(rèn)識(shí)卷積神經(jīng)網(wǎng)絡(luò)133 \n
5.1.1 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展歷史133 \n
5.1.2 全連接神經(jīng)網(wǎng)絡(luò)的問(wèn)題134 \n
5.2 卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)135 \n
5.2.1 卷積運(yùn)算135 \n
5.2.2 填充136 \n
5.2.3 步長(zhǎng)137 \n
5.2.4 多輸入通道和多輸出通道138 \n
5.2.5 池化層139 \n
5.3 TensorFlow對(duì)卷積神經(jīng)網(wǎng)絡(luò)的支持140 \n
5.3.1 卷積函數(shù)141 \n
5.3.2 池化函數(shù)144 \n
5.4 任務(wù)1:識(shí)別CIFAR-10圖像145 \n
5.4.1 卷積網(wǎng)絡(luò)的整體結(jié)構(gòu)145 \n
5.4.2 CIFAR-10數(shù)據(jù)集146 \n
5.4.3 構(gòu)造卷積神經(jīng)網(wǎng)絡(luò)模型148 \n
5.4.4 編譯、訓(xùn)練并評(píng)估模型149 \n
5.5 任務(wù)2:搭建經(jīng)典卷積網(wǎng)絡(luò)150 \n
5.5.1 圖像識(shí)別的難題151 \n
5.5.2 AlexNet152 \n
5.5.3 VGG系列154 \n
5.5.4 ResNet156 \n
5.6 任務(wù)3:ResNet實(shí)現(xiàn)圖像識(shí)別158 \n
5.6.1 ResNet模型結(jié)構(gòu)158 \n
5.6.2 BasicBlock類159 \n
5.6.3 搭建ResNet網(wǎng)絡(luò)模型160 \n
5.6.4 加載數(shù)據(jù)集并訓(xùn)練模型162 \n
拓展項(xiàng)目163 \n
項(xiàng)目6 AI詩(shī)人:循環(huán)神經(jīng)網(wǎng)絡(luò)164 \n
項(xiàng)目描述164 \n
思維導(dǎo)圖164 \n
項(xiàng)目目標(biāo)164 \n
6.1 認(rèn)識(shí)循環(huán)神經(jīng)網(wǎng)絡(luò)165 \n
6.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展歷史165 \n
6.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用166 \n
6.1.3 循環(huán)神經(jīng)網(wǎng)絡(luò)的作用166 \n
6.2 任務(wù)1:電影評(píng)論分類167 \n
6.2.1 IMDb數(shù)據(jù)集167 \n
6.2.2 使用全連接神經(jīng)網(wǎng)絡(luò)169 \n
6.2.3 循環(huán)神經(jīng)網(wǎng)絡(luò)典型結(jié)構(gòu)170 \n
6.2.4 SimpleRNNCell使用方法171 \n
6.2.5 RNN分類IMDb數(shù)據(jù)集173 \n
6.2.6 RNN梯度消失176 \n
6.3 任務(wù)2:AI詩(shī)人176 \n
6.3.1 長(zhǎng)短期記憶(LSTM)176 \n
6.3.2 文本生成:AI詩(shī)人178 \n
拓展項(xiàng)目184 \n
項(xiàng)目7 預(yù)測(cè)汽車(chē)油耗效率:TensorFlow.js應(yīng)用開(kāi)發(fā)186 \n
項(xiàng)目描述186 \n
思維導(dǎo)圖186 \n
項(xiàng)目目標(biāo)186 \n
7.1 認(rèn)識(shí)TensorFlow.js187 \n
7.1.1 TensorFlow.js的優(yōu)點(diǎn)187 \n
7.1.2 TensorFlow.js 的核心概念188 \n
7.1.3 TensorFlow.js 環(huán)境配置190 \n
7.2 任務(wù)1:預(yù)測(cè)汽車(chē)油耗效率193 \n
7.2.1 創(chuàng)建主頁(yè)并加載數(shù)據(jù)194 \n
7.2.2 定義模型結(jié)構(gòu)196 \n
7.2.3 數(shù)據(jù)預(yù)處理196 \n
7.2.4 訓(xùn)練與測(cè)試模型197 \n
7.3 任務(wù)2:手寫(xiě)數(shù)字識(shí)別200 \n
7.3.1 從GitHub獲取源碼并運(yùn)行200 \n
7.3.2 創(chuàng)建相關(guān)文件201 \n
7.3.3 定義模型結(jié)構(gòu)203 \n
7.3.4 訓(xùn)練模型206 \n
7.3.5 使用模型進(jìn)行評(píng)估與預(yù)測(cè)208 \n
拓展項(xiàng)目210 \n
項(xiàng)目8 花卉識(shí)別:TensorFlow Lite211 \n
項(xiàng)目描述211 \n
思維導(dǎo)圖211 \n
項(xiàng)目目標(biāo)211 \n
8.1 認(rèn)識(shí)TensorFlow Lite212 \n
8.1.1 TensorFlow Lite發(fā)展歷史212 \n
8.1.2 TensorFlow Lite的應(yīng)用213 \n
8.2 TensorFlow Lite體系結(jié)構(gòu)213 \n
8.2.1 TensorFlow Lite整體架構(gòu)213 \n
8.2.2 TensorFlow Lite轉(zhuǎn)換器214 \n
8.2.3 FlatBuffers格式215 \n
8.2.4 TensorFlow Lite解釋執(zhí)行器215 \n
8.3 任務(wù)1:TensorFlow Lite開(kāi)發(fā)工作流程216 \n
8.3.1 選擇模型216 \n
8.3.2 模型轉(zhuǎn)換218 \n
8.3.3 模型推理219 \n
8.3.4 優(yōu)化模型220 \n
8.4 任務(wù)2:TensorFlow Lite實(shí)現(xiàn)花卉識(shí)別220 \n
8.4.1 選擇模型221 \n
8.4.2 Android部署226 \n
拓展項(xiàng)目233 \n
參考文獻(xiàn) 234 \n

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)