注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡(luò)人工智能TensorFlow深度學習從入門到進階

TensorFlow深度學習從入門到進階

TensorFlow深度學習從入門到進階

定 價:¥109.00

作 者: 張德豐
出版社: 機械工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111652632 出版時間: 2020-05-01 包裝:
開本: 16開 頁數(shù): 376 字數(shù):  

內(nèi)容簡介

  《TensorFlow深度學習從入門到進階》以TensorFlow為主線進行講解,書中每章節(jié)都以理論引出,以TensorFlow應用鞏固結(jié)束,理論與實踐相結(jié)合,讓讀者快速掌握TensorFlow機器學習。《TensorFlow深度學習從入門到進階》共11章,主要包括TensorFlow與深度網(wǎng)絡(luò)、TensorFlow編程基礎(chǔ)、TensorFlow編程進階、線性回歸、邏輯回歸、聚類分析、神經(jīng)網(wǎng)絡(luò)算法、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、其他網(wǎng)絡(luò)、機器學習綜合實戰(zhàn)等內(nèi)容?!禩ensorFlow深度學習從入門到進階》適合TensorFlow初學者閱讀,也適合研究TensorFlow的廣大科研人員、學者、工程技術(shù)人員學習參考。

作者簡介

暫缺《TensorFlow深度學習從入門到進階》作者簡介

圖書目錄

前言

第1章 TensorFlow與深度學習
1.1 深度學習的由來
1.2 語言與系統(tǒng)的支持
1.3 TensorFlow的特點
1.4 核心組件
1.5 TensorFlow的主要依賴包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建環(huán)境
1.6.1 安裝環(huán)境
1.6.2 安裝TensorFlow
1.6.3 安裝測試
1.7 Geany
1.8 揭開深度學習的面紗
1.8.1 人工智能、機器學習與深度學習
1.8.2 深度學習的核心思想
1.8.3 深度學習的應用
1.9 深度學習的優(yōu)劣勢

第2章 TensorFlow編程基礎(chǔ)
2.1 張量
2.1.1 張量的概念
2.1.2 張量的使用
2.1.3 Numpy庫
2.1.4 張量的階
2.1.5 張量的形狀
2.1.6 張量應用實例
2.2 圖的實現(xiàn)
2.3 會話的實現(xiàn)
2.4 認識變量
2.4.1 變量的創(chuàng)建
2.4.2 變量的初始化
2.4.3 變量的更新
2.4.4 變量的保存
2.4.5 變量的加載
2.4.6 共享變量和變量命名空間
2.5 矩陣的操作
2.5.1 矩陣的生成
2.5.2 矩陣的變換
2.6 TensorFlow數(shù)據(jù)讀取的方式
2.7 從磁盤讀取信息
2.7.1 列表格式
2.7.2 讀取圖像數(shù)據(jù)

第3章 TensorFlow編程進階
3.1 隊列與線程
3.1.1 隊列
3.1.2 隊列管理器
3.1.3 線程協(xié)調(diào)器
3.1.4 組合使用
3.2 TensorFlow嵌入Layer
3.3 生成隨機圖片數(shù)據(jù)
3.4 神經(jīng)網(wǎng)絡(luò)
3.4.1 神經(jīng)元
3.4.2 簡單神經(jīng)結(jié)構(gòu)
3.4.3 深度神經(jīng)網(wǎng)絡(luò)
3.5 損失函數(shù)
3.6 梯度下降
3.6.1 標準梯度法
3.6.2 批量梯度下降法
3.6.3 隨機梯度下降法
3.6.4 小批量梯度下降法
3.6.5 線性模型的局限性
3.6.6 直線與曲線的擬合演示
3.7 反向傳播
3.7.1 求導鏈式法則
3.7.2 反向傳播算法思路
3.7.3 反向傳播算法的計算過程
3.7.4 反向傳播演示回歸與二分類算法
3.8 隨機訓練與批量訓練
3.9 創(chuàng)建分類器
3.10 模型評估
3.11 優(yōu)化函數(shù)
3.11.1 隨機梯度下降優(yōu)化算法
3.11.2 基于動量的優(yōu)化算法
3.11.3 Adagrad優(yōu)化算法
3.11.4 Adadelta優(yōu)化算法
3.11.5 Adam優(yōu)化算法
3.11.6 實例演示幾種優(yōu)化算法

第4章 TensorFlow實現(xiàn)線性回歸
4.1 矩陣操作實現(xiàn)線性回歸問題
4.1.1 逆矩陣解決線性回歸問題
4.1.2 矩陣分解法實現(xiàn)線性回歸
4.1.3 正則法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.2 損失函數(shù)對iris數(shù)據(jù)實現(xiàn)回歸分析
4.3 戴明算法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.4 嶺回歸與Lasso回歸對iris數(shù)據(jù)實現(xiàn)回歸分析
4.5 彈性網(wǎng)絡(luò)算法對iris數(shù)據(jù)實現(xiàn)回歸分析

第5章 TensorFlow實現(xiàn)邏輯回歸
5.1 什么是邏輯回歸
5.1.1 邏輯回歸與線性回歸的關(guān)系
5.1.2 邏輯回歸模型的代價函數(shù)
5.1.3 邏輯回歸的預測函數(shù)
5.1.4 判定邊界
5.1.5 隨機梯度下降算法實現(xiàn)邏輯回歸
5.2 逆函數(shù)及其實現(xiàn)
5.2.1 逆函數(shù)的相關(guān)函數(shù)
5.2.2 逆函數(shù)的實現(xiàn)
5.3 Softmax回歸
5.3.1 Softmax回歸簡介
5.3.2 Softmax的代價函數(shù)
5.3.3 Softmax回歸的求解
5.3.4 Softmax回歸的參數(shù)特點
5.3.5 Softmax與邏輯回歸的關(guān)系
5.3.6 多分類算法和二分類算法的選擇
5.3.7 計算機視覺領(lǐng)域?qū)嵗?

第6章 TensorFlow實現(xiàn)聚類分析
6.1 支持向量機及實現(xiàn)
6.1.1 重新審視邏輯回歸
6.1.2 形式化表示
6.1.3 函數(shù)間隔和幾何間隔
6.1.4 最優(yōu)間隔分類器
6.1.5 支持向量機對iris數(shù)據(jù)進行分類
6.1.6 核函數(shù)對數(shù)據(jù)點進行預測
6.1.7 非線性支持向量機創(chuàng)建山鳶尾花分類器
6.1.8 多類支持向量機對iris數(shù)據(jù)進行預測
6.2 K-均值聚類法及實現(xiàn)
6.2.1 K-均值聚類相關(guān)概念
6.2.2 K-均值聚類法對iris數(shù)據(jù)進行聚類
6.3 最近鄰算法及實現(xiàn)
6.3.1 最近鄰算法概述
6.3.2 最近鄰算法求解文本距離
6.3.3 最近鄰算法實現(xiàn)地址匹配

第7章 神經(jīng)網(wǎng)絡(luò)算法
7.1 反向網(wǎng)絡(luò)
7.1.1 問題設(shè)置
7.1.2 反向網(wǎng)絡(luò)算法
7.1.3 自動微分
7.1.4 對隨機數(shù)進行反向網(wǎng)絡(luò)演示
7.2 激勵函數(shù)及實現(xiàn)
7.2.1 激勵函數(shù)的用途
7.2.2 幾種激勵函數(shù)
7.2.3 幾種激勵函數(shù)的繪圖
7.3 門函數(shù)及其實現(xiàn)
7.4 單層神經(jīng)網(wǎng)絡(luò)對iris數(shù)據(jù)進行訓練
7.5 單個神經(jīng)元的擴展及實現(xiàn)
7.6 構(gòu)建多層神經(jīng)網(wǎng)絡(luò)
7.7 實現(xiàn)井字棋

第8章 TensorFlow實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)
8.1 全連接網(wǎng)絡(luò)的局限性
8.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
8.2.1 卷積層
8.2.2 池化層
8.2.3 全連接層
8.3 卷積神經(jīng)網(wǎng)絡(luò)的訓練
8.3.1 求導的鏈式法則
8.3.2 卷積層反向傳播
8.4 卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)
8.4.1 識別0和1數(shù)字
8.4.2 預測MNIST數(shù)字
8.5 幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)及實現(xiàn)
8.5.1 AlexNet網(wǎng)絡(luò)及實現(xiàn)
8.5.2 VGGNet網(wǎng)絡(luò)及實現(xiàn)
8.5.3 Inception Net網(wǎng)絡(luò)及實現(xiàn)
8.5.4 RestNet

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號