定 價:¥49.80
作 者: | 李軒涯,張暐 |
出版社: | 清華大學出版社 |
叢編項: | |
標 簽: | 暫缺 |
ISBN: | 9787302577164 | 出版時間: | 2021-06-01 | 包裝: | |
開本: | 16開 | 頁數(shù): | 119 | 字數(shù): |
第1章 作為機器學習模型的神經(jīng)網(wǎng)絡
1.1 表示學習
1.2 感知器與神經(jīng)網(wǎng)絡
1.3 使用keras
第2章 神經(jīng)網(wǎng)絡的訓練
2.1 基于梯度的一階優(yōu)化
2.2 基于梯度的二階優(yōu)化
2.3 普通訓練方法的局限
2.4 誤差反向傳播算法的本質
2.5 使用keras
第3章 神經(jīng)網(wǎng)絡的優(yōu)化難題
3.1 局部極小值,鞍點和非凸優(yōu)化
3.2 隨機梯度下降的優(yōu)勢
3.3 梯度方向優(yōu)化
3.4 動態(tài)調整學習率
3.5 使用keras
第4章 神經(jīng)網(wǎng)絡的過擬合
4.1 參數(shù)綁定和提前終止
4.2 數(shù)據(jù)增強和噪聲添加
4.3 Dropout
4.4 使用keras
第5章 神經(jīng)網(wǎng)絡的神經(jīng)單元
5.1 梯度消失和梯度爆炸
5.2 隱藏單元設計原則和sigmoid的非零中心
5.3 基于線性函數(shù)的改進和maxout單元
5.4 使用keras
第6章 神經(jīng)網(wǎng)絡的深度訓練
6.1 預處理和批標準化
6.2 批標準化的不同視角:協(xié)變量偏差和協(xié)調更新
6.3 自歸一化神經(jīng)網(wǎng)絡
6.4 ResNet
6.5 使用keras
第7章 卷積神經(jīng)網(wǎng)絡
7.1 局部連接和權重共享
7.2 卷積操作的重要概念
7.3 卷積核的參數(shù)學習
7.4 基于感受野的三個卷積技巧
7.5 使用keras
第8章 循環(huán)神經(jīng)網(wǎng)絡
8.1 理解循環(huán)結構
8.2 循環(huán)結構的參數(shù)學習
8.3 正交初始化和記憶容量
8.4 理解LSTM
8.5 使用keras
第9章 無監(jiān)督表示學習:自編碼器
9.1 自編碼器
9.2 稀疏自編碼器
9.3 收縮自編碼器
9.4 使用keras
第10章 概率生成模型
10.1 變分自編碼器
10.2 生成對抗網(wǎng)絡
10.3 使用keras
參考文獻