商品簡介
本書主要用Python語言構建CNN,主要關注如何以*佳的方式利用各種Python和深度學習庫(如Keras,TensorFlow和Caffe)來構建真實世界的應用程序。從構建CNN塊開始,基於*佳實踐來指導你實現真實的CNN模型及解決方案。你將學習創建圖像和視頻的創新解決方案,以解決複雜的機器學習和計算機視覺問題。
作者簡介
莫希特‧賽瓦克,IBM的高級認知數據科學家,BITS Pilan的人工智能和計算機科學博士。
目次
前言
關於作者
關於審閱者
第1章 深度神經網絡概述 1
1.1 創建神經網絡塊 1
1.2 TensorFlow介紹 3
1.3 MNIST數據集介紹 10
1.4 Keras深度學習庫概述 14
1.5 基於Keras和MNIST的手寫數字識別 15
1.5.1 訓練和測試數據的檢索 17
1.5.2 訓練數據的可視化 18
1.5.3 創建神經網絡 18
1.5.4 訓練神經網絡 19
1.5.5 測試 19
1.6 理解反向傳播 20
1.7 本章小結 23
第2章 卷積神經網絡介紹 25
2.1 CNN歷史 25
2.2 卷積神經網絡 27
2.2.1 計算機如何解釋圖像 28
2.2.2 編碼實現圖像可視化 29
2.2.3 dropout 31
2.2.4 輸入層 31
2.2.5 卷積層 32
2.2.6 池化層 34
2.3 實踐示例:圖像分類 35
2.4 本章小結 39
第3章 構建CNN並進行性能優化 41
3.1 CNN架構和DNN的缺點 41
3.1.1 卷積操作 44
3.1.2 池化、步長和填充操作 46
3.2 TensorFlow中的卷積和池化操作 48
3.2.1 在TensorFlow中應用池化操作 49
3.2.2 TensorFlow中的卷積操作 51
3.3 訓練CNN 53
3.3.1 初始化權重和偏置 53
3.3.2 正則化 54
3.3.3 激活函數 54
3.4 創建、訓練和評估第一個CNN 56
3.5 模型性能優化 73
3.5.1 隱含層數量 73
3.5.2 每個隱含層的神經元個數 74
3.5.3 批標準化 74
3.5.4 高級正則化及過擬合的避免 76
3.5.5 運用哪個優化器 79
3.5.6 內存調優 79
3.5.7 層的位置調優 80
3.5.8 綜合所有操作創建第二個CNN 80
3.5.9 數據集描述和預處理 80
3.5.10 創建CNN模型 85
3.5.11 訓練和評估網絡 87
3.6 本章小結 90
第4章 經典的CNN模型架構 91
4.1 ImageNet介紹 91
4.2 LeNet 92
4.3 AlexNet架構 93
4.4 VGGNet架構 95
4.5 GoogLeNet架構 97
4.5.1 架構洞察 98
4.5.2 inception模塊 99
4.6 ResNet架構 99
4.7 本章小結 101
第5章 轉移學習 103
5.1 特徵提取方法 103
5.1.1 目標數據集較小且與原始訓練集相似 104
5.1.2 目標數據集較小且與原始訓練集不同 105
5.1.3 目標數據集很大且與原始訓練集相似 107
5.1.4 目標數據集很大且與原始訓練集不同 107
5.2 轉移學習示例 108
5.3 多任務學習 111
5.4 本章小結 111
第6章 CNN自編碼器 113
6.1 自編碼器介紹 113
6.2 卷積自編碼器 114
6.3 應用 115
6.4 本章小結 116
第7章 CNN目標檢測與實例分割 119
7.1 目標檢測與圖像分類的區別 120
7.2 傳統的、非CNN的目標檢測方法 124
7.3 R-CNN:CNN特徵區 128
7.4 Fast R-CNN:基於區域快速識別的CNN 130
7.5 Faster R-CNN:基於快速區域生成網絡的CNN 132
7.6 Mask R-CNN:CNN實例分割 135
7.7 實例分割的代碼實現 137
7.7.1 創建環境 138
7.7.2 準備COCO數據集文件夾結構 139
7.7.3 在COCO數據集上運行預訓練模型 139
7.8 參考文獻 139
7.9 本章小結 141
第8章 GAN:使用CNN生成新圖像 143
8.1 Pix2pix:基於GAN的圖像翻譯 144
8.1.1 CycleGAN 144
8.1.2 訓練GAN模型 145
8.2 GAN的代碼示例 146
8.2.1 計算損失 149
8.2.2 半監督學習和GAN 151
8.3 特徵匹配 152
8.3.1 基於半監督分類的GAN示例 152
8.3.2 深度卷積GAN 158
8.4 本章小結 159
第9章 CNN和視覺模型的注意力機制 161
9.1 圖像描述中的注意力機制 164
9.2 注意力類型 168
9.2.1 硬注意力 168
9.2.2 軟注意力 169
9.3 運用注意力改善視覺模型 170
9.3.1 視覺CNN模型次優性能的原因 171
9.3.2 循環視覺注意力模型 174
9.4 參考文獻 180
9.5 本章小結 181