TOP
0
0
即日起~6/30,暑期閱讀書展,好書7折起
概率深度學習:使用Python、Keras和TensorFlow Probability(簡體書)
滿額折

概率深度學習:使用Python、Keras和TensorFlow Probability(簡體書)

商品資訊

人民幣定價:98 元
定價
:NT$ 588 元
優惠價
87512
領券後再享88折起
庫存:1
可得紅利積點:15 點
相關商品
商品簡介
作者簡介
名人/編輯推薦
目次

商品簡介

主要內容

●探索深度學習的 MLE (maximum likelihood estimation)原理和統計學基礎

●發現能輸出各種可能結果的概率模型

●學習使用標準化流來建模和生成複雜分布

●使用貝葉斯神經網絡獲取模型中的不確定性


作者簡介

Oliver Dürr是德國康斯坦茨應用科學大學的教授,研究方向為數據科學。Beate Sick在蘇黎世應用科技大學擔任應用統計學教授,在蘇黎世大學擔任研究員和講師,在蘇黎世聯邦理工學院擔任講師。Elvis Murina是一名研究科學家,負責本書附帶的大量練習代碼的編寫。

Dürr和Sick都是機器學習和統計方面的專家。他們指導了大量以深度學習為研究方向的學士、碩士和博士論文,並策劃和開展了多門研究生、碩士層次的深度學習課程。三位作者自2013年以來一直從事深度學習方法的研究,在相關教學和概率深度學習模型開發方面都擁有豐富的經驗。


名人/編輯推薦

世界充滿了噪聲和不確定性。概率深度學習模型可對這些噪聲和不確定性進行建模,並將所建的模型應用於現實世界,幫助深度學習工程師評估其結果的準確性、發現錯誤,並加深他們對算法工作原理的理解。這對自動駕駛汽車和科學測試來說至關重要。

《概率深度學習使用Python、 Keras和TensorFlow Probability》 是關於神經網絡原理的實踐指南,引導讀者學習使用不同數據類型的正確分布來提升網絡性能,同時推導貝葉斯變體,以通過表達模型自身的不確定性來提高準確性。本書採用了主流的實現框架,提供了易於應用的代碼,讓讀者更加注重實際應用。


首先非常感謝你購買《概率深度學習:使用 Python、Keras和 TensorFlow Probability》,希望它能幫助你更深入地了解深度學習,同時也希望你能從中得到啟發,把概率深度學習方法很好地應用到工作中。

我們三位作者都是研究統計學出身,於2014年一起開始了深度學習之旅。令人興奮的是,深度學習至今仍是我們職業生涯的中心。深度學習有著廣泛的應用,但我們對深度學習模型與統計學概率方法相結合而得到的強大性能特別關注和著迷。根據我們的經驗,對概率深度學習潛力的深刻理解既需要掌握概率深度學習方法的基本思想和基本原理,又需要具備一定的實踐經驗。為此,《概率深度學習:使用 Python、Keras和 TensorFlow Probability》試圖在兩者之間找到平衡。

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》在討論具體方法之前,通常會給出清晰的思路和典型應用實例,以便於讀者理解。同時,利用隨附的Jupyter notebooks程序文件,你也可以親自動手編程實現《概率深度學習:使用 Python、Keras和 TensorFlow Probability》所討論的所有方法。衷心希望你能從《概率深度學習:使用 Python、Keras和 TensorFlow Probability》中學到盡可能多的知識,如同我們寫這本書時學到的那樣。請愉快閱讀《概率深度學習:使用 Python、Keras和 TensorFlow Probability》,並始終保持好奇心!




關 於 本 書




通過《概率深度學習:使用 Python、Keras和 TensorFlow Probability》,我們希望將深度學習的基礎概率原理介紹給更廣泛的讀者。實質上,在深度學習中,幾乎所有的神經網絡都是概率模型。

這其中有兩個強大的概率原理,它們分別是最大似然和貝葉斯。其中最大似然支配著所有傳統的深度學習方法。將網絡理解為採用最大似然原理訓練得到的概率模型,可以幫助提高網絡性能,就像谷歌從WaveNet提升到WaveNet++時所做的那樣,也可以用來生成令人驚嘆的應用程序,就像OpenAI在Glow(Glow是一個生成逼真人臉圖像的強大網絡)中所做的那樣。當網絡需要表達“我不確定”時,貝葉斯方法就會發揮作用。奇怪的是,傳統的神經網絡無法做到這一點。《概率深度學習:使用 Python、Keras和 TensorFlow Probability》的副標題是“使用Python、Keras和TensorFlow Probability”,它反映了這樣一個事實:你應該親自動手編寫一些代碼。

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》讀者物件

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》是為那些想要了解深度學習的基本概率原理的人編寫的。理想情況下,你最好具有一些深度學習或機器學習方面的基礎,不會抵觸少許的數學和Python代碼。我們不會省去必要的數學推導,同時在代碼中也會包含示例。我們相信將數學與代碼相結合,更能加深你的理解。

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》的組織方式:路線圖

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》分為三部分,共8章。第Ⅰ部分解釋傳統的深度學習(DL)架構以及如何訓練神經網絡。

l 第1章——奠定基礎,引入概率深度學習。

l 第2章——討論網絡結構,介紹全連接神經網絡(fcNN),這是一種通用網絡,還有卷積神經網絡(CNN),這是圖像處理的理想選擇。

l 第3章——展示了神經網絡如何設法擬合數百萬個參數。為了便於理解,我們在最簡單的線性回歸網絡上展示梯度下降和反向傳播。

第Ⅱ部分重點討論概率神經網絡模型。與第Ⅲ部分相反,我們專注於最大似然方法,它們是所有傳統深度學習的背後基礎。

l 第4章——探討最大似然原理,它是機器學習和深度學習的背後基礎。該章中將此原理應用於分類和簡單回歸問題。

l 第5章——介紹TFP概率編程工具箱,一個構建深度概率模型的框架。我們將其用於稍微複雜的回歸問題,如計數數據預測問題。

l 第6章——更複雜的回歸模型處理。最後,解釋如何使用概率模型來掌握複雜分布,比如人臉圖像描述。

第Ⅲ部分介紹貝葉斯神經網絡。貝葉斯神經網絡可對不確定性進行處理。

l 第7章——激發貝葉斯深度學習需求,解釋其基本原理。通過線性回歸簡單示例解釋貝葉斯原理。

l 第8章——說明如何構建貝葉斯神經網絡。該章討論兩種方法,分別是蒙特卡羅(MC)dropout和變分推理。

如果你具有深度學習方面的經驗,可以跳過第Ⅰ部分。此外,第Ⅱ部分的第6章,從第6.3節開始介紹標準化流。這些內容與第Ⅲ部分的相關性不大,對於理解第Ⅲ部分來說,不必閱讀此部分內容。第6.3.5節中的數學運算較為繁雜,所以如果不擅長數學運算,可以跳過它。第8.2.1和8.2.2節也存在同樣的情況。

關於代碼

《概率深度學習:使用 Python、Keras和 TensorFlow Probability》包含許多源代碼示例,它們主要以代碼的形式單獨出現或以代碼加注釋的形式共同出現。但無論哪種情況,源代碼都以等寬體字體格式顯示,以與普通文本進行區分。

代碼示例以Jupyter notebooks文件的形式給出。這些notebooks文件包括附加的注釋,大多數文件還包括一些應該完成的小練習,以便更好地理解《概率深度學習:使用 Python、Keras和 TensorFlow Probability》中介紹的概念。你可以在GitHub網站https://github.com/ tensorchiefs/dl_book/目錄中找到所有相關代碼;也可以直接訪問網站目錄https://tensorchiefs.github.io/dl_book/,在其中找到所有notebooks文件的鏈接;或掃描《概率深度學習:使用 Python、Keras和 TensorFlow Probability》封底的二維碼,下載所有notebooks文件。notebooks文件按章節進行編號,例如nb_ch08_02指的是第8章中的第2個notebook文件。

除了nb_06_05,《概率深度學習:使用 Python、Keras和 TensorFlow Probability》中的所有示例均使用TensorFlow v2.1和TensorFlow Probability v0.8進行調試。描述計算圖的notebook文件nb_ch03_03和nb_ch03_04在TensorFlow v1中更容易理解。對於這些notebooks文件,都提供了兩個TensorFlow版本。由於nb_06_05文件中所需權重僅能由TensorFlow v1版本提供,因此nb_06_05僅適用於TensorFlow v1。

你可以在Google的Colab中或本地直接執行這些notebooks文件。Colab很方便,不必安裝,可以直接使用瀏覽器運行。只需要單擊一個鏈接,便可以在云中調試運行相關代碼。強烈建議你選擇這種方式調試代碼。

TensorFlow仍處於快速發展中,對於幾年後新的TensorFlow版本,我們無法保證現在提供的代碼還能運行。為此,我們提供了一個Docker容器,請參見網站https://github.com oduerr/dl_book_docker/。可以使用它來執行除了nb_06_05,以及TensorFlow1.0版本的nb_ch03_03和nb_ch03_04的所有notebooks文件。如果想在本地執行notebooks文件,則此Docker容器是最佳選擇。


目次

第Ⅰ部分 深度學習基礎

第1章 概率深度學習簡介 3

1.1 概率模型初探 4

1.2 初步了解深度學習 7

1.3 分類 10

1.3.1 傳統圖像分類方法 11

1.3.2 深度學習圖像分類方法 15

1.3.3 非概率分類 17

1.3.4 概率分類 18

1.3.5 貝葉斯概率分類 19

1.4 曲線擬合 21

1.4.1 非概率曲線擬合 21

1.4.2 概率曲線擬合 23

1.4.3 貝葉斯概率曲線擬合 25

1.5 何時使用和何時不使用深度學習 26

1.5.1 不宜使用深度學習的情況 27

1.5.2 適宜使用深度學習的情況 27

1.5.3 何時使用和何時不使用概率模型 28

1.6 你將在本書中學到什麼 28

1.7 小結 29

第2章 神經網絡架構 31

2.1 全連接神經網絡(fcNN) 32

2.1.1 人工神經網絡的生物學原型 33

2.1.2 神經網絡的實現入門 35

2.1.3 使用全連接神經網絡對圖像進行分類 48

2.2 用於圖像類數據的卷積神經網絡 56

2.2.1 卷積神經網絡架構中的主要思想 57

2.2.2 “邊緣愛好者”最小卷積神經網絡 61

2.2.3 卷積神經網絡架構的生物學起源 64

2.2.4 建立和理解卷積神經網絡 66

2.3 用於序列數據的一維卷積神經網絡 72

2.3.1 時序數據格式 73

2.3.2 有序數據有何特別之處 74

2.3.3 時間序列數據網絡架構 75

2.4 小結 77

第3章 曲線擬合原理 79

3.1 曲線擬合中的“Hello World” 81

3.2 梯度下降法 88

3.2.1 具有一個模型自由參數的損失函數 89

3.2.2 具有兩個模型自由參數的損失函數 93

3.3 深度學習中的特殊技巧 98

3.3.1 小批量梯度下降 99

3.3.2 使用隨機梯度下降改進算法來加快學習速度 100

3.3.3 自動微分 100

3.4 深度學習框架中的反向傳播 101

3.4.1 靜態圖框架 102

3.4.2 動態圖框架 112

3.5 小結 114

第Ⅱ部分 概率深度學習模型的最大似然方法

第4章 最大似然定義損失函數 117

4.1 損失函數之母——最大似然原則 118

4.2 分類問題損失函數推導 124

4.2.1 二元分類問題 125

4.2.2 兩個以上類別分類問題 133

4.2.3 負對數似然、交叉熵和K-L散度之間的關係 137

4.3 回歸問題損失函數推導 140

4.3.1 使用無隱藏層、單輸出神經網絡對輸入與輸出的線性關係進行建模 140

4.3.2 採用具有隱藏層的神經網絡對輸入與輸出的非線性關係進行建模 151

4.3.3 採用兩輸出神經網絡對異方差回歸任務進行建模 153

4.4 小結 159

第5章 基於TensorFlow概率編程的概率深度學習模型 161

5.1 不同概率預測模型的評價和比較 165

5.2 TFP概率編程概述 166

5.3 基於TFP概率編程的連續數據建模 171

5.3.1 常量方差線性回歸模型的擬合與評估 172

5.3.2 變方差線性回歸模型的擬合與評估 176

5.4 基於TFP的計數數據建模 182

5.4.1 適用於計數數據的泊松分布 187

5.4.2 擴展泊松分布為零膨脹泊松(ZIP)分布 193

5.5 小結 197

第6章 “野外世界”中的概率深度學習模型 198

6.1 高級深度學習模型中的靈活概率分布 200

6.1.1 多項式分布作為一種靈活分布 201

6.1.2 理解離散邏輯混合 204

6.2 案例研究:巴伐利亞公路傷亡事故 208

6.3 與流同行:標準化流(NF)簡介 210

6.3.1 標準化流的基本原理 212

6.3.2 概率變量變換 215

6.3.3 標準化流模型擬合 222

6.3.4 鏈接流以實現深度變換 224

6.3.5 高維空間變換* 229

6.3.6 流操作的網絡實現 232

6.3.7 有趣的流模型:人臉圖像采樣 239

6.4 小結 245

第Ⅲ部分 概率深度學習模型的貝葉斯方法

第7章 貝葉斯學習 249

7.1 非貝葉斯深度學習的弊端,以房間裡的大象為例 250

7.2 初始貝葉斯方法 255

7.2.1 貝葉斯模型:黑客式 255

7.2.2 我們剛剛做了什麼 260

7.3 貝葉斯概率模型 261

7.3.1 貝葉斯模型訓練和預測 263

7.3.2 投擲硬幣,貝葉斯模型的“Hello World” 270

7.3.3 貝葉斯線性回歸模型回顧 282

7.4 小結 288

第8章 貝葉斯神經網絡 289

8.1 貝葉斯神經網絡概述 291

8.2 變分推理貝葉斯近似 293

8.2.1 深入了解變分推理* 294

8.2.2 變分推理簡單應用* 300

8.3 變分推理TFP實現 309

8.4 蒙特卡羅dropout貝葉斯近似 312

8.4.1 經典dropout訓練方法 313

8.4.2 在訓練和測試過程中採用蒙特卡羅dropout 317

8.5 案例研究 320

8.5.1 回歸中的外推問題 320

8.5.2 分類任務中新類別問題 326

8.6 小結 336

術語和縮寫詞的詞表 337


您曾經瀏覽過的商品

購物須知

大陸出版品因裝訂品質及貨運條件與台灣出版品落差甚大,除封面破損、內頁脫落等較嚴重的狀態,其餘商品將正常出貨。

特別提醒:部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QR CODE 連結至當地網站註冊“並通過驗證程序”,方可下載使用。

無現貨庫存之簡體書,將向海外調貨:
海外有庫存之書籍,等候約45個工作天;
海外無庫存之書籍,平均作業時間約60個工作天,然不保證確定可調到貨,尚請見諒。

為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。

若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。

優惠價:87 512
庫存:1

暢銷榜

客服中心

收藏

會員專區