TOP
0
0
母親節暖心加碼,點我領取「限時加碼券」
數學傳播季刊184第四十六卷第四期
滿額折

數學傳播季刊184第四十六卷第四期

商品資訊

定價
:NT$ 80 元
領券後再享88折起
團購優惠券B
8本以上且滿1500元
再享89折,單本省下9元
庫存:4
可得紅利積點:2 點
相關商品
商品簡介
目次

商品簡介

1997 年,IBM 的 Deep Blue 擊敗了國際象棋衛冕世界冠軍 Kasparov。間隔多年,電腦程式 AlphaGo 在 2016 年打敗人類圍棋比賽世界冠軍。 其間人工智慧有了什麼重大進展? Deep Blue 只需以 brute force 快速分析,AlphaGo 則藉助於強化學習 (Reinforcement learning)。 姚鴻澤院士講述箇中關鍵及其與數學的關聯。
 強化學習藉由電腦與某動態環境不斷重複互動,來學習正確執行任務。 這種嘗試錯誤的學習方法,使電腦在無人干預、 沒被寫入明確的執行任務程式下,能夠做出一系列的決策。 強化學習的運作主要仰賴動態環境中隨外部條件變化而改變的資料。 強化學習之所以能達成目標,是藉著軟體當中被稱為主體 (agent) 的部分在環境中進行探索、 互動和學習。 為了學習如何從觀察去調整策略,主體會反覆嘗試錯誤,而正確的動作會得到一個獎賞 (reward) 來強化。 迄今已開發出許多強化學習訓練演算法,其中最熱門者是以 Deep Neural Network 來建構。
 Neural Network 參考生物神經系統的結構,神經元 (Neuron) 互相連結,由外部神經元接收信號,再層層傳導至其他神經元,最後做出反應。 Neural Network 將神經系統抽象化,前後連結多個機率模型 Logistic Regression : Input Layer 是接收信號的神經元,Hidden Layer 是隱藏層,而 Output Layer 是做出反應的輸出層。 Hidden Layer 及 Output Layer 上每一個節點的值等於上一層所有節點的加權總和 yj=xij×Wij (矩陣 (W) 的每一行對應一個 neuron 的 weight, 行數就是 neuron 的個數; 而 input x和 output y都是一個列向量,行數就是 feature 的個數 (也是 neuron 的個數, neuron 的本質就是把 feature 變換到另一個空間)); 它就是統計學的簡單回歸 (Regression),而我們可用最小平方法求得 W。 但此種模型只能解決線性分類,切割過於簡單。 Neural Network 做了以下的強化,以解決一般性的問題:首先,在上述的公式乘上一個非線性函數 Activation Function σ:yj=σ(xij×Wij)。 其次,使用更多層 Hidden Layer,模擬生物神經系統,使學習效果更顯著; 通常超過 2 層的 Hidden Layer,我們就稱之為『深度學習』 (Deep Learning)。
 每個 Logistic Regression 都有一組 weight,是模型要解的參數; 一旦算出,我們就得到一道公式; 只要輸入信號,經過層層傳導,就可推斷出結果。
 張海潮教授及黃寶興先生討論正圓錐及正橢錐的圓截痕,證明斜圓錐可轉正而得正橢錐,說明球極投影的保圓性質。
 張鎮華教授、 李政豐先生、 林開亮及陳見柯教授介紹複數的應用。 張鎮華教授解釋 108 數學課綱為何將複數教學移至高三。
 張鎮華教授也介紹了台灣區高中的 TRML 數學競賽。
梁惠禎
2022年12月

目次

演講者:姚鴻澤院士 數學與現代科技
張海潮 黃寶興 正圓錐、正橢錐、斜圓錐和球極投影的保圓性質
張鎮華 再談「圓內接正多邊形的奇偶弦長冪次定和」--兼談108數學課綱之複數教學
張鎮華 九九文教基金會的 2018 TRML 思考賽
李政豐 複數極式的主幅角對卡當公式與電腦繪圖的影響
陳韋仰 温媺純 數學證明錯誤類型
連威翔 回響:再從垂心面積比123問題的另解談起
林開亮 陳見柯 托勒密-歐拉定理的向量代數證明
戴立輝 蘇化明 陳翔 關於雙曲線與橢圓的兩個命題
彭翕成 曹洪洋 三元算幾不等式隔離的自動生成
丁遵標 三角形中線與高之間的兩個幾何不等式

您曾經瀏覽過的商品

購物須知

為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。

若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。

定價:100 80
庫存:4

暢銷榜

客服中心

收藏

會員專區