本書大綱:20個核心章節
本書分為五大模組,從偏見來源到全球治理,循序漸進構建學生的倫理觀。
第一模組:偏見的根源 (現象解構篇)
第 1 章:演算法不中立:數據、模型與開發者的偏見投影
探討 AI 偏見的三大來源:數據偏差、設計偏差與使用偏差。
第 2 章:垃圾進,垃圾出 (GIGO):錯誤樣本如何誤導 AI 的價值觀
視覺化解析訓練集缺失與標註者偏見對模型的影響。
第 3 章:隱形歧視:當 AI 學會了人類不敢明說的刻板印象
討論代理指標(Proxy Variables)如何導致間接歧視。
第 4 章:科技與權力:誰有權定義 AI 的「公平」標準?
辯證公平性的多重定義:個體公平 vs. 群體公平。
第二模組:演算法不公的社會衝擊 (影響分析篇)
第 5 章:篩選的代價:AI 招聘、入學預測與職場公平性
分析自動化決策對個體機會分配的衝擊。
第 6 章:演算法治理下的社會信用與數位監控
探討評分系統如何影響公民行為與社會流動。
第 7 章:預測警政與司法審判:AI 真的能比法官更公正嗎? *
深入解析 COMPAS 等系統引發的法律倫理爭議。
第 8 章:數位落差:AI 進步會讓貧富差距擴大還是縮小?
討論技術准入與算力壟斷帶來的正義問題。
第三模組:人機邊界的倫理挑戰 (價值思辨篇)
第 9 章:自動駕駛的電車難題:生命價值的排序與權衡
探討當 AI 必須在極端情況下做選擇時,責任該歸誰?
第 10 章:生成式 AI 與原創性:對人類藝術家與創作者的尊重
辯證 AI 訓練對版權的「合理使用」與道德衝突。
第 11 章:AI 情感與性別刻板印象:為什麼語音助理多是女性?
批判 AI 產品設計中的擬人化陷阱與性別政治。
第 12 章:致命性自主武器 (LAWS):當機器人擁有了「剝奪生命」的決策權
探討軍事 AI 的倫理紅線與國際人道主義。
第四模組:建立負責任的 AI (技術防禦與規範篇)
第 13 章:透明度與黑盒:我們有權要求 AI 解釋它的動機嗎?
介紹可解釋 AI (XAI) 技術與公眾知情權。
第 14 章:問責制 (Accountability):當 AI 出錯時,誰該負責?
討論開發者、使用者與政府在 AI 事故中的法律责任。
第 15 章:隱私保護 vs. 公平性:數據脫敏會讓偏見更難發現嗎?
辯證資安技術與倫理審查之間的兩難局面。
第 16 章:人機協調 (Human-in-the-Loop):維持最後的人類監督
探討如何設計有效的監督機制,避免過度依賴自動化。
第五模組:全球願景與未來公民 (實踐行動篇)
第 17 章:全球 AI 倫理準則:教科文組織、歐盟與各國的規範競爭 *
梳理當前國際主流的 AI 倫理框架。
第 18 章:企業社會責任:ESG 框架下的 AI 倫理實踐
介紹科技公司如何建立內部的倫理審查委員會。
第 19 章:AI 公民素養:我們該如何參與演算法的社會監督?
提倡公眾參與技術設計與政策制定的必要性。
第 20 章:邁向「以人為本」的 AI:重構科技與社會正義的和諧
總結全系列:科技的終極目標是促進全人類的福祉。