TOP
紅利積點抵現金,消費購書更貼心
Python爬蟲、數據分析與可視化:工具詳解與案例實戰(簡體書)
滿額折

Python爬蟲、數據分析與可視化:工具詳解與案例實戰(簡體書)

商品資訊

人民幣定價:69 元
定價
:NT$ 414 元
優惠價
87360
海外經銷商無庫存,到貨日平均30天至45天
下單可得紅利積點 :10 點
商品簡介
名人/編輯推薦
目次

商品簡介

全書共13章。第1~4章為基礎篇,主要講述Python基礎知識、Python數據結構、面向對象程序設計思想,Python異常處理和讀寫文件的技巧;第5~7章為數據分析的工具篇,主要講述Numpy庫、Pandas庫和Matplotlib庫的基本功能和應用;第8章和第9章為“數據分析高級技能篇”,主要講述通過爬取技術博客案例、基於Scrapy爬蟲框架的實用技巧、數據分析的常用方法,如Python連接操作數據庫的相關技能,基於時間序列、概率分析、推斷統計和回歸分析方法的數學分析方法;第10~13章為“綜合案例篇”,主要講述二手房數據分析案例、股票數據分析案例以及基於Sklearn庫的機器學習相關實踐。

名人/編輯推薦

Python爬蟲、數據分析與可視化

目次

前言
第1章 Python編程基礎1
1.1 搭建Python開發環境1
1.1.1 安裝Python解釋器1
1.1.2 安裝Python第三方開發包2
1.1.3 在PyCharm裡新建項目和文件3
1.1.4 在PyCharm裡更換Python解釋器5
1.2 實踐Python基本語法5
1.2.1 針對基本數據類型的操作6
1.2.2 針對字符串的操作7
1.2.3 多行注釋與引入中文8
1.2.4 條件分支語句9
1.2.5 循環操作語句9
1.2.6 break和continue的用法10
1.2.7 格式化輸出語句11
1.3 定義和調用函數11
1.4 return的重要性――函數的遞歸調用12
1.5 熟悉函數的特殊寫法13
1.5.1 函數作為參數14
1.5.2 函數作為返回結果14
1.5.3 匿名函數15
1.6 本章小結15
第2章 Python的數據結構16
2.1 列表16
2.1.1 定義列表16
2.1.2 在列表中增、刪、改元素17
2.1.3 列表的切片操作18
2.1.4 遍歷列表19
2.1.5 列表的常見用法19
2.2 元組20
2.2.1 創建和使用元組20
2.2.2 元組的常見用法21
2.3 集合22
2.3.1 創建和使用集合22
2.3.2 針對集合的常用數據操作23
2.4 字典23
2.4.1 創建和使用字典24
2.4.2 增加、刪除和修改字典中的元素24
2.4.3 遍歷字典25
2.5 針對數據結構的通用性操作25
2.5.1 通過map方法實現序列的映射25
2.5.2 filter方法與數據篩選26
2.5.3 通過reduce方法實現累計效果27
2.5.4 通過sorted方法排序對象27
2.6 本章小結28
第3章 Python面向對象編程29
3.1 什麼是面向對象思想29
3.2 封裝特性30
3.2.1 創建類並在類裡封裝屬性和方法30
3.2.2 類方法的第一個參數必須指向實例31
3.2.3 私有屬性的典型錯誤用法31
3.2.4 瞭解其他常用魔術方法33
3.2.5 從私有屬性和私有方法體會封裝特性34
3.3 繼承特性35
3.3.1 繼承的語法和使用場景35
3.3.2 子類無法使用父類的私有屬性和方法36
3.3.3 受保護的屬性和方法37
3.3.4 多重繼承與組合模式38
3.4 多態特性40
3.4.1 以迭代器為例來理解多態40
3.4.2 可變參數與方法重載41
3.4.3 整合使用多態和繼承42
3.5 模塊、包以及第三方庫43
3.5.1 通過import重用現有模塊中的功能43
3.5.2 自定義包和使用包43
3.5.3 引入並使用第三方庫44
3.6 本章小結45
第4章 異常處理機制與文件讀寫46
4.1 通過try…except…finally處理異常46
4.1.1 處理異常的try…except從句46
4.1.2 使用異常處理類47
4.1.3 同時處理多個異常48
4.1.4 在處理異常時引入else代碼塊49
4.1.5 引入finally從句50
4.2 raise與except的整合使用51
4.2.1 通過raise拋出異常51
4.2.2 自定義異常且與except整合使用51
4.3 異常處理的實踐經驗52
4.3.1 盡可能縮小try的代碼塊53
4.3.2 用專業的異常處理類針對性地處理異常53
4.3.3 拿到異常別忽視54
4.3.4 合理確定異常的影響範圍54
4.4 在讀寫文件案例中使用異常機制55
4.4.1 通過os.path獲取目錄和文件屬性55
4.4.2 以只讀模式打開文件56
4.4.3 逐行讀取文件58
4.4.4 通過write寫文件59
4.4.5 以添加的方式寫文件59
4.4.6 讀寫csv文件60
4.5 本章小結61
第5章 NumPy數組處理62
5.1 NumPy庫的基礎數據結構:ndarray對象62
5.1.1 通過array方法創建ndarray62
5.1.2 ndarray的dtype屬性63
5.1.3 創建全0或全1的ndarray64
5.2 NumPy庫的常用操作65
5.2.1 通過arange方法創建序列數組65
5.2.2 針對ndarray的數學運算66
5.2.3 常用的科學計算函數67
5.2.4 常用的聚合統計函數68
5.2.5 遍歷ndarray數組69
5.3 針對ndarray的索引和切片操作69
5.3.1 索引操作69
5.3.2 布爾索引與條件過濾70
5.3.3 切片操作與共享內存70
5.3.4 通過copy函數創建副本72
5.4 本章小結72
第6章 Pandas數據清洗73
6.1 以一維方式存儲數據的Series對象73
6.1.1 Series的常規操作74
6.1.2 創建並使用Series索引75
6.1.3 獲取Series裡的切片數據76
6.1.4 通過布爾Series獲取滿足條件的元素78
6.1.5 遍歷Series數據78
6.2 以表格格式存儲數據的DataFrame對象79
6.2.1 DataFrame對象的常規用法79
6.2.2 通過loc、iloc和ix提取數據81
6.2.3 遍歷DataFrame裡的數據82
6.3 面向DataFrame的常用數據分析方法82
6.3.1 對DataFrame數據進行排序83
6.3.2 以列為單位進行運算83
6.3.3 增加和刪除列84
6.3.4 過濾和重設數據85
6.3.5 在DataFrame中進行數據統計分析85
6.3.6 衡量變量間關聯程度的corr方法86
6.4 Pandas與各類文件的交互87
6.4.1 DataFrame數據與csv文件的相互轉換87
6.4.2 NaN與缺失值處理89
6.4.3 DataFrame數據與Excel文件的相互轉換90
6.4.4 DataFrame數據與json文件的相互轉換91
6.5 本章小結92
第7章 Matplotlib數據可視化93
7.1 通過Matplotlib繪製各類圖形93
7.1.1 繪製折線圖93
7.1.2 繪圖時的通用屬性參數94
7.1.3 繪製柱狀圖95
7.1.4 繪製餅圖97
7.1.5 繪製直方圖98
7.2 設置坐標的技巧99
7.2.1 設置x和y坐標標簽文字並展示中文99
7.2.2 設置坐標的範圍100
7.2.3 設置坐標的主刻度和次刻度101
7.2.4 設置並旋轉坐標刻度文字102
7.3 增加可視化美觀效果103
7.3.1 設置圖例104
7.3.2 設置中文標題105
7.3.3 設置網格效果106
7.4 設置多圖和子圖效果107
7.4.1 通過figure對象同時繪製多張圖107
7.4.2 通過add_subplot方法繪製子圖108
7.4.3 通過subplot方法繪製子圖109
7.4.4 子圖共享x坐標軸110
7.4.5 在大圖裡繪製子圖112
7.5 繪製高級圖表113
7.5.1 繪製散點圖113
7.5.2 繪製熱圖114
7.5.3 繪製等值線圖115
7.6 通過mplot3d繪製三維圖形116
7.6.1 繪製三維曲線圖116
7.6.2 繪製三維散點圖117
7.6.3 繪製三維柱狀圖118
7.7 本章小結119
第8章 通過網絡爬蟲獲取數據120
8.1 和爬蟲有關的HTTP120
8.1.1 基於HTTP的請求處理流程120
8.1.2 HTTP請求頭包含操作系統和瀏覽器信息122
8.1.3 Post和Get請求方法122
8.1.4 HTTP常見的狀態碼122
8.2 通過Urllib庫獲取網頁信息123
8.2.1 通過request爬取網頁123
8.2.2 設置超時時間124
8.2.3 用URLError處理網絡異常124
8.2.4 設置header屬性來模擬瀏覽器發送請求125
8.3 通過BeautifulSoup提取頁面信息125
8.3.1 安裝BeautifulSoup庫125
8.3.2 用Tag提取HTML元素和屬性126
8.3.3 用NavigableString提取元素值127
8.3.4 用Comment提取注釋127
8.3.5 制定規則搜索指定的內容128
8.4 通過正則表達式截取信息130
8.4.1 查找指定字符串130
8.4.2 用通用字符來模糊匹配130
8.4.3 通過原子表來定義匹配規則131
8.4.4 用findall按匹配規則截取內容132
8.5 用Scrapy爬取博客園文章信息134
8.5.1 通過Scrapy命令創建爬蟲項目134
8.5.2 明確爬取目標,制定爬取規則134
8.5.3 在Item模塊裡定義數據模型136
8.5.4 生成爬蟲文件,定義爬取動作136
8.5.5 在pipelines文件裡定義數據存儲方式137
8.5.6 啟動爬蟲程序,觀察運行效果138
8.6 本章小結139
第9章 數據分析的常用方法140
9.1 準備並存儲數據140
9.1.1 用Pandas_datareader庫獲取數據140
9.1.2 以csv和Excel格式存儲數據141
9.1.3 準備MySQL環境142
9.1.4 在MySQL裡存儲數據142
9.1.5 從數據表裡讀取數據145
9.2 描述性統計146
9.2.1 平均數、中位數和百分位數146
9.2.2 用箱狀圖展示分位數147
9.2.3 統計極差、方差和標準差148
9.3 基於時間序列的統計方法148
9.3.1 用rolling方法計算移動平均值148
9.3.2 基於時間序列的自相關性分析149
9.3.3 基於時間序列的偏自相關性分析151
9.3.4 用熱力圖分析不同時間序列的相關性152
9.4 概率分析方法與推斷統計154
9.4.1 分析收盤價,繪製小提琴圖154
9.4.2 用直方圖來擬合正態分佈效果155
9.4.3 驗證序列是否滿足正態分佈156
9.4.4 參數估計方法157
9.4.5 顯著性驗證158
9.5 回歸分析方法159
9.5.1 構建一元線性回歸模型159
9.5.2 以多元線性回歸模型預測股價162
9.6 本章小結1

購物須知

大陸出版品因裝訂品質及貨運條件與台灣出版品落差甚大,除封面破損、內頁脫落等較嚴重的狀態,其餘商品將正常出貨。

特別提醒:部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QR CODE 連結至當地網站註冊“並通過驗證程序”,方可下載使用。

無現貨庫存之簡體書,將向海外調貨:
海外有庫存之書籍,等候約45個工作天;
海外無庫存之書籍,平均作業時間約60個工作天,然不保證確定可調到貨,尚請見諒。

為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。

若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。

優惠價:87 360
海外經銷商無庫存,到貨日平均30天至45天

暢銷榜

客服中心

收藏

會員專區