注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)用Python寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)(第2版)

用Python寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)(第2版)

用Python寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)(第2版)

定 價(jià):¥49.00

作 者: [德] 凱瑟琳,雅姆爾(Katharine Jarmul),[澳] 理查德,勞森(Richard Lawson) 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787115479679 出版時(shí)間: 2018-08-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  《用Python寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)(第 2版》講解了如何使用Python來(lái)編寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)程序,內(nèi)容包括網(wǎng)絡(luò)爬蟲(chóng)簡(jiǎn)介,從頁(yè)面中抓取數(shù)據(jù)的3種方法,提取緩存中的數(shù)據(jù),使用多個(gè)線(xiàn)程和進(jìn)程進(jìn)行并發(fā)抓取,抓取動(dòng)態(tài)頁(yè)面中的內(nèi)容,與表單進(jìn)行交互,處理頁(yè)面中的驗(yàn)證碼問(wèn)題,以及使用Scarpy和Portia進(jìn)行數(shù)據(jù)抓取,并在最后介紹了使用本書(shū)講解的數(shù)據(jù)抓取技術(shù)對(duì)幾個(gè)真實(shí)的網(wǎng)站進(jìn)行抓取的實(shí)例,旨在幫助讀者活學(xué)活用書(shū)中介紹的技術(shù)。《用Python寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)(第 2版》適合有一定Python編程經(jīng)驗(yàn)而且對(duì)爬蟲(chóng)技術(shù)感興趣的讀者閱讀。

作者簡(jiǎn)介

  Katharine Jarmul是德國(guó)柏林的一位數(shù)據(jù)科學(xué)家和Python支持者。她經(jīng)營(yíng)了一家數(shù)據(jù)科學(xué)咨詢(xún)公司——Kjamistan,為不同規(guī)模的企業(yè)提供諸如數(shù)據(jù)抽取、采集以及建模的服務(wù)。她從2008年開(kāi)始使用Python進(jìn)行編程,從2010年開(kāi)始使用Python抓取網(wǎng)站,并且在使用網(wǎng)絡(luò)爬蟲(chóng)進(jìn)行數(shù)據(jù)分析和機(jī)器學(xué)習(xí)的不同規(guī)模的初創(chuàng)企業(yè)中工作過(guò)。讀者可以通過(guò)Twitter(@kjam)關(guān)注她的想法以及動(dòng)態(tài)。Richard Lawson來(lái)自澳大利亞,畢業(yè)于墨爾本大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)。畢業(yè)后,他創(chuàng)辦了一家專(zhuān)注于網(wǎng)絡(luò)爬蟲(chóng)的公司,為超過(guò)50個(gè)國(guó)家的業(yè)務(wù)提供遠(yuǎn)程工作。他精通世界語(yǔ),可以使用漢語(yǔ)和韓語(yǔ)對(duì)話(huà),并且積極投身于開(kāi)源軟件事業(yè)。他目前正在牛津大學(xué)攻讀研究生學(xué)位,并利用業(yè)余時(shí)間研發(fā)自主無(wú)人機(jī)。譯者介紹李斌,畢業(yè)于北京科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)專(zhuān)業(yè),獲得碩士學(xué)位。曾任職于阿里巴巴,當(dāng)前供職于凡普金科,負(fù)責(zé)應(yīng)用安全工作。熱愛(ài)Python編程和Web安全,希望以更加智能和自動(dòng)化的方式提升網(wǎng)絡(luò)安全。博客地址為pythoner.com。

圖書(shū)目錄

第 1章 網(wǎng)絡(luò)爬蟲(chóng)簡(jiǎn)介 1

1.1 網(wǎng)絡(luò)爬蟲(chóng)何時(shí)有用 1

1.2 網(wǎng)絡(luò)爬蟲(chóng)是否合法 2

1.3 Python 3 3

1.4 背景調(diào)研 4

1.4.1 檢查robots.txt 4

1.4.2 檢查網(wǎng)站地圖 5

1.4.3 估算網(wǎng)站大小 6

1.4.4 識(shí)別網(wǎng)站所用技術(shù) 7

1.4.5 尋找網(wǎng)站所有者 9

1.5 編寫(xiě)第 一個(gè)網(wǎng)絡(luò)爬蟲(chóng) 11

1.5.1 抓取與爬取的對(duì)比 11

1.5.2 下載網(wǎng)頁(yè) 12

1.5.3 網(wǎng)站地圖爬蟲(chóng) 15

1.5.4 ID遍歷爬蟲(chóng) 17

1.5.5 鏈接爬蟲(chóng) 19

1.5.6 使用requests庫(kù) 28

1.6 本章小結(jié) 30

第 2章 數(shù)據(jù)抓取 31

2.1 分析網(wǎng)頁(yè) 32

2.2 3種網(wǎng)頁(yè)抓取方法 34

2.2.1 正則表達(dá)式 35

2.2.2 Beautiful Soup 37

2.2.3 Lxml 39

2.3 CSS選擇器和瀏覽器控制臺(tái) 41

2.4 XPath選擇器 43

2.5 LXML和家族樹(shù) 46

2.6 性能對(duì)比 47

2.7 抓取結(jié)果 49

2.7.1 抓取總結(jié) 50

2.7.2 為鏈接爬蟲(chóng)添加抓取回調(diào) 51

2.8 本章小結(jié) 55

第3章 下載緩存 56

3.1 何時(shí)使用緩存 57

3.2 為鏈接爬蟲(chóng)添加緩存支持 57

3.3 磁盤(pán)緩存 60

3.3.1 實(shí)現(xiàn)磁盤(pán)緩存 62

3.3.2 緩存測(cè)試 64

3.3.3 節(jié)省磁盤(pán)空間 65

3.3.4 清理過(guò)期數(shù)據(jù) 66

3.3.5 磁盤(pán)緩存缺點(diǎn) 68

3.4 鍵值對(duì)存儲(chǔ)緩存 69

3.4.1 鍵值對(duì)存儲(chǔ)是什么 69

3.4.2 安裝Redis 70

3.4.3 Redis概述 71

3.4.4 Redis緩存實(shí)現(xiàn) 72

3.4.5 壓縮 74

3.4.6 測(cè)試緩存 75

3.4.7 探索requests-cache 76

3.5 本章小結(jié) 78

第4章 并發(fā)下載 79

4.1 100萬(wàn)個(gè)網(wǎng)頁(yè) 79

4.2 串行爬蟲(chóng) 82

4.3 多線(xiàn)程爬蟲(chóng) 83

4.4 線(xiàn)程和進(jìn)程如何工作 83

4.4.1 實(shí)現(xiàn)多線(xiàn)程爬蟲(chóng) 84

4.4.2 多進(jìn)程爬蟲(chóng) 87

4.5 性能 91

4.6 本章小結(jié) 94

第5章 動(dòng)態(tài)內(nèi)容 95

5.1 動(dòng)態(tài)網(wǎng)頁(yè)示例 95

5.2 對(duì)動(dòng)態(tài)網(wǎng)頁(yè)進(jìn)行逆向工程 98

5.3 渲染動(dòng)態(tài)網(wǎng)頁(yè) 104

5.3.1 PyQt還是PySide 105

5.3.2 執(zhí)行JavaScript 106

5.3.3 使用WebKit與網(wǎng)站交互 108

5.4 渲染類(lèi) 111

5.5 本章小結(jié) 117

第6章 表單交互 119

6.1 登錄表單 120

6.2 支持內(nèi)容更新的登錄腳本擴(kuò)展 128

6.3 使用Selenium實(shí)現(xiàn)自動(dòng)化表單處理 132

6.4 本章小結(jié) 135

第7章 驗(yàn)證碼處理 136

7.1 注冊(cè)賬號(hào) 137

7.2 光學(xué)字符識(shí)別 140

7.3 處理復(fù)雜驗(yàn)證碼 144

7.4 使用驗(yàn)證碼處理服務(wù) 144

7.4.1 9kw入門(mén) 145

7.4.2 報(bào)告錯(cuò)誤 150

7.4.3 與注冊(cè)功能集成 151

7.5 驗(yàn)證碼與機(jī)器學(xué)習(xí) 153

7.6 本章小結(jié) 153

第8章 Scrapy 154

8.1 安裝Scrapy 154

8.2 啟動(dòng)項(xiàng)目 155

8.2.1 定義模型 156

8.2.2 創(chuàng)建爬蟲(chóng) 157

8.3 不同的爬蟲(chóng)類(lèi)型 162

8.4 使用shell命令抓取 163

8.4.1 檢查結(jié)果 165

8.4.2 中斷與恢復(fù)爬蟲(chóng) 167

8.5 使用Portia編寫(xiě)可視化爬蟲(chóng) 170

8.5.1 安裝 170

8.5.2 標(biāo)注 172

8.5.3 運(yùn)行爬蟲(chóng) 176

8.5.4 檢查結(jié)果 176

8.6 使用Scrapely實(shí)現(xiàn)自動(dòng)化抓取 177

8.7 本章小結(jié) 178

第9章 綜合應(yīng)用 179

9.1 Google搜索引擎 179

9.2 Facebook 184

9.2.1 網(wǎng)站 184

9.2.2 Facebook API 186

9.3 Gap 188

9.4 寶馬 192

9.5 本章小結(jié) 196

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)