注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)中公Python高效開發(fā)指南

中公Python高效開發(fā)指南

中公Python高效開發(fā)指南

定 價(jià):¥56.00

作 者: 中公教育優(yōu)就業(yè)研究院
出版社: 陜西科學(xué)技術(shù)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787536980556 出版時(shí)間: 2021-07-01 包裝: 平裝-膠訂
開本: 16開 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  《中公版·Python高效開發(fā)指南:Python網(wǎng)絡(luò)爬蟲綜合開發(fā)》共分為十二章,涵蓋了Python網(wǎng)絡(luò)爬蟲綜合開發(fā)的相關(guān)知識(shí),對(duì)重難點(diǎn)內(nèi)容進(jìn)行了針對(duì)性講解。本書面向Python網(wǎng)絡(luò)爬蟲開發(fā)的初學(xué)者,按照由淺入深、循序漸進(jìn)的規(guī)律,從講解網(wǎng)絡(luò)爬蟲開發(fā)基礎(chǔ)知識(shí),到講解如何開發(fā)單個(gè).py文件的Python爬蟲程序,后講解基于Scrapy爬蟲框架的網(wǎng)絡(luò)爬蟲開發(fā)?!?網(wǎng)絡(luò)爬蟲概述(章)介紹了網(wǎng)絡(luò)爬蟲的基礎(chǔ)知識(shí),包括定義、分類、原理和搜索策略等概念性內(nèi)容。● Python網(wǎng)絡(luò)爬蟲開發(fā)基礎(chǔ)(第二章)介紹了Python開發(fā)環(huán)境的搭建,重點(diǎn)介紹了PyCharm的使用。另外,還詳細(xì)介紹了HTTP協(xié)議的相關(guān)知識(shí),并介紹了HTML、JavaScript和XPath?!?開發(fā)單個(gè).py文件的爬蟲程序(第三章、第四章)介紹了如何開發(fā)單個(gè).py文件的Python爬蟲程序,該程序采用Request模塊獲取數(shù)據(jù),并采用XPath、BeautifulSoup4和PyQuery模塊進(jìn)行解析?!?開發(fā)Python網(wǎng)絡(luò)爬蟲相關(guān)技術(shù)(第五章至第十章)介紹了Python網(wǎng)絡(luò)爬蟲開發(fā)中廣泛應(yīng)用的技術(shù),包括正則表達(dá)式、數(shù)據(jù)接口、數(shù)據(jù)庫(kù)的使用、表單的使用、模擬登錄、反反爬蟲方法和Selenium模擬瀏覽器等,并結(jié)合豐富的小案例來(lái)展示知識(shí)點(diǎn)?!?Scrapy爬蟲框架(第十一章、第十二章)介紹了基于Scrapy爬蟲框架的爬蟲開發(fā)和分布式爬蟲框架scrapy-redis,以及爬蟲的部署。

作者簡(jiǎn)介

暫缺《中公Python高效開發(fā)指南》作者簡(jiǎn)介

圖書目錄

章網(wǎng)絡(luò)爬蟲概述1
1.1網(wǎng)絡(luò)爬蟲的定義1
1.2網(wǎng)絡(luò)爬蟲的發(fā)展階段1
1.3網(wǎng)絡(luò)爬蟲的應(yīng)用1
1.4網(wǎng)絡(luò)爬蟲的類型2
1.5網(wǎng)絡(luò)爬蟲的原理3
1.6網(wǎng)絡(luò)爬蟲的搜索策略3
1.6.1深度優(yōu)先搜索策略4
1.6.2廣度優(yōu)先搜索策略4
1.7反爬蟲技術(shù)及解決方案5
1.7.1通過(guò)User-Agent來(lái)反爬蟲5
1.7.2通過(guò)IP限制來(lái)反爬蟲6
1.7.3通過(guò)JavaScript腳本來(lái)反爬蟲7
1.7.4通過(guò)robots.txt來(lái)反爬蟲7
第二章爬蟲開發(fā)基礎(chǔ)8
2.1Python的安裝和運(yùn)行8
2.1.1Python的安裝8
2.1.2編寫個(gè)Python程序12
2.2PyCharm開發(fā)工具的安裝和使用12
2.3HTTP18
2.3.1URI和URL18
2.3.2HTTP和HTTPS18
2.3.3HTTP請(qǐng)求報(bào)文18
2.3.4HTTP請(qǐng)求過(guò)程20
2.3.5HTTP請(qǐng)求方法21
2.3.6HTTP響應(yīng)報(bào)文21
2.4HTTP會(huì)話和Cookies23
2.4.1靜態(tài)網(wǎng)頁(yè)和動(dòng)態(tài)網(wǎng)頁(yè)23
2.4.2HTTP會(huì)話23
2.4.3Cookies24
2.5HTTP代理服務(wù)器24
2.5.1HTTP代理服務(wù)器的基本原理24
2.5.2HTTP代理服務(wù)器的主要功能25
2.6HTML25
2.6.1HTML概述25
2.6.2HTML基礎(chǔ)知識(shí)26
2.6.3HTML常用標(biāo)簽28
2.7HTMLDOM37
2.8JavaScript39
2.8.1JS的使用39
2.8.2JS變量40
2.8.3JS變量的命名規(guī)則40
2.8.4JS變量的數(shù)據(jù)類型40
2.8.5JS對(duì)象41
2.8.6JS函數(shù)41
2.8.7JS運(yùn)算符41
2.8.8JS條件語(yǔ)句42
2.8.9JS循環(huán)語(yǔ)句43
2.8.10break語(yǔ)句和continue語(yǔ)句45
2.9JSON45
2.9.1JSON數(shù)據(jù)結(jié)構(gòu)45
2.9.2JSON數(shù)據(jù)類型46
2.9.3JSON與XML的比較46
2.10AJAX48
2.11XPath48
2.11.1XPath選取節(jié)點(diǎn)48
2.11.2XPath謂語(yǔ)49
2.11.3XPath通配符49
2.11.4XPath多路徑選擇50
2.11.5XPath軸50
2.11.6XPath運(yùn)算符51
2.11.7XPath常用的功能函數(shù)52
第三章使用開發(fā)者工具分析網(wǎng)站53
3.1開發(fā)者工具53
3.2元素(Elements)面板54
3.3網(wǎng)絡(luò)(Network)面板55
3.4Chrome插件59
第四章HTML內(nèi)容爬取與解析62
4.1爬蟲的開發(fā)思路62
4.2Requests模塊概述及其安裝65
4.3Requests基本請(qǐng)求方式67
4.4復(fù)雜的Requests請(qǐng)求方式70
4.5Requests上傳與下載74
4.6lxml模塊的安裝與使用方法76
4.6.1lxml模塊的安裝76
4.6.2lxml模塊的使用77
4.7BeautifulSoup4模塊88
4.7.1BeautifulSoup4模塊的安裝88
4.7.2解析器89
4.7.3按照標(biāo)準(zhǔn)的縮進(jìn)格式輸出HTML89
4.7.4處理HTMLDOM節(jié)點(diǎn)91
4.7.5遍歷Tag的子孫節(jié)點(diǎn)97
4.7.6獲取Tag的文本內(nèi)容101
4.7.7根據(jù)Tags間的關(guān)系獲取節(jié)點(diǎn)105
4.7.8find_all()方法name參數(shù)的使用109
4.7.9find_all()方法其他參數(shù)的使用115
4.7.10搜索HTMLDOM樹的其他方法123
4.7.11采用CSS選擇器查找元素124
4.8PyQuery模塊132
4.8.1PyQuery模塊的安裝132
4.8.2PyQuery模塊語(yǔ)法講解132
4.9TXT文件的讀/寫操作136
4.9.1TXT文件的讀取136
4.9.2TXT文件的寫入138
4.10CSV文件的讀/寫操作139
4.10.1CSV文件概述139
4.10.2CSV文件的讀取140
4.10.3CSV文件的寫入142
第五章正則表達(dá)式144
5.1正則表達(dá)式常用符號(hào)144
5.1.1正則表達(dá)式的定義144
5.1.2普通字符144
5.1.3預(yù)定義字符145
5.1.4量詞字符147
5.1.5邊界匹配字符150
5.1.6分組匹配字符152
5.2re模塊及其功能函數(shù)153
5.2.1search()函數(shù)153
5.2.2sub()函數(shù)155
5.2.3findall()函數(shù)156
5.2.4re模塊修飾符157
5.3綜合案例——爬取某電影網(wǎng)站的榜單157
5.3.1爬蟲思路分析157
5.3.2爬蟲程序及分析158
第六章數(shù)據(jù)接口信息爬取161
6.1數(shù)據(jù)接口概述161
6.2API的使用161
6.2.1API概述161
6.2.2API樣例161
6.3解析XHR接口165
6.3.1JSON解析庫(kù)165
6.3.2某招聘網(wǎng)站數(shù)據(jù)接口分析167
6.4綜合案例——爬取某網(wǎng)站新聞中的圖片172
6.4.1圖片爬取方法172
6.4.2爬蟲思路分析173
6.4.3爬蟲程序及分析177
第七章數(shù)據(jù)庫(kù)存儲(chǔ)180
7.1MySQL數(shù)據(jù)庫(kù)180
7.1.1關(guān)系型數(shù)據(jù)庫(kù)概述180
7.1.2MySQL的安裝182
7.1.3SQL概述187
7.1.4MySQL的數(shù)據(jù)類型187
7.1.5數(shù)據(jù)定義語(yǔ)言(DDL)及常用操作189
7.1.6數(shù)據(jù)操縱語(yǔ)言(DML)193
7.1.7數(shù)據(jù)查詢語(yǔ)言(DQL)195
7.1.8pyMySQL模塊的使用203
7.2MongoDB數(shù)據(jù)庫(kù)206
7.2.1NoSQL數(shù)據(jù)庫(kù)概述206
7.2.2MongoDB的安裝206
7.2.3MongoDB的數(shù)據(jù)類型213
7.2.4MongoDB數(shù)據(jù)庫(kù)操作214
7.2.5MongoDB集合操作215
7.2.6MongoDB文檔操作216
7.2.7pymongo模塊的使用222
7.3Redis數(shù)據(jù)庫(kù)226
7.3.1內(nèi)存數(shù)據(jù)庫(kù)概述226
7.3.2典型Redis數(shù)據(jù)類型的操作226
7.3.3Redis模塊的使用234
7.4綜合案例1——爬取某網(wǎng)站的微客數(shù)據(jù)235
7.4.1爬蟲思路分析235
7.4.2爬蟲程序及分析237
7.5綜合案例2——爬取某網(wǎng)站的房源數(shù)據(jù)241
7.5.1爬蟲思路分析241
7.5.2爬蟲程序及分析244
第八章表單交互與模擬登錄249
8.1表單交互249
8.1.1POST請(qǐng)求249
8.1.2PythonRequests提交表單249
8.2模擬登錄254
8.2.1Cookies概述254
8.2.2提交Cookies模擬登錄254
8.3綜合案例——爬取某招聘網(wǎng)站的招聘信息257
8.3.1爬蟲思路分析257
8.3.2爬蟲程序及分析259
第九章反爬蟲技術(shù)以及應(yīng)對(duì)方法262
9.1常見的反爬蟲技術(shù)262
9.2基于請(qǐng)求頭的反爬蟲技術(shù)以及應(yīng)對(duì)方法262
9.3基于用戶行為的反爬蟲技術(shù)以及應(yīng)對(duì)方法264
9.4基于Cookies的反爬蟲技術(shù)以及應(yīng)對(duì)方法266
9.5基于驗(yàn)證碼的反爬蟲技術(shù)以及應(yīng)對(duì)方法267
第十章Selenium模擬瀏覽器271
10.1Selenium概述271
10.1.1Selenium的介紹和安裝271
10.1.2瀏覽器的選擇和安裝271
10.2Selenium的使用274
10.2.1模擬瀏覽器簡(jiǎn)單操作274
10.2.2SeleniumDriver操作276
10.2.3SeleniumWebelement操作277
10.2.4SeleniumActionChains278
10.2.5SeleniumWait279
10.2.6SeleniumExpectedConditions280
10.2.7模擬登錄282
10.2.8破解滑塊驗(yàn)證碼283
10.3綜合案例1——爬取某交友軟件的好友空間信息288
10.3.1爬蟲思路分析288
10.3.2爬蟲程序及分析291
10.4綜合案例2——爬取某電商網(wǎng)站的商品信息292
10.4.1爬蟲思路分析292
10.4.2爬蟲程序及分析294
第十一章Scrapy爬蟲框架300
11.1Scrapy的安裝和使用300
11.1.1Scrapy爬蟲框架的架構(gòu)300
11.1.2安裝Scrapy301
11.1.3創(chuàng)建Scrapy爬蟲項(xiàng)目304
11.1.4Scrapy文件介紹306
11.1.5編寫Scrapy爬蟲程序309
11.1.6運(yùn)行Scrapy爬蟲311
11.1.7ItemPipeline的用法313
11.1.8下載中間件的用法315
11.1.9Scrapy對(duì)接Selenium319
11.2綜合案例1——爬取某房地產(chǎn)網(wǎng)站326
11.2.1爬蟲思路分析326
11.2.2爬蟲程序及分析329
11.3綜合案例2——爬取某書評(píng)網(wǎng)站335
11.3.1爬蟲思路分析335
11.3.2爬蟲程序及分析338
第十二章分布式爬蟲以及爬蟲的部署345
12.1分布式爬蟲原理345
12.1.1分布式爬蟲架構(gòu)345
12.1.2維護(hù)爬取隊(duì)列346
12.1.3去重操作346
12.1.4防止中斷348
12.2基于scrapy-redis的分布式爬蟲348
12.2.1scrapy-redis架構(gòu)349
12.2.2安裝scrapy-redis349
12.2.3scrapy-redis常用配置350
12.2.4scrapy-redis簡(jiǎn)單實(shí)例350
12.3Scrapyd部署爬蟲351
12.4Scrapyd-Client的使用353

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)