| 书名: | Python爬虫开发与项目实战|5894193 |
| 图书定价: | 79元 |
| 图书作者: | 范传辉 |
| 出版社: | 机械工业出版社 |
| 出版日期: | 2017/6/1 0:00:00 |
| ISBN号: | 9787111563877 |
| 开本: | 16开 |
| 页数: | 0 |
| 版次: | 1-1 |
| 作者简介 |
| 范传辉,资深网虫,Python开发者,参与开发了多项网络应用,在实际开发中积累了丰富的实战经验,并善于总结,贡献了多篇技术文章广受好评。研究兴趣是网络安全、爬虫技术、数据分析、驱动开发等技术。 "}) |
| 内容简介 |
| 随着大数据时代到来,网络信息量也变得更多更大,基于传统搜索引擎的局限性,网络爬虫应运而生,本书从基本的爬虫原理开始讲解,通过介绍Pthyon编程语言和Web前端基础知识引领读者入门,之后介绍动态爬虫原理以及Scrapy爬虫框架,最后介绍大规模数据下分布式爬虫的设计以及PySpider爬虫框架等。 主要特点: l 由浅入深,从Python和Web前端基础开始讲起,逐步加深难度,层层递进。 l 内容详实,从静态网站到动态网站,从单机爬虫到分布式爬虫,既包含基础知识点,又讲解了关键问题和难点分析,方便读者完成进阶。 l 实用性强,本书共有9个爬虫项目,以系统的实战项目为驱动,由浅及深地讲解爬虫开发中所需的知识和技能。 难点详析,对js加密的分析、反爬虫措施的突破、去重方案的设计、分布式爬虫的开发进行了细致的讲解。 |
| 目录 |
前言 基础篇 第1章 回顾Python编程2 1.1 安装Python2 1.1.1 Windows上安装Python2 1.1.2 Ubuntu上的Python3 1.2 搭建开发环境4 1.2.1 Eclipse+PyDev4 1.2.2 PyCharm10 1.3 IO编程11 1.3.1 文件读写11 1.3.2 操作文件和目录14 1.3.3 序列化操作15 1.4 进程和线程16 1.4.1 多进程16 1.4.2 多线程22 1.4.3 协程25 1.4.4 分布式进程27 1.5 网络编程32 1.5.1 TCP编程33 1.5.2 UDP编程35 1.6 小结36 第2章 Web前端基础37 2.1 W3C标准37 2.1.1 HTML37 2.1.2 CSS47 2.1.3 51 2.1.4 XPath56 2.1.5 JSON61 2.2 HTTP标准61 2.2.1 HTTP请求过程62 2.2.2 HTTP状态码含义62 2.2.3 HTTP头部信息63 2.2.4 Cookie状态管理66 2.2.5 HTTP请求方式66 2.3 小结68 第3章 初识网络爬虫69 3.1 网络爬虫概述69 3.1.1 网络爬虫及其应用69 3.1.2 网络爬虫结构71 3.2 HTTP请求的Python实现72 3.2.1 urllib2/urllib实现72 3.2.2 httplib/urllib实现76 3.2.3 更人性化的Requests77 3.3 小结82 第4章 HTML解析大法83 4.1 初识Firebug83 4.1.1 安装Firebug84 4.1.2 强大的功能84 4.2 正则表达式95 4.2.1 基本语法与使用96 4.2.2 Python与正则102 4.3 强大的BeautifulSoup108 4.3.1 安装BeautifulSoup108 4.3.2 BeautifulSoup的使用109 4.3.3 lxml的XPath解析124 4.4 小结126 第5章 数据存储(无数据库版)127 5.1 HTML正文抽取127 5.1.1 存储为JSON127 5.1.2 存储为CSV132 5.2 多媒体文件抽取136 5.3 Email提醒137 5.4 小结138 第6章 实战项目:基础爬虫139 6.1 基础爬虫架构及运行流程140 6.2 URL管理器141 6.3 HTML下载器142 6.4 HTML解析器143 6.5 数据存储器145 6.6 爬虫调度器146 6.7 小结147 第7章 实战项目:简单分布式爬虫148 7.1 简单分布式爬虫结构148 7.2 控制节点149 7.2.1 URL管理器149 7.2.2 数据存储器151 7.2.3 控制调度器153 7.3 爬虫节点155 7.3.1 HTML下载器155 7.3.2 HTML解析器156 7.3.3 爬虫调度器157 7.4 小结159 中级篇 第8章 数据存储(数据库版)162 8.1 SQLite162 8.1.1 安装SQLite162 8.1.2 SQL语法163 8.1.3 SQLite增删改查168 8.1.4 SQLite事务170 8.1.5 Python操作SQLite171 8.2 MySQL174 8.2.1 安装MySQL174 8.2.2 MySQL基础177 8.2.3 Python操作MySQL181 8.3 更适合爬虫的MongoDB183 8.3.1 安装MongoDB184 8.3.2 MongoDB基础187 8.3.3 Python操作MongoDB194 8.4 小结196 第9章 动态网站抓取197 9.1 Ajax和动态HTML197 9.2 动态爬虫1:爬取影评信息198 9.3 PhantomJS207 9.3.1 安装PhantomJS207 9.3.2 快速入门208 9.3.3 屏幕捕获211 9.3.4 网络监控213 9.3.5 页面自动化214 9.3.6 常用模块和方法215 9.4 Selenium218 9.4.1 安装Selenium219 9.4.2 快速入门220 9.4.3 元素选取221 9.4.4 页面操作222 9.4.5 等待225 9.5 动态爬虫2:爬取去哪网227 9.6 小结230 第10章 Web端协议分析231 10.1 网页登录POST分析231 10.1.1 隐藏表单分析231 10.1.2 加密数据分析234 10.2 验证码问题246 10.2.1 IP代理246 10.2.2 Cookie登录249 10.2.3 传统验证码识别250 10.2.4 人工打码251 10.2.5 滑动验证码252 10.3 www>m>wap252 10.4 小结254 第11章 终端协议分析255 11.1 PC客户端抓包分析255 11.1.1 HTTP Analyzer简介255 11.1.2 虾米音乐PC端API实战分析257 11.2 App抓包分析259 11.2.1 Wireshark简介259 11.2.2 酷我听书App端API实战分析266 11.3 API爬虫:爬取mp3资源信息268 11.4 小结272 第12章 初窥Scrapy爬虫框架273 12.1 Scrapy爬虫架构273 12.2 安装Scrapy275 12.3 创建cnblogs项目276 12.4 创建爬虫模块277 12.5 选择器278 12.5.1 Selector的用法278 12.5.2 HTML解析实现280 12.6 命令行工具282 12.7 定义Item284 12.8 翻页功能286 12.9 构建Item Pipeline287 12.9.1 定制Item Pipeline287 12.9.2 激活Item Pipeline288 12.10 内置数据存储288 12.11 内置图片和文件下载方式289 12.12 启动爬虫294 12.13 强化爬虫297 12.13.1 调试方法297 12.13.2 异常299 12.13.3 控制运行状态300 12.14 小结301 第13章 深入Scrapy爬虫框架302 13.1 再看Spider302 13.2 Item Loader308 13.2.1 Item与Item Loader308 13.2.2 输入与输出处理器309 13.2.3 Item Loader Context310 13.2.4 重用和扩展Item Loader311 13.2.5 内置的处理器312 13.3 再看Item Pipeline314 13.4 请求与响应315 13.4.1 Request对象315 13.4.2 Response对象318 13.5 下载器中间件320 13.5.1 激活下载器中间件320 13.5.2 编写下载器中间件321 13.6 Spider中间件324 13.6.1 激活Spider中间件324 13.6.2 编写Spider中间件325 13.7 扩展327 13.7.1 配置扩展327 13.7.2 定制扩展328 13.7.3 内置扩展332 13.8 突破反爬虫332 13.8.1 UserAgent池333 13.8.2 禁用Cookies333 13.8.3 设置下载延时与自动限速333 13.8.4 代理IP池334 13.8.5 Tor代理334 13.8.6 分布式下载器:Crawlera337 13.8.7 Google cache338 13.9 小结339 第14章 实战项目:Scrapy爬虫340 14.1 创建知乎爬虫340 14.2 定义Item342 14.3 创建爬虫模块343 14.3.1 登录知乎343 14.3.2 解析功能345 14.4 Pipeline351 14.5 优化措施352 14.6 部署爬虫353 14.6.1 Scrapyd354 14.6.2 Scrapyd-client356 14.7 小结357 深入篇 第15章 增量式爬虫360 15.1 去重方案360 15.2 BloomFilter算法361 15.2.1 BloomFilter原理361 15.2.2 Python实现BloomFilter363 15.3 Scrapy和BloomFilter364 15.4 小结366 第16章 分布式爬虫与Scrapy367 16.1 Redis基础367 16.1.1 Redis简介367 16.1.2 Redis的安装和配置368 16.1.3 Redis数据类型与操作372 16.2 Python和Redis375 16.2.1 Python操作Redis375 16.2.2 Scrapy集成Redis384 16.3 MongoDB集群385 16.4 小结390 第17章 实战项目:Scrapy分布式爬虫391 17.1 创建云起书院爬虫391 17.2 定义Item393 17.3 编写爬虫模块394 17.4 Pipeline395 17.5 应对反爬虫机制397 17.6 去重优化400 17.7 小结401 第18章 人性化PySpider爬虫框架403 18.1 PySpider与Scrapy403 18.2 安装PySpider404 18.3 创建豆瓣爬虫405 18.4 选择器409 18.4.1 PyQuery的用法409 18.4.2 解析数据411 18.5 Ajax和HTTP请求415 18.5.1 Ajax爬取415 18.5.2 HTTP请求实现417 18.6 PySpider和PhantomJS417 18.6.1 使用PhantomJS418 18.6.2 运行420 18.7 数据存储420 18.8 PySpider爬虫架构422 18.9 小结423 |
| 编辑推荐 |
| 零基础学习爬虫技术,从Python和Web前端基础开始讲起,由浅入深,包含大量案例,实用性强。 从静态网站到动态网站,从单机爬虫到分布式爬虫,涵盖Scrapy和PySpider框架的运用、去重方案的设计和分布式爬虫的搭建等。 这是一本实战性很强的书,书中共有9个爬虫项目,以系统的实战项目为驱动,由浅及深地讲解爬虫开发中所需的知识和技能。从静态网站到动态网站,从单机爬虫到分布式爬虫,既包含基础知识点,又讲解了关键问题和难点分析,包含从入门到进阶的所有知识。读者认真学习完本书之后不再是个菜鸟,可以自主地开发Python爬虫项目。 |
我是一位对互联网信息充满好奇的普通读者,一直想学习如何利用技术手段来获取我感兴趣的信息。这本书的标题就吸引了我,“Python爬虫开发与项目实战”,听起来就很有趣。虽然我不是专业的程序员,但书中的语言通俗易懂,对于一些技术概念的解释也非常形象生动,让我这个“小白”也能大致理解。我最喜欢的是书中提到的一些“小技巧”,比如如何利用正则表达式来提取特定信息,或者如何模拟用户行为来绕过一些简单的验证。即使我不能完全掌握所有的代码,但通过阅读这些内容,我仿佛打开了一个全新的世界,看到了信息获取的另一种可能性。这本书让我觉得,即使是普通人,也可以通过学习一些技术,来更好地理解和利用互联网。
评分作为一名多年的Python开发者,我一直在寻找一本能够系统性梳理爬虫技术并提供深度实践指导的书籍。这本书的到来,可以说是恰逢其时。它的理论讲解部分虽然基础,但对于一些容易被忽略的细节,比如网络请求库的选择、异常处理机制、并发编程在爬虫中的应用等,都进行了深入的探讨。而其项目实战部分,更是亮点十足。作者选取了几个具有代表性的真实场景,如电商数据采集、新闻资讯聚合、社交媒体信息抓取等,并详细剖析了每个项目背后的技术难点和解决方案。我特别欣赏书中对“代码健壮性”的强调,以及如何编写可维护、可扩展的爬虫代码。这本书的深度和广度,足以满足我进一步提升爬虫技术水平的需求,让我能够更自信地应对各种复杂的爬虫挑战。
评分这本书的排版和印刷质量真的没得说,纸张厚实,文字清晰,阅读体验感极佳。封面设计也很有趣,用Python的蛇形元素巧妙地融合了爬虫的概念,让人一眼就能记住。内容方面,虽然我还没深入学习,但粗略翻阅了一下目录和前几章,感觉作者在入门这块做得非常扎实。很多理论知识都讲解得很透彻,而且配有丰富的插图和代码示例,这对于初学者来说简直是福音。比如,书中对HTTP协议的讲解,我之前一直有些模糊的概念,看了这部分后才算真正理解了请求和响应的整个过程。而且,作者还贴心地给出了很多学习建议和资源链接,让我在学习的路上不至于迷失方向。总的来说,这本书的硬件条件和基础内容都让我非常满意,我已经迫不及待想开始我的爬虫学习之旅了!
评分我是一名在校的计算机专业学生,之前对网络爬虫一直停留在理论层面,对于如何将其应用于实际项目中感到有些迷茫。偶然的机会,我听同学推荐了这本《Python爬虫开发与项目实战》,抱着试试看的心态购买了。拿到书后,我被书中详实的案例深深吸引。从简单的网页信息抓取,到复杂的动态页面处理,再到数据存储和分析,每一个项目都讲解得细致入微,并且提供了完整的代码和详细的步骤解释。尤其是其中关于数据清洗和反爬虫策略的部分,让我学到了很多课堂上学不到的实用技巧。我尝试着跟着书中的项目实践了一遍,感觉自己的编程能力和解决问题的能力都得到了显著提升。这本书的实战性非常强,对于想要将爬虫技术应用到实际工作中的开发者来说,绝对是一本不可多得的宝藏。
评分这本书的内容涵盖了从入门到进阶的Python爬虫技术,尤其是在项目实战方面,提供了多个非常贴近实际需求的案例。我最看重的是书中对于不同类型网站爬取策略的讲解,比如对于Ajax加载数据的处理、JavaScript渲染页面的爬取,以及如何应对一些常见的反爬机制。这些内容在很多入门书籍中都可能被一带而过,但这本书却进行了详细的阐述,并提供了相应的代码实现。此外,书中还涉及了分布式爬虫的原理和实现,以及如何利用Scrapy等框架来构建更高效的爬虫系统。这些内容对于想要构建大规模、高性能爬虫应用的开发者来说,具有很高的参考价值。整体而言,这本书的知识体系完整,理论与实践结合紧密,是一本非常值得深入研读的工具书。
评分背面有一排黑点,丑爆了
评分包装很完美
评分蛮好
评分背面有一排黑点,丑爆了
评分书不错,内容清楚,油印很好,不存在看不清的情况
评分很好,包装完整是正品!一本不错的书,值得好好学习了
评分此用户未填写评价内容
评分在读了,还行把!
评分在读了,还行把!
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.cndgn.com All Rights Reserved. 新城书站 版权所有