Python爬虫总结材料.docx

上传人:b****6 文档编号:6038490 上传时间:2023-01-03 格式:DOCX 页数:21 大小:1.25MB
下载 相关 举报
Python爬虫总结材料.docx_第1页
第1页 / 共21页
Python爬虫总结材料.docx_第2页
第2页 / 共21页
Python爬虫总结材料.docx_第3页
第3页 / 共21页
Python爬虫总结材料.docx_第4页
第4页 / 共21页
Python爬虫总结材料.docx_第5页
第5页 / 共21页
点击查看更多>>
下载资源
资源描述

Python爬虫总结材料.docx

《Python爬虫总结材料.docx》由会员分享,可在线阅读,更多相关《Python爬虫总结材料.docx(21页珍藏版)》请在冰豆网上搜索。

Python爬虫总结材料.docx

Python爬虫总结材料

Python总结

前言

知乎:

路人甲

微博:

玩数据的路人甲

微信公众号:

一个程序员的日常

在知乎分享已经有一年多了,之前一直有朋友说我的回答能整理成书籍了,一直偷懒没做,最近有空仔细整理了知乎上的回答和文章另外也添加了一些新的内容,完成了几本小小的电子书,这一本是有关于Python方面的。

还有另外几本包括我的一些数据分析方面的读书笔记、增长黑客的读书笔记、机器学习十大算法等等内容。

将会在我的微信公众号:

一个程序员的日常进行更新,同时也可以关注我的知乎账号:

路人甲及时关注我的最新分享用数据讲故事。

(一)如何学习Python

学习Python大致可以分为以下几个阶段:

1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:

变量、数据结构、语法等,基础过的很快,基本上1~2周时间就能过完了,我当时是在这儿看的基础:

Python简介|菜鸟教程

2.看完基础后,就是做一些小项目巩固基础,比方说:

做一个终端计算器,如果实在找不到什么练手项目,可以在Codecademy-learntocode,interactively,forfree上面进行练习。

3.如果时间充裕的话可以买一本讲Python基础的书籍比如《Python编程》,阅读这些书籍,在巩固一遍基础的同时你会发现自己诸多没有学习到的边边角角,这一步是对自己基础知识的补充。

4.Python库是Python的精华所在,可以说Python库组成并且造就了Python,Python库是Python开发者的利器,所以学习Python库就显得尤为重要:

ThePythonStandardLibrary,Python库很多,如果你没有时间全部看完,不妨学习一遍常用的Python库:

Python常用库整理-知乎专栏

5.Python库是开发者利器,用这些库你可以做很多很多东西,最常见的网络爬虫、自然语言处理、图像识别等等,这些领域都有很强大的Python库做支持,所以当你学了Python库之后,一定要第一时间进行练习。

如何寻找自己需要的Python库呢?

推荐我之前的一个回答:

如何找到适合需求的Python库?

6.学习使用了这些Python库,此时的你应该是对Python十分满意,也十分激动能遇到这样的语言,就是这个时候不妨开始学习Python数据结构与算法,Python设计模式,这是你进一步学习的一个重要步骤:

faif/python-patterns

7.当度过艰难的第六步,此时选择你要研究的方向,如果你想做后端开发,不妨研究研究Django,再往后,就是你自己自由发挥了。

(二)一些Python免费课程推荐

以下课程都为免费课程

1.python零基础相关

适用人群:

Python零基础的初学者、Web开发程序员、运维人员、有志于从事互联网行业以及各领域应用Python的人群

Ø疯狂的Python:

快速入门精讲

Ø零基础入门学习Python

Ø玩转Python语言

ØPython语言程序设计

Ø程序设计入门

Ø可汗学院公开课:

计算机科学

Øpython入门到精通

ØPython交互式编程入门的课程主页

ØPython交互编程入门(第2部分)的课程主页

2.pythonweb方向

PythonDjango快速Web应用开发入门

3.python爬虫

Python实战:

一周学会爬取网页

4.python数据分析方向

数据分析实战基础课程

 

(三)Python爬虫需要哪些知识?

要学会使用Python爬取网页信息无外乎以下几点内容:

1、要会Python

2、知道网页信息如何呈现

3、了解网页信息如何产生

4、学会如何提取网页信息

第一步Python是工具,所以你必须熟练掌握它,要掌握到什么程度呢?

如果你只想写一写简单的爬虫,不要炫技不考虑爬虫效率,你只需要掌握:

Ø数据类型和变量

Ø字符串和编码

Ø使用list和tuple

Ø条件判断、循环

Ø使用dict和set

你甚至不需要掌握函数、异步、多线程、多进程,当然如果想要提高自己小爬虫的爬虫效率,提高数据的精确性,那么记住最好的方式是去系统的学习一遍Python,去哪儿学习?

Python教程

假设已经熟悉了最基础的Python知识,那么进入第二步:

知道网页信息如何呈现?

你首先要知道所需要抓取的数据是怎样的呈现的,就像是你要学做一幅画,在开始之前你要知道这幅画是用什么画出来的,铅笔还是水彩笔...可能种类是多样的,但是放到网页信息来说这儿只有两种呈现方式:

1、HTML(HTML简介)

2、JSON(JSON简介)

HTML是用来描述网页的一种语言

JSON是一种轻量级的数据交换格式

假设你现在知道了数据是由HTML和JSON呈现出来的,那么我们紧接着第三步:

数据怎么来?

数据当然是从服务器反馈给你的,为什么要反馈给你?

因为你发出了请求。

“Hi~,服务器我要这个资源”

“正在传输中...”

“已经收到HTML或者JSON格式的数据”

这个请求是什么请求?

要搞清楚这一点你需要了解一下http的基础知识,更加精确来说你需要去了解GET和POST是什么,区别是什么。

也许你可以看看这个:

浅谈HTTP中Get与Post的区别-hyddd-博客园

很高兴你使用的是Python,那么你只需要去掌握好快速上手-Requests2.10.0文档,requests可以帮你模拟发出GET和POST请求,这真是太棒了。

饭菜已经备好,两菜一汤美味佳肴,下面就是好好享受了。

现在我们已经拿到了数据,我们需要在这些错乱的数据中提取我们需要的数据,这时候我们有两个选择。

第一招:

万能钥匙

Python正则表达式指南,再大再乱的内容,哪怕是大海捞针,只要告诉我这个针的样子我都能从茫茫大海中捞出来,强大的正则表达式是你提取数据的不二之选。

第二招:

笑里藏刀

BeautifulSoup4.2.0文档,或许我们有更好的选择,我们把原始数据和我们想要的数据的样子扔个这个Beautifulsoup,然后让它帮我们去寻找,这也是一个不错的方案,但是论灵活性,第二招还是略逊于第一招。

第三招:

双剑合璧

最厉害的招式莫过于结合第一招和第二招了,打破天下无敌手。

基础知识我都会,可是我还是写不了一个爬虫啊!

客观别急,这还没完。

以下这些项目,你拿来学习学习练练手。

一些教学项目你值得拥有:

Ø03.豆瓣电影TOP250

Ø04.另一种抓取方式

还不够?

这儿有很多:

Ø知乎--你需要这些:

Python3.x爬虫学习资料整理

Ø如何学习Python爬虫[入门篇]?

-知乎专栏

Ø知乎--Python学习路径及练手项目合集

(四)Python爬虫进阶

爬虫无非分为这几块:

分析目标、下载页面、解析页面、存储内容,其中下载页面不提。

1.分析目标

所谓分析就是首先你要知道你需要抓取的数据来自哪里?

怎么来?

普通的网站一个简单的POST或者GET请求,不加密不反爬,几行代码就能模拟出来,这是最基本的,进阶就是学会分析一些复杂的目标,比如说:

淘宝、新浪微博登陆以及网易云的评论信息等等。

2.解析页面

解析页面主要是选择什么库或者那些库结合能使解析速度更快,可能你一开始你通过种种地方了解到了bs库,于是你对这个库很痴迷,以后只要写爬虫,总是先写上:

importrequests

frombs4importBeautifulSoup

当然bs已经很优秀了,但是并不代表可以用正则表达式解析的页面还需要使用bs,也不代表使用lxml能解决的还要动用bs,所以这些解析库的速度是你在进阶时要考虑的问题。

3.存储内容

刚开始学爬虫,一般爬取的结果只是打印出来,最后把在终端输出的结果复制粘贴保存就好了;后来发现麻烦会用上xlwt/openpyxl/csv的把存储内容写入表格,再后来使用数据库sqlite/mysql/neo4j只要调用了库都很简单,当然这是入门。

进阶要开始学习如何选择合适的数据库,或者存储方式。

当爬取的内容过千万的时候,如何设计使存储速度更快,比如说当既有人物关系又有人物关系的时候,一定会用neo4j来存储关系,myslq用来存储用户信息,这样分开是因为如果信息全部存入neo4j,后期的存储速度经十分的慢。

当你每个步骤都能做到很优秀的时候,你应该考虑如何组合这四个步骤,使你的爬虫达到效率最高,也就是所谓的爬虫策略问题,爬虫策略学习不是一朝一夕的事情,建议多看看一些比较优秀的爬虫的设计方案,比如说Scrapy。

除了爬取策略以外,还有几点也是必备的:

1.代理策略以及多用户策略

代理是爬虫进阶阶段必备的技能,与入门阶段直接套用代理不同,在进阶阶段你需要考虑如何设计使用代理策略,什么时候换代理,代理的作用范围等等,多用户的抓取策略考虑的问题基本上与代理策略相同。

2.增量式抓取以及数据刷新

比如说你抓取的是一个酒店网站关于酒店价格数据信息的,那么会有这些问题:

酒店的房型的价格是每天变动的,酒店网站每天会新增一批酒店,那么如何进行存储、如何进行数据刷新都是应该考虑的问题。

3.验证码相关的一些问题

有很多人提到验证码,我个人认为验证码不是爬虫主要去解决的问题,验证码不多的情况考虑下载到本地自己输入验证码,在多的情况下考虑接入打码平台。

(五)Python爬虫面试指南

前段时间快要毕业,而我又不想找自己的老本行Java开发了,所以面了很多Python爬虫岗位。

因为我在南京上学,所以我一开始只是在南京投了简历,我一共面试了十几家企业,其中只有一家没有给我发offer,其他企业都愿意给到10K的薪资,不要拿南京的薪资水平和北上深的薪资水平比较,结合面试常问的问题类型说一说我的心得体会。

第一点:

Python

因为面试的是Python爬虫岗位,面试官大多数会考察面试者的基础的Python知识,包括但不限于:

ØPython2.x与Python3.x的区别

ØPython的装饰器

ØPython的异步

ØPython的一些常用内置库,比如多线程之类的

第二点:

数据结构与算法

数据结构与算法是对面试者尤其是校招生面试的一个很重要的点,当然小公司不会太在意这些,从目前的招聘情况来看对面试者的数据结构与算法的重视程度与企业的好坏成正比,那些从不问你数据结构的你就要当心他们是否把你当码农用的,当然以上情况不绝对,最终解释权归面试官所有。

第三点:

Python爬虫

最重要也是最关键的一点当然是你的Python爬虫相关的知识与经验储备,这通常也是面试官考察的重点,包括但不限于:

Ø你遇到过的反爬虫的策略有哪些?

Ø你常用的反反爬虫的方案有哪些?

Ø你用过多线程和异步吗?

除此之外你还用过什么方法来提高爬虫效率?

Ø有没有做过增量式抓取?

Ø对Python爬虫框架是否有了解?

第四点:

爬虫相关的项目经验

爬虫重在实践,除了理论知识之外,面试官也会十分注重爬虫相关的项目:

Ø你做过哪些爬虫项目?

如果有Github最好

Ø你认为你做的最好的爬虫项目是哪个?

其中解决了什么难题?

有什么特别之处?

以上是我在面试过程中,会碰到的一些技术相关的问题的总结,当然面试中不光是技术这一点,但是对于做技术的,过了技术面基本上就是薪资问题了。

(六)推荐一些不错的Python博客

如果是Python基础的话,廖雪峰的博客教程会是一个不错的选择:

ØPython3教程

ØPython2.7教程

当然很多刚接触Python的同学反应廖大大的教程中部分跳跃性太大,如果觉得跳跃性太大可以结合菜鸟教程一起看:

ØPython3教程|菜鸟教程

ØPython基础教程|菜鸟教程

如果你英文稍好的话推荐还是看官方文档:

Python3.6.0documentation

如果不是为了学习Python基础的话,推荐几个其他的博客。

Ø董老师的博客:

小明明sàdomicile《Python-Web开发实战》的作者,

Ø知乎某位工程师的博客:

分类《Python》,具体是哪位大神我不太清楚。

Ø依云大大的博客文章值得深读:

依云'sBlog

Ø《从Python开始学编程》的作者博客:

Python-标签-Vamei-博客园,但是此博客的内容也是比较偏向基础知识的。

Øpythonware的创造者,Python图像库(PIL)的创造者:

effbot.org

Ø我很喜欢的一位作者,Pyhub创始人:

Yusheng'sTechBlog

Øxlzd杂谈文章不是很多,有兴趣可以多看看在知乎的他。

Øtwelfthing-博客园

ØPython|the5fire的技术博客

(七)Python如何进阶

很多人在学习编程之初都会碰到这种问题:

学会了基础的语法了,但是还是做不了项目,不知道如何下手。

当初,我学习C的时候是这样、Java的时候是这样、Python的时候也是这样,其实不管什么语言、什么知识都是这样:

理论基础知识-能动手做项目是有一道鸿沟的。

那么如何突破这条鸿沟?

中间的桥梁是什么?

其实题主自己已经回答出来了:

照抄!

所谓照抄前提是有样本。

首先找到一些简单易上手的项目,这些项目大多散落在Python实践相关的书籍中、Github上,这些实战项目知乎上都有很多推荐。

1.一些比较好的适合初学者动手的项目:

ØShow-Me-the-Code/show-me-the-code

Øaosabook/500lines

另外知乎上这个问题下的一些推荐的项目还是非常适合新手练习的,可以作为参考:

Python的练手项目有哪些值得推荐?

2.大多数的Python书里面(除了纯理论书)都是有小项目的,而且书的一个优点是它会一步一步解释这样做的原因。

先照抄这些项目,实现这些小功能在电脑上能运行确认无误之后,回过头来看代码:

Ø有没有你不理解的地方,不理解的地方标记去搜索引擎或者书中找解释。

Ø学习作者设计这个项目的思路方法,并运用到接下来的项目,如果时间充裕,建议隔天再重新再不看书的情况下重新自己实现一遍这些小项目。

如果你是跟着实战的书敲代码的,很多时候项目都不会一遍运行成功,那么你就要根据各种报错去寻找原因,这也是一个学习的过程。

总结起来从Python入门跳出来的过程分为三步:

照抄、照抄之后的理解、重新自己实现。

(八)Python爬虫入门

想写这么一篇文章,但是知乎社区爬虫大神很多,光是整理他们的答案就够我这篇文章的内容了。

对于我个人来说我更喜欢那种非常实用的教程,这种教程对于想直接上手爬虫做一些小东西的朋友来说是极好的。

用一个精彩的回答作为开头:

如何入门Python爬虫?

-谢科的回答

如果你想学习编程,但是找不到学习路径和资源,欢迎关注专栏:

学习编程

第一:

Python爬虫学习系列教程

Python版本:

2.7 

整体目录:

一、爬虫入门

ØPython爬虫入门一之综述

ØPython爬虫入门二之爬虫基础了解

ØPython爬虫入门三之Urllib库的基本使用

ØPython爬虫入门四之Urllib库的高级用法

ØPython爬虫入门五之URLError异常处理

ØPython爬虫入门六之Cookie的使用

ØPython爬虫入门七之正则表达式

二、爬虫实战

ØPython爬虫实战一之爬取糗事百科段子

ØPython爬虫实战二之爬取XX贴吧帖子

ØPython爬虫实战三之实现山东大学无线网络掉线自动重连

ØPython爬虫实战四之抓取淘宝MM照片

ØPython爬虫实战五之模拟登录淘宝并获取所有订单

ØPython爬虫实战六之抓取爱问知识人问题并保存至数据库

ØPython爬虫实战七之计算大学本学期绩点

ØPython爬虫实战八之利用Selenium抓取淘宝匿名旺旺

三、爬虫利器

ØPython爬虫利器一之Requests库的用法

ØPython爬虫利器二之BeautifulSoup的用法

ØPython爬虫利器三之Xpath语法与lxml库的用法

ØPython爬虫利器四之PhantomJS的用法

ØPython爬虫利器五之Selenium的用法

ØPython爬虫利器六之PyQuery的用法

四、爬虫进阶

ØPython爬虫进阶一之爬虫框架概述

ØPython爬虫进阶二之PySpider框架安装配置

ØPython爬虫进阶三之爬虫框架Scrapy安装配置

ØPython爬虫进阶四之PySpider的用法

 

第二(第一的姊妹篇):

Python爬虫入门教程

Python版本:

2.7

教程目录:

Ø[Python]网络爬虫

(一):

抓取网页的含义和URL基本构成

Ø[Python]网络爬虫

(二):

利用urllib2通过指定的URL抓取网页内容

Ø[Python]网络爬虫(三):

异常的处理和HTTP状态码的分类

Ø[Python]网络爬虫(四):

Opener与Handler的介绍和实例应用

Ø[Python]网络爬虫(五):

urllib2的使用细节与抓站技巧

Ø[Python]网络爬虫(六):

一个简单的XX贴吧的小爬虫

Ø[Python]网络爬虫(七):

Python中的正则表达式教程

Ø[Python]网络爬虫(八):

糗事百科的网络爬虫(v0.3)源码及解析(简化更新)

Ø[Python]网络爬虫(九):

XX贴吧的网络爬虫(v0.4)源码及解析

Ø[Python]网络爬虫(十):

一个爬虫的诞生全过程(以山东大学绩点运算为例)

Ø[Python]网络爬虫(11):

亮剑!

爬虫框架小抓抓Scrapy闪亮登场!

Ø[Python]网络爬虫(12):

爬虫框架Scrapy的第一个爬虫示例入门教程

第三:

你已经看完上面(第一或者第二)的教程:

再推荐知乎用户@陈唯源 的实战练习博客

ØPython爬虫学习记录

(1)——Xiami全站播放数

ØPython爬虫学习记录

(2)——LDA处理歌词

ØXX音乐带标签,作曲,演唱者,类别的歌词数据

ØPython爬虫学习记录(4)——传说中的足彩倍投法。

好像也不是那么靠谱

Ø2011~2013.5全球所有足球比赛比分数据以及足彩各公司盘口

ØPython爬虫学习记录(3)——用Python获取虾米加心歌曲,并获取MP3下载地址

ØPython爬虫学习记录(5)——pythonmongodb+爬虫+web.py的acfun视频排行榜

ØPython爬虫学习记录(0)——Python爬虫抓站记录(虾米,XX,豆瓣,新浪微博)

第四:

最后推荐知乎用户@gagasalamer 的实战练习博客

Ø爬虫教程

(1)基础入门

Ø爬虫教程

(2)性能进阶 

Ø知乎用户信息爬虫(规模化爬取)

Ø用scrapy爬取豆瓣电影新片榜

Ø用scrapy对豆瓣top250页面爬取(多页面爬取)

Ø用scrapy自动爬取下载图片

Ø用scrapy自动下载石原sama的豆瓣影人图集(727张图片,自动下载)

希望以上的教程可以帮助到大家。

(九)Python开发微信公众号

我的第一个Python项目就是做的微信公众号机器人,按照当时我的思路来讲讲如何学习使用Python来开发微信公众号:

大家伙收藏顺手点个赞呗。

微信公众号功能开发分为两大块:

需要调用微信内部功能、不需要调用微信内部功能,重点在调用微信内部功能组建。

1、需要调用微信内部功能

需要调用微信内部功能组件的比如:

公众号收发消息|图片、页面分享至朋友圈、用户授权提取用户基本信息、微信小店、微信公众号菜单等内部功能组件,这些功能组件在微信公众号开发者文档里面找到:

微信公众平台开发者文档

对于这些功能组件,开发者文档都提供了详细的接口文档,告诉你如何调用,而你只需要用Python调用这些接口即可。

比如一个很简单的消息发送的方法如下:

当然在这所有的调用之前,需要进行一些授权验证,同样开发者文档有一套完整的接入指南:

接入指南-微信公众平台开发者文档

很遗憾很多初学者在一开始看这份文档的时候并不能看懂,所以这里也推荐一些我以前学习摸索的过程中使用到的一些简单易学的教程。

你可以先做一个简单的微信机器人练练手(零基础十分容易上手):

Ø使用python一步一步搭建微信公众平台

(一)

Ø使用python一步一步搭建微信公众平台

(二)----搭建一个中英互译的翻译工具

Ø使用python一步一步搭建微信公众平台(三)----添加用户关注后的欢迎信息与听音乐功能

Ø使用python一步一步搭建微信公众平台(四)----将小黄鸡引入微信自动回复

Ø使用python一步一步搭建微信公众平台(五)----使用mysql服务来记录用户的反馈

如果你已经能按照以上的教程搭建一个完整的微信机器人了,基本上对于微信收发消息等等简单功能已经没有什么障碍了。

下面再继续学习如下教程,开始学习如何调用其他一些相对来说比较复杂的接口。

Ø微信公众平台开发入门教程

Ø微信公众平台开发—天气预报

Ø微信公众平台开发—小黄鸡

Ø微信公众平台开发—人脸识别

Ø微信公众平台开发—XX地图

Ø微信公众平台开发—笑话

Ø微信公众平台开发—在线点歌

Ø微信公众平台开发—附近查询

Ø微信公众平台开发—快递物流

Ø微信公众平台开发—一键关注

当你实验了如上的教程之后,相信官方文档的所有接口调用对你来说已经小菜一碟了。

2、不需要调用微信内部功能

不需要调用微信内部功能组件的,就如同正常的web页面一样,比如填写表单进行进行注册、点击按钮进行跳转等等,这些都是正常的web请求,按照正常的web开发方法走即可。

(十)Python面试概念和代码

(一)、这两个参数是什么意思:

*args,**kwargs?

我们为什么要使用它们?

答:

如果我们不确定往一个函数中传入多少参数,或者我们希望以元组(tuple)或者列表(list)的形式传参数的时候,我们可以使用*args(单星号)。

如果我们不知道往函数中传递多少个关键词参数或者想传入字典的值作为关键词参数的时候我们可以使用**kwargs(双星号),args、kwargs两个标识符是约定俗成的用法。

另一种答法:

当函数的参数前面有一个星号*号的时候表示这是一个可变的位置参数,两个星号**表示这个是一个可变的关键词参数。

星号*把序列或者集合解包(unpack)成位置参数,两个星号**把字典解包成关键词参数。

 

(二)、谈一谈Python的装饰器(decorator)

装饰器本质上是一个Python函数,它可以让其它函数在不作任何变动的情况下增加额外功能,装饰器的返回值也是一个函数对象。

它经常用于有切面需求的场景。

比如:

插入日志、性能测试、事务处理、缓存、权限校验等。

有了装饰器我们就可以抽离出大量的与函数功能无关的雷同代码进行重用。

有关于具体的装饰器的用法看这里:

装饰器-廖雪峰的官方网站

(三)、简要描述Python的垃圾回收机制(garbagecollection)

Python中的垃圾回收是以引用计数为主,标记-清除和分代收集为辅。

引用计数:

Python在内存中存储每个对象的引用计数,如果计数变成0,该对象就会消失,分配给该对象的内存就会释放出来。

标记-清除:

一些容器对象,比如list、dict、tuple,instance等可能会出现引用循环,对于这些循环,垃圾回收器会定时回收这些循环(对象之间通过引用(指针)连在一起,构成一个有向图,对象构成这个有向图的节点,而引用关系构成这个有向图的边)。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 电脑基础知识

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1