Name

    requests

1. Description

    Requests HTTP Library

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

2. Package contents

    __version__

    _internal_utils

    adapters

    api

    auth

    certs

    compat

    cookies

    exceptions

    help

    hooks

    models

    packages

    sessions

    status_codes

    structures

    utils

3. HTTP原理

互联网在传输数据的时候需要遵循一定的规范格式,其中我们在使用浏览器浏览网页的时候就需要遵循HTTP协议,中文名称为超文本传输协议。HTTP协议主要用来传输超文本(网页等)数据。类似的协议还有ftp(主要用来传输文件)等

我们需要采集指定计算机中的数据,那么我们怎么才能找到这台计算机呢? HTTP协议使用URL来定位计算机和计算机中的数据资源。例如

https://www.blog.csdn.net/test就是一个URL,在浏览器上输入这串字符,就可以找到博客了。https表示协议的名称,https是http协议的加密版本。www.blog.csdn.net表示服务器的域名,通过转换可以变成ip地址,可以通过域名在茫茫互联网上定位到csdn的服务器。最后/test该服务器web站点下的资源。

4. HTTP请求

     我们在浏览器上输入一个URL,按下回车之后很快就看到了页面的内容,这其中包含了很复杂的过程,我们需要了解的是,我们的浏览器向URL指向的服务器发出了http请求request,服务器处理请求之后,返回响应response。浏览器根据response中的源代码等内容进行解析,渲染之后我们就可以在浏览器上看到丰富多彩的内容了。

1)  HTTP request

reques主要由以下4部分组成(请求行+请求头+空行+请求体)组成:

Python中第三方模块requests解析 Python 第1张

 

①是请求方法,GET和POST是最常见的HTTP方法,除此以外还包括DELETE、HEAD、OPTIONS、PUT、TRACE。不过,当前的大多数浏览器只支持GET和POST,Spring 3.0提供了一个HiddenHttpMethodFilter,允许你通过“_method”的表单参数指定这些特殊的HTTP方法(实际上还是通过POST提交表单)。服务端配置了HiddenHttpMethodFilter后,Spring会根据_method参数指定的值模拟出相应的HTTP方法,这样,就可以使用这些HTTP方法对处理方法进行映射了。

②为请求对应的URL地址,它和报文头的Host属性组成完整的请求URL,

③是协议名称及版本号。

④是HTTP的报文头,报文头包含若干个属性,格式为“属性名:属性值”,服务端据此获取客户端的信息。

⑤是报文体,它将一个页面表单中的组件值通过param1=value1&param2=value2的键值对形式编码成一个格式化串,它承载多个请求参数的数据。不但报文体可以传递请求参数,请求URL也可以通过类似于“/chapter15/user.html? param1=value1&param2=value2”的方式传递请求参数。

对照上面的请求报文,我们把它进一步分解,你可以看到一幅更详细的结构图:

Python中第三方模块requests解析 Python 第2张

 

a)  请求行解析

请求行:请求行由三个标记组成:请求方法、请求URI和HTTP版本,它们用空格分隔。

例如:GET /index.html HTTP/1.1

HTTP规范定义了8种可能的请求方法:

GET                 检索URI中标识资源的一个简单请求

HEAD               与GET方法相同,服务器只返回状态行和头标,并不返回请求文档

POST                服务器接受被写入客户端输出流中的数据的请求

PUT                 服务器保存请求数据作为指定URI新内容的请求

DELETE            服务器删除URI中命名的资源的请求

OPTIONS          关于服务器支持的请求方法信息的请求

TRACE             Web服务器反馈Http请求和其头标的请求

CONNECT        已文档化但当前未实现的一个方法,预留做隧道处理

b)  请求头解析

1. Accept:告诉WEB服务器自己接受什么介质类型,*/* 表示任何类型,type/* 表示该类型下的所有子类型,type/sub-type。

2. Accept-Charset: 浏览器申明自己接收的字符集

Accept-Encoding: 浏览器申明自己接收的编码方法,通常指定压缩方法,是否支持压缩,支持什么压缩方法 (gzip,deflate)

Accept-Language::浏览器申明自己接收的语言语言跟字符集的区别:中文是语言,中文有多种字符集,比如big5,gb2312,gbk等等。

3. Accept-Ranges:WEB服务器表明自己是否接受获取其某个实体的一部分(比如文件的一部分)的请求。bytes:表示接受,none:表示不接受。

4. Age:当代理服务器用自己缓存的实体去响应请求时,用该头部表明该实体从产生到现在经过多长时间了。

5. Authorization:当客户端接收到来自WEB服务器的 WWW-Authenticate 响应时,该头部来回应自己的身份验证信息给WEB服务器。

6. Cache-Control:请求:no-cache(不要缓存的实体,要求现在从WEB服务器去取)

max-age:(只接受 Age 值小于 max-age 值,并且没有过期的对象)

max-stale:(可以接受过去的对象,但是过期时间必须小于

max-stale 值)

min-fresh:(接受其新鲜生命期大于其当前 Age 跟 min-fresh 值之和的

缓存对象)

响应:public(可以用 Cached 内容回应任何用户)

private(只能用缓存内容回应先前请求该内容的那个用户)

no-cache(可以缓存,但是只有在跟WEB服务器验证了其有效后,才能返回给客户端)

max-age:(本响应包含的对象的过期时间)

ALL: no-store(不允许缓存)

 

7. Connection:请求:close(告诉WEB服务器或者代理服务器,在完成本次请求的响应

后,断开连接,不要等待本次连接的后续请求了)。

keepalive(告诉WEB服务器或者代理服务器,在完成本次请求的

响应后,保持连接,等待本次连接的后续请求)。

响应:close(连接已经关闭)。

keepalive(连接保持着,在等待本次连接的后续请求)。

Keep-Alive:如果浏览器请求保持连接,则该头部表明希望 WEB 服务器保持

连接多长时间(秒)。

例如:Keep-Alive:300

 

8. Content-Encoding:WEB服务器表明自己使用了什么压缩方法(gzip,deflate)压缩响应中的对象。

例如:Content-Encoding:gzip

Content-Language:WEB 服务器告诉浏览器自己响应的对象的语言。

Content-Length: WEB 服务器告诉浏览器自己响应的对象的长度。

例如:Content-Length: 26012

Content-Range: WEB 服务器表明该响应包含的部分对象为整个对象的哪个部分。

例如:Content-Range: bytes 21010-47021/47022

Content-Type: WEB 服务器告诉浏览器自己响应的对象的类型。

例如:Content-Type:application/xml

 

9. ETag:就是一个对象(比如URL)的标志值,就一个对象而言,比如一个 html 文件,

如果被修改了,其 Etag 也会别修改, 所以,ETag 的作用跟 Last-Modified 的

作用差不多,主要供 WEB 服务器 判断一个对象是否改变了。

比如前一次请求某个 html 文件时,获得了其 ETag,当这次又请求这个文件时,

浏览器就会把先前获得的 ETag 值发送给 WEB 服务器,然后 WEB 服务器

会把这个 ETag 跟该文件的当前 ETag 进行对比,然后就知道这个文件

有没有改变了。

 

10. Expired:WEB服务器表明该实体将在什么时候过期,对于过期了的对象,只有在

跟WEB服务器验证了其有效性后,才能用来响应客户请求。

是 HTTP/1.0 的头部。

例如:Expires:Sat, 23 May 2009 10:02:12 GMT

 

11. Host:客户端指定自己想访问的WEB服务器的域名/IP 地址和端口号。

例如:Host:rss.sina.com.cn

 

12. If-Match:如果对象的 ETag 没有改变,其实也就意味著对象没有改变,才执行请求的动作。

If-None-Match:如果对象的 ETag 改变了,其实也就意味著对象也改变了,才执行请求的动作。

 

13. If-Modified-Since:如果请求的对象在该头部指定的时间之后修改了,才执行请求

的动作(比如返回对象),否则返回代码304,告诉浏览器该对象

没有修改。

例如:If-Modified-Since:Thu, 10 Apr 2008 09:14:42 GMT

If-Unmodified-Since:如果请求的对象在该头部指定的时间之后没修改过,才执行

请求的动作(比如返回对象)。

 

14. If-Range:浏览器告诉 WEB 服务器,如果我请求的对象没有改变,就把我缺少的部分

给我,如果对象改变了,就把整个对象给我。 浏览器通过发送请求对象的

ETag 或者 自己所知道的最后修改时间给 WEB 服务器,让其判断对象是否

改变了。

总是跟 Range 头部一起使用。

 

15. Last-Modified:WEB 服务器认为对象的最后修改时间,比如文件的最后修改时间,

动态页面的最后产生时间等等。

例如:Last-Modified:Tue, 06 May 2008 02:42:43 GMT

 

16. Location:WEB 服务器告诉浏览器,试图访问的对象已经被移到别的位置了,

到该头部指定的位置去取。

例如:Location:

http://i0.sinaimg.cn/dy/deco/2008/0528/sinahome_0803_ws_005_text_0.gif

 

17. Pramga:主要使用 Pramga: no-cache,相当于 Cache-Control: no-cache。

例如:Pragma:no-cache

 

18. Proxy-Authenticate: 代理服务器响应浏览器,要求其提供代理身份验证信息。

Proxy-Authorization:浏览器响应代理服务器的身份验证请求,提供自己的身份信息。

 

19. Range:浏览器(比如 Flashget 多线程下载时)告诉 WEB 服务器自己想取对象的哪部分。

例如:Range: bytes=1173546-

 

20. Referer:浏览器向 WEB 服务器表明自己是从哪个 网页/URL 获得/点击 当前请求中的网址/URL。

例如:Referer:http://www.sina.com/

 

21. Server: WEB 服务器表明自己是什么软件及版本等信息。

例如:Server:Apache/2.0.61 (Unix)

 

22. User-Agent: 浏览器表明自己的身份(是哪种浏览器)。

例如:User-Agent:Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN;

rv:1.8.1.14) Gecko/20080404 Firefox/2.0.0.14

 

23. Transfer-Encoding: WEB 服务器表明自己对本响应消息体(不是消息体里面的对象)

作了怎样的编码,比如是否分块(chunked)。

例如:Transfer-Encoding: chunked

 

24. Vary: WEB服务器用该头部的内容告诉 Cache 服务器,在什么条件下才能用本响应

所返回的对象响应后续的请求。

假如源WEB服务器在接到第一个请求消息时,其响应消息的头部为:

Content-Encoding: gzip; Vary: Content-Encoding 那么 Cache 服务器会分析后续

请求消息的头部,检查其 Accept-Encoding,是否跟先前响应的 Vary 头部值

一致,即是否使用相同的内容编码方法,这样就可以防止 Cache 服务器用自己

Cache 里面压缩后的实体响应给不具备解压能力的浏览器。

例如:Vary:Accept-Encoding

 

25. Via: 列出从客户端到 OCS 或者相反方向的响应经过了哪些代理服务器,他们用

什么协议(和版本)发送的请求。

当客户端请求到达第一个代理服务器时,该服务器会在自己发出的请求里面

添加 Via 头部,并填上自己的相关信息,当下一个代理服务器 收到第一个代理

服务器的请求时,会在自己发出的请求里面复制前一个代理服务器的请求的Via

头部,并把自己的相关信息加到后面, 以此类推,当 OCS 收到最后一个代理服

务器的请求时,检查 Via 头部,就知道该请求所经过的路由。

例如:Via:1.0 236-81.D07071953.sina.com.cn:80 (squid/2.6.STABLE13)

 

HTTP 请求消息头部实例:

Host:rss.sina.com.cn

User-Agent:Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.8.1.14) Gecko/20080404 Firefox/2.0.0.14

Accept:text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,image/png,*/*;q=0.5

Accept-Language:zh-cn,zh;q=0.5

Accept-Encoding:gzip,deflate

Accept-Charset:gb2312,utf-8;q=0.7,*;q=0.7

Keep-Alive:300

Connection:keep-alive

Cookie:userId=C5bYpXrimdmsiQmsBPnE1Vn8ZQmdWSm3WRlEB3vRwTnRtW <-- Cookie

If-Modified-Since:Sun, 01 Jun 2008 12:05:30 GMT

Cache-Control:max-age=0

HTTP 响应消息头部实例:

Status:OK - 200 <-- 响应状态码,表示 web 服务器处理的结果。

Date:Sun, 01 Jun 2008 12:35:47 GMT

Server:Apache/2.0.61 (Unix)

Last-Modified:Sun, 01 Jun 2008 12:35:30 GMT

Accept-Ranges:bytes

Content-Length:18616

Cache-Control:max-age=120

Expires:Sun, 01 Jun 2008 12:37:47 GMT

Content-Type:application/xml

Age:2

X-Cache:HIT from 236-41.D07071951.sina.com.cn <-- 反向代理服务器使用的 HTTP 头部

Via:1.0 236-41.D07071951.sina.com.cn:80 (squid/2.6.STABLE13)

Connection:close

c)  空行解析

空行:最后一个请求头标之后是一个空行,发送回车符和退行,通知服务器以下不再有头标

d)  简单分析

1、Request Method:常用请求方法有两种,一种是GET方法,其请求的参数会以明文形式加 在URL后面,因此具有一定的长度限制。一种POST方法,POST方法会将请求中的参数(例如,用户名和密码)加密后传到服务器。

2、Request URL:即我们的请求地址。

3、Request Header:header是比较重要的一部分,header携带了大量重要的信息,我们在写爬虫程序时要格外注意,其中header包含的部分如下:

Accept: 用于浏览器可以接受哪些类型的图片。

Accept-Lang:用于指定浏览器可有接受哪些语言。

Accept-Encoding:用于指定浏览器可以接受的内容编码。

Host:用于指定请求资源的主机IP地址和端口号。

Cookie:用于维持用户当前的会话,通常会有多个cookie。

Referer:表示请求从那个页面发过来的

User-Agent:它为服务器提供当前请求来自的客户端的信息,包括系统类型、浏览器信息等。这个字段内容在爬虫程序种非常重要,我们通常可以使用它来伪装我们的爬虫程序,如果不携带这个字段,服务器可能直接拒绝我们的请求。

4、Content-Type:用来表示具体请求中媒体类型信息,text/html 表示HTML格式,image/gif表示GIF图片,application/json表示json数据等,更过的类型大家可以去百度上搜下。

request body:请求体中放的内容时POST请求的表单数据,GET请求没有请求体。

2)  HTTP response

一个响应由4个部分组成;状态行、响应头标、空行、响应数据

HTTP的响应报文也由4部分组成(响应行+响应头+空行+响应体)

 Python中第三方模块requests解析 Python 第3张

 

①报文协议及版本;

②状态码及状态描述;

③响应报文头,也是由多个属性组成;

④响应报文体,即我们真正要的“干货”。

a)  状态行

1.状态行:状态行由三个标记组成:HTTP版本、响应代码和响应描述。

HTTP版本:向客户端指明其可理解的最高版本。

响应代码:3位的数字代码,指出请求的成功或失败,如果失败则指出原因。

响应描述:为响应代码的可读性解释。

例如:HTTP/1.1 200 OK

 

HTTP响应码:

1xx 消息,一般是告诉客户端,请求已经收到了,正在处理,别急...

2xx 处理成功,一般表示:请求收悉、我明白你要的、请求已受理、已经处理完成等信息.

3xx 重定向到其它地方。它让客户端再发起一个请求以完成整个处理。

4xx 处理发生错误,责任在客户端,如客户端的请求一个不存在的资源,客户端未被授权,禁止访问等。

5xx 处理发生错误,责任在服务端,如服务端抛出异常,路由出错,HTTP版本不支持等。

100 继续 101 分组交换协 200 OK 201 被创建 202 被采纳

203 非授权信息 204 无内容 205 重置内容 206 部分内容

300 多选项 301 永久地传送 302 找到 303 参见其他

304 未改动 305 使用代理 307 暂时重定向 400 错误请求

401 未授权 402 要求付费 403 禁止 404 未找到

405 不允许的方法 406 不被采纳 407 要求代理授权408 请求超时

409 冲突 410 过期的 411 要求的长度 412 前提不成立

413 请求实例太大 414 请求URI太大 415 不支持的媒体类型

416 无法满足的请求范围 417 失败的预期 500 内部服务器错误

501 未被使用 502 网关错误 503 不可用的服务 504 网关超时

505 HTTP版本未被支持

b)  响应头标

2.响应头标:像请求头标一样,它们指出服务器的功能,标识出响应数据的细节。

c)  空行

3.空行:最后一个响应头标之后是一个空行,发送回车符和退行,表明服务器以下不再有头标。

d)  响应数据

4.响应数据:HTML文档和图像等,也就是HTML本身。

e)  简单分析

服务器处理好用户提交的请求后,向用户返回响应,响应主要由一下三个部分组成:

1、响应状态码:状态码表示服务器的响应状态,例如200代表服务器正常响应,404表示页面未找到,500表示服务器内部错误等,具体可有在百度上查。

2、响应头:响应头包含了服务器对请求的应答信息,常见字段如下:

Data:表示产生响应的时间。

Last-Modified:表示获得的资源最后的修改时间。

Server:包含服务器信息,比如名称、版本号等。

Content-Type:表示返回的数据类型是什么。比如text/html 表示返回html文档。

Set-Cookie:告诉浏览器下次请求时需要带上该字段中的Cookie,这个非常重要,是服务器识别用户和维持会话的重要手段。

Expires:指定响应的过期时间,可以是代理服务器或者浏览器将加载的内容更新到缓存中,如果再次访问,就可以从缓存中加载,缩短加载时间。

3、响应体:响应体的内容非常重要,如果说响应状态码、响应头是包裹上的快递单信息,那么响应体就是包裹里的东西了。我们需要解析的就是响应体。我们在请求网页时,其响应体就是html代码,请求一张图片时,响应体内容就是图片的二进制数据。

5. Session和Cookies

    在浏览一些网站,比如购物的时候,我们常常需要先登陆,登陆过后我们可以连续访问网站,并且可以将我们需要的购买的东西加入购物车。但是有时候我们中途过了一段时间没有操作就需要重新登陆。还有某些网站,打开网页之后就已经登陆了。这些功能看起来来很神奇,其实都是Session和Cookie在发挥作用。

1)  无状态HTTP

Http有个特点,即无状态。什么叫无状态呢。Http无状态是指Http协议对事务处理没有记忆能力,当我们向服务器发送请求后,服务器处理请求之后返回结果。这是一个独立的过程,再次向服务器发出请求,服务器做出响应又是一次独立的过程。不会有一条网线一直连着你的电脑和服务器来完成你的所有请求。因此,服务器并不知道收到的两次请求是否来自同一个用户。这种效果并不是我们想要的。为了保持前后的状态,我们需要将前面所有请求中的数据再重传一次,这是非常麻烦和浪费资源的。为了解决这个问题,用于保持HTTP连接状态的Session和Cookies就出现了。

2)  session与cookies

 Python中第三方模块requests解析 Python 第4张

 

    session是指从我们打开一个网站开始至我们关闭浏览器一系列的请求过程。比如我们打开淘宝网站,淘宝网站的服务器就会为我们创建并保存一个会话对象,会话对象里有用户的一些信息,比如我们登陆之后,会话中就保存着我们的账号信息。会话有一定的生命周期,当我们长时间(超过会话有效期)没有访问该网站或者关闭浏览器,服务器就会删掉该会话对象。

    cookies是指网站为了辨别用户身份,进行会话跟踪而储存在本地终端的数据,cookies一般再电脑中的文件里以文本形式储存。cookies其实是有键值对组成的,如下图所示:

 Python中第三方模块requests解析 Python 第5张

 

3)  会话维持

    当客户端浏览器第一次请求服务器时,服务器会再response中设置一个Set-Cookies的字段,用来标记用户的身份,客户端浏览器会把cookies保存起来,cookies中保存的有Session的id信息。当客户端浏览器再次请求该网站时,会把Cookies放在请求头中一起提交给服务器,服务器检查该Cookies即可找到对应的会话是什么,再通过判断会话来辨认用户的状态。

当我们成功登陆网站时,网站会告诉客户端应该设置哪些Cookies信息,以保持登陆状态。如果客户端浏览器传给服务器的cookies无效或者会话过期,可能就会收到错误的响应或者跳转到登陆页面重新登陆。

cookie和session的共同之处在于:cookie和session都是用来跟踪浏览器用户身份的会话方式。
cookie和session的区别是:cookie数据保存在客户端,session数据保存在服务器端。
cookie不是很安全,别人可以分析存放在本地的COOKIE并进行COOKIE欺骗,如果主要考虑到安全应当使用session,当然也没有绝对的安全,只是相对cookie,session更加安全
session会在一定时间内保存在服务器上。当访问增多,会比较占用你服务器的性能,如果主要考虑到减轻服务器性能方面,应当使用COOKIE
cookie和session各有优缺点,所以将登陆信息等重要信息存放为SESSION;其他信息如果需要保留,可以放在COOKIE中

 Python中第三方模块requests解析 Python 第6张

 

6. 访问模式

>>> import requests

>>> r = requests.get("http://www.baidu.com") # 访问百度主页

>>> r.status_code # 查看状态码,状态码为200表示访问成功

200

>>> r.encoding = 'utf-8' #更改编码为

>>> r.text # 打印网页内容  

7. requests库的连接异常

requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等

requests.HTTPError HTTP错误异常

requests.URLRequired URL缺失异常

requests.TooManyRedirects 超过最大重定向次数,产生重定向异常

requests.ConnectTimeout 连接远程服务器超时异常

requests.Timeout 请求URL超时,产生超时异常

通用代码框架,一个小例子

 

import requests

def getHTMLText(url):

        try:

            r = requests.get(url, timeout=30)

            r.raise_for_status()

            print(r.apparent_encoding)

            r.encoding = r.apparent_encoding

            return r.text

        except:

            return "产生异常"

 

if __name__ == "__main__":

        url = "http://www.baidu.com"

        print(getHTMLText(url))

8. HTTP协议对资源的操作

GET 请求获取URL位置的资源

HEAD 请求获取URL位置资源的响应消息报告,即获得该资源的头部信息

POST 请求向URL位置的资源后附加新的数据

PUT 请求向URL位置存储一个资源,覆盖原URL位置的资源

PATCH 请求局部更新URL位置的资源,即改变该处资源的部分内容

DELETE 请求删除URL位置存储的资源

HTTP协议方法于requests库方法是一一对应的。

requests库的7个主要方法

requests.request() 构造一个请求,支撑以下各方法的基础方法

requests.get() 获取HTML网页的主要方法,对应于HTTP的GET

requests.head() 获取HTML网页头信息的方法,对应于HTTP的HEAD

requests.post() 向HTML网页提交POST请求的方法,对应于HTTP的POST

requests.put() 向HTML网页提交PUT请求的方法,对应于HTTP的PUT

requests.patch() 向HTML网页提交局部修改请求,对应于HTTP的PATCH

requests.delete() 向HTML页面提交删除请求,对应于HTTP的DELETE

1)  head()方法示例

 

>>> r = requests.head('http://httpbin.org/get')

>>> r.headers

{'Content‐Length': '238', 'Access‐Control‐Allow‐Origin': '*', 'Access‐

Control‐Allow‐Credentials': 'true', 'Content‐Type':

'application/json', 'Server': 'nginx', 'Connection': 'keep‐alive',

'Date': 'Sat, 18 Feb 2017 12:07:44 GMT'}

>>> r.text

''

2)  post()方法示例

>>> payload = {'key1': 'value1', 'key2': 'value2'}

>>> r = requests.post('http://httpbin.org/post', data = payload)

>>> print(r.text)

{ ...

"form": {

"key2": "value2",

"key1": "value1"

},

}

向URL POST一个字典,自动编码为form(表单)。

post字典,默认存到form表单中。

>>> r = requests.post('http://httpbin.org/post', data = 'ABC')

>>> print(r.text)

{ ...

"data": "ABC"

"form": {},

}

向URL POST一个字符串,自动编码为data。

post字符串,默认存到data中。

 

3)  put()方法示例

>>> payload = {'key1': 'value1', 'key2': 'value2'}

>>> r = requests.put('http://httpbin.org/put', data = payload)

>>> print(r.text)

{ ...

"form": {

"key2": "value2",

"key1": "value1"

},

}

4)  request方法

requsets库的request方法,是所有方法的基础方法。

request方法的完整使用方法

requests.request(method, url, **kwargs)

method : 请求方式,对应get/put/post等7种

url : 拟获取页面的url链接

**kwargs: 控制访问的参数,共13个

methed:request的请求方式(7种)

r = requests.request('GET', url, **kwargs)

r = requests.request('HEAD', url, **kwargs)

r = requests.request('POST', url, **kwargs)

r = requests.request('PUT', url, **kwargs)

r = requests.request('PATCH', url, **kwargs)

r = requests.request('delete', url, **kwargs)

r = requests.request('OPTIONS', url, **kwargs)

9. http协议的请求参数设置。

OPTIONS是向服务器获取一些服务器和客户端能够打交道的参数。

**kwargs: 控制访问的参数,均为可选项

params : 字典或字节序列,作为参数增加到url中

>>> kv = {'key1': 'value1', 'key2': 'value2'}

>>> r = requests.request('GET', 'http://python123.io/ws', params=kv)

>>> print(r.url)

http://python123.io/ws?key1=value1&key2=value2

data : 字典、字节序列或文件对象,作为Request的内容

 

>>> kv = {'key1': 'value1', 'key2': 'value2'}

>>> r = requests.request('POST', 'http://python123.io/ws', data=kv)

>>> body = '主体内容'

>>> r = requests.request('POST', 'http://python123.io/ws', data=body)

json : JSON格式的数据,作为Request的内容

 

>>> kv = {'key1': 'value1'}

>>> r = requests.request('POST', 'http://python123.io/ws', json=kv)

headers : 字典,HTTP定制头

 

>>> hd = {'user‐agent': 'Chrome/10'}

>>> r = requests.request('POST', 'http://python123.io/ws', headers=hd)

cookies : 字典或CookieJar,Request中的cookie

import requests
cookie = "23F5D5F299F9FF7F7541095DA115EFCFADFDF127695462AF30E653A38F03998376B7FA69"
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36',
'Connection': 'keep-alive',
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Cookie': cookie}
r = requests.get("https://www.cnblogs.com/windyrainy/p/10593806.html",headers=header)
r.encoding = "utf-8"
print(r.text)

auth : 元组,支持HTTP认证功能

files : 字典类型,传输文件

>>> fs = {'file': open('data.xls', 'rb')}

>>> r = requests.request('POST', 'http://python123.io/ws', files=fs)

timeout : 设定超时时间,秒为单位

>>> r = requests.request('GET', 'http://www.baidu.com', timeout=10)

proxies : 字典类型,设定访问代理服务器,可以增加登录认证

>>> pxs = { 'http': 'http://user:pass@10.10.10.1:1234'

'https': 'https://10.10.10.1:4321' }

>>> r = requests.request('GET', 'http://www.baidu.com', proxies=pxs)

allow_redirects : True/False,默认为True,重定向开关

stream : True/False,默认为True,获取内容立即下载开关

verify : True/False,默认为True,认证SSL证书开关

cert : 本地SSL证书路径

10.    get方法

get方法的常用方式

r = requests.get(url)

r返回一个包含服务器资源的Response对象

get方法构造一个向服务器请求资源的Request对象

 

get方法的完整使用方法

requests.get(url, params=None, **kwargs)

url : 拟获取页面的url链接

params : url中的额外参数,字典或字节流格式,可选

**kwargs: 12个控制访问的参数,可选

>>> import requests

>>> r = requests.get("http://www.baidu.com") # 访问百度主页

>>> print(r.status_code) # 打印请求的状态码

200

>>> type(r) #查看r的类型

<class 'requests.models.Response'>  #r是一个类,类的名是requests

>>> r.headers # 返回get请求获得页面的头部信息

{'Server': 'bfe/1.0.8.18', 'Date': 'Wed, 19 Apr 2017 09:28:11 GMT', 'Content-Type': 'text/html', 'Last-Modified': 'Mon, 23 Jan 2017 13:27:33 GMT', 'Transfer-Encoding': 'chunked', 'Connection': 'Keep-Alive', 'Cache-Control': 'private, no-cache, no-store, proxy-revalidate, no-transform', 'Pragma': 'no-cache', 'Set-Cookie': 'BDORZ=27315; max-age=86400; domain=.baidu.com; path=/', 'Content-Encoding': 'gzip'}

对于状态码,如果状态码为200,那么访问成功;如果状态码不是200,那么访问失败。

response对象包含服务器返回的所有信息,也包含请求的request信息。

response对象的属性

r.status_code HTTP请求的返回状态,200表示连接成功,404表示失败

r.text HTTP响应内容的字符串形式,即,url对应的页面内容

r.encoding 从HTTP header中猜测的响应内容编码方式

r.apparent_encoding 从内容中分析出的响应内容编码方式(备选编码方式)

r.content HTTP响应内容的二进制形式

response的编码

r.encoding:如果header中不存在charset,则认为编码为ISO‐8859‐1

r.text根据r.encoding显示网页内容

r.apparent_encoding:根据网页内容分析出的编码方式,可以看作是r.encoding的备选

r.apparent_encoding比r.encoding更可靠

11.    网络爬虫引发的问题

爬取网页,玩转网页

小规模,数据量小,对爬取速度不敏感,此时用requests库。

爬取网站,爬取系列网站

中规模,数据规模较大,对爬取速度敏感。比如爬取携程。此时用scrapy库。

爬取全网

规模大,对于搜索引擎,它的爬取速度是关键。此时只能定制开发。

骚扰服务器。Web服务器默认接收人类访问。受限于编写水平和目的,网络爬虫将会为Web服务器带来巨大的资源开销。

对产权有法律风险。服务器上的数据有产权归属。网络爬虫获取数据后牟利将带来法律风险。

泄露隐私。网络爬虫可能具备突破简单访问控制的能力,获得被保护数据从而泄露个人隐私。

12.    服务器如何对网络爬虫的限制。

来源审查:判断User‐Agent进行限制(有技术难度)

检查来访HTTP协议头的User‐Agent域,只响应浏览器或友好爬虫的访问

发布公告:Robots协议

告知所有爬虫网站的爬取策略,要求爬虫遵守

5)  robots协议

Robots Exclusion Standard,网络爬虫排除标准

作用:

网站告知网络爬虫哪些页面可以抓取,哪些不行

形式:

在网站根目录下的robots.txt文件

 

例如:

京东的协议

https://www.jd.com/robots.txt

User‐agent: *

Disallow: /?*

Disallow: /pop/*.html

Disallow: /pinpai/*.html?*

User‐agent: EtaoSpider

Disallow: /

User‐agent: HuihuiSpider

Disallow: /

User‐agent: GwdangSpider

Disallow: /

User‐agent: WochachaSpider

Disallow: /

Robots协议基本语法:

User‐agent: *

Disallow: /

注释:*代表所有,/代表根目录

一些其它网站的robots

http://www.baidu.com/robots.txt

http://news.sina.com.cn/robots.txt

http://www.qq.com/robots.txt

http://news.qq.com/robots.txt

http://www.moe.edu.cn/robots.txt (无robots协议)

并不是所有的网站都存在robots.txt

6)  robots协议的遵守方式

实际操作中,该如何遵守Robots协议?

网络爬虫:

自动或人工识别robots.txt,再进行内容爬取

约束性:

Robots协议是建议但非约束性,网络爬虫可以不遵守,但存在法律风险

类人行为可以不参考robots协议。

访问次数少。访问数据量小。可以不遵守该协议。

网络爬虫实战

7)  京东商品页面的爬取

import requests

url = "https://item.jd.com/896813.html"

try:

    r = requests.get(url)

    r.raise_for_status()

    r.encoding = r.apparent_encoding

    print(r.text[:1000])

except:

    print("爬取失败")

8)  亚马逊商品页面的爬取

import requests

url = "https://www.amazon.cn/电脑-it-办公/dp/B00D0393AM/ref=sr_1_4?s=pc&ie=UTF8&qid=1492660788&sr=1-4&keywords=移动硬盘"

try:

    kv = {'user-agent':'Mozilla/5.0'}

    r = requests.get(url,headers=kv)

    r.raise_for_status()

    r.encoding = r.apparent_encoding

    print(r.text[:1000])

except:

    print("爬取失败")

9)  百度/360搜索关键字提交

import requests

keyword = "python"

try:

    kv = {'wd':keyword}

    r = requests.get("http://www.baidu.com/s",params=kv)

    #r = requests.get("http://www.so.com/s",params=kv)

    print(r.request.url)

    r.raise_for_status()

    print(len(r.text))

except:

    print("爬取失败")

10) 网络图片的爬取和存储

import requests

import os

root = "D://pics//"

url = "http://image.nationalgeographic.com.cn/2017/0419/20170419035805561.jpg"

path = root+url.split('/')[-1]

 

try:

    if not os.path.exists(root):

        os.mkdir(root)

    if not os.path.exists(path):

        r = requests.get(url)

        with open(path,'wb') as f:

            f.write(r.content)

            f.close

            print("文件保存成功")

    else:

        print("文件已存在")

except:

    print("爬取失败")

11) IP地址归属地的自动查询

import requests

url = 'http://m.ip138.com/ip.asp?ip='

try:

    r = requests.get(url+'202.204.80.112')

    r.raise_for_status()

    r.encoding = r.apparent_encoding

    print(r.text[-500:])

except:

    print("爬取失败")

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄