Python每日一库之requests(python的requests库怎么安装)
ztj100 2025-03-19 18:46 32 浏览 0 评论
Python urllib库使用起来很麻烦,尤其是在进行网络爬取时。比如在处理网页验证和cookies的时候,需要编写Opener和Handler来处理。为了更方便地实现这些操作,有一个更强大的requests库。
安装requests
requests是第三方库,不是Python内置库,需要手动安装。
相关链接
- GitHub:https ://github.com/psf/requests
- PyPI:https ://pypi.org/project/requests/
- 官方文档:https ://docs.python-requests.org/en/latest/
通过 pip 安装
可以通过pip来安装requests,在命令行界面运行以下命令,完成requests库的安装:
pip install requests
requests的基本用法
下面的代码示例使用requests中的 get ()方法发送一个 get 请求。
import requests
# 发送 get 请求
r = requests.get('https://www.baidu.com')
# 检查响应类型
print(type(r))
# 检查状态码
print(r.status_code)
# 检查响应内容类型
print(type(r.text))
# 检查响应内容
print(r.text)
# 检查 cookie
print(r.cookies)
这里get()调用该方法实现与urllib库中的urlopen()一致,结果返回一个响应对象,然后分别输出响应对象类型、状态码、响应体内容类型、响应体内容、Cookies。
从运行结果可以知道,响应对象requests.models.Response的类型,响应体内容str的类型,Cookies的类型是RequestCookieJar。如果要发送其他类型的请求,可以直接调用其对应的方法:
r = requests.post('https://www.baidu.com')
r = requests.put('https://www.baidu.com')
r = requests.delete('https://www.baidu.com')
r = requests.head('https://www.baidu.com')
r = requests.options('https://www.baidu.com')
获取请求
构建一个GET请求,请求https://www.baidu.com(网站会判断如果客户端发起GET请求,会返回相应的信息)
import requests
r = requests.get('http://httpbin.org/get')
print(r.text)
输出将如下所示:
- 如果要添加请求参数,例如添加两个请求参数,其中name值为jack,age值为20。可以写成:
r = requests.get(' http://httpbin.org/get?name=jack&age=20' )
但是推荐最佳的写法如下:
import requests
data = {
'name':'jack',
'age':20,
}
r = requests.get(' http://httpbin.org/get',params=data )
print(r.text)
输出将如下所示:
- 网页返回内容的类型为 type str。如果符合 JSON 格式,可以使用json()方法将其转为字典类型,方便解析。
import requests
r = requests.get('http://httpbin.org/get' )
# str type
print(type(r.text))# 以字典形式返回
print(r.json())
print(type(r.json()))
输出:
POST 请求
发送 POST 请求
import requests
r = requests.post(' http://httpbin.org/post' )
print(r.text)
输出:
发送带参数的 POST
import requests
data = {
"name":"jack",
"age":"20"
}
r = requests.post(' http://httpbin.org/post',data=data )
print(r.text)
输出
设置请求头
可以headers通过以下方式设置你的请求:
import requests
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:95.0) Gecko/20100101 Firefox/95.0',
'Test':'Gopher'
}
r = requests. get(' http://httpbin.org/get',headers=headers)
print(r.text)
输出:
请求响应
- 发送请求后,返回一个响应,它有很多属性,状态码、响应头、cookies、响应内容等,可以通过它的属性获取,如下:
import requests
r = requests.get('https://www.baidu.com/')
# 响应内容类型
print(type(r.text),r.text)
# 响应内容
print(type(r.content), r.content)
# 状态码
print(type(r.status_code),r.status_code)
# 响应头
print(type(r.headers),r.headers)
# Cookies
print(type(r.cookies),r.cookies )
# URL
print(type(r.url),r.url)
# 响应历史记录
print(type(r.history),r.history)
- 状态码常用于判断请求是否成功。除了 HTTP 提供的状态码之外,requests 库还提供了一个内置的状态码查询对象,称为 requests.codes。事实上,两者是等价的。一个例子如下:
import requests
r = requests.get('https://www.baidu.com/')
if r.status_code == requests.codes.ok:
print('请求成功')
else:
print('请求失败')
抓取二进制数据
图片、音频、视频文件本质上是由二进制代码组成的,所以如果要爬取它们,就必须获取它们的二进制代码。以抓取百度的站点图标(标签页上的小图标)为例:
import requests
r = requests.get('https://www.baidu.com/favicon.ico')
with open('favicon.ico','wb') as f:
f.write(r.content)
我们这里使用的open()方法,它的第一个参数是要保存的文件名(带路径),第二个参数表示要以二进制形式写入数据。运行后,可以favicon.ico在当前目录下找到命名的保存图标。同样,也可以通过这种方式获得音频和视频。
上传文件
requests可以模拟提交一些数据。如果一个网站需要上传文件,我们也可以做到。
import requests
files = {'file':open('favicon.ico','rb')}
r = requests.post('http://httpbin.org/post',files=files)
print(r.text)
处理 Cookie
用 urllib 处理 cookie 比较复杂,而用requests处理 cookie 则非常简单。
- 获取 cookie
import requests
r = requests.get(' https://www.zhihu.com' )
print(r.cookies)
for key,value in r.cookies.items():
cookie = key+"="+value
print(cookie)
可以Cookies通过调用response对象的cookies属性来获取,该对象是一个类型的对象RequestCookiesJar,然后使用该items()方法将其转换为一个元组列表,遍历并输出每个的名称和值Cookies。
- 使用 cookie 来维护登录状态。
import requests
headers = {
'Cookie':'KLBRSID=xxx|xx|xx',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:95.0) Gecko/20100101 Firefox/95.0',
'Host':'www.zhihu.com'
}
r = requests.get('https://www.zhihu.com',headers=headers)
print(r.text)
运行后,结果中包含登录后的内容,说明获取登录状态成功。
- 也可以通过cookies参数来设置,不过这个需要RequestCookieJar对象的构造,后面的cookies需要划分,比较麻烦,但是效果是一样的。
import requests
cookies ='KLBRSID=xx|xx|xx'
jar = requests.cookies.RequestsCookieJar()
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:95.0) Gecko/20100101 Firefox/95.0',
'Host':'www.zhihu.com'
}
for cookie in cookies.split(';'):
key,value = cookie.split('=',1)
jar.set(key,value)
r = requests.get('https://www.zhihu.com',headers=headers)
print(r.text)
会话保持
可以通过调用 get ()或 post ()和其他方法来模拟 Web 页面请求,但是这实际上等效于不同的会话,这意味着你使用两个浏览器打开不同的页面。如果第一次请求使用 post ()方法登录网站,第二次成功登录后想获取自己的个人信息,再次使用 get ()方法获取所请求的个人信息,实际上相当于打开两个浏览器,所以不能成功获取个人信息。为此,需要进行会话维护。您可以为两个请求设置相同的 Cookie,但是这非常麻烦,而且通过 Session保持会话非常容易。
improt requests
s = requests.Session()
s.get(' http://httpbin.org/cookies/set/number/123456789' )
r = s.get(' http://httpbin.org/cookies' )
print(r.text)
先通过requests打开一个session,然后get通过session发送一个request,用来设置cookies中的参数号,参数值为123456789;然后用这个发起get请求获取Cookies,然后打印获取的内容。
SSL证书验证
requests还提供了证书验证功能。发送 HTTP 请求时,它会检查 SSL 证书。我们可以使用 verify 参数来控制是否检查 SSL 证书。
- 请求HTTPS网站时,如果网站的证书不被CA机构信任,程序会报错,提示SSL证书验证错误。为此,只需将验证参数设置为 False:
import requests
response = requests.get('https://www.xxx.com',verify=False)
print(response.status_code)
- 也可以指定一个本地证书用作客户端证书,它可以是单个文件(包含密钥和证书)或包含两个文件路径的元组。
import requests
response = requests.get('https://www.xxxx.com',cert('/path/server.crt','/path/key'))
print(response.status_code)
代理设置
对于一些网站,在测试过程中多次请求后可以正常获取内容。但是一旦开始大规模频繁爬取,网站可能会弹出验证码,或者跳转到登录验证页面,甚至直接屏蔽客户端IP,导致一段时间内无法访问。为了防止这种情况,我们需要使用代理来解决这个问题,这需要代理参数。
import requests
proxies = {
'http': 'http://153.35.2.201:80',
'https': 'https://153.35.2.201:80'
}
try:
response = requests.get('http://httpbin.org/get', proxies=proxies)
print(response.text)
except requests.exceptions.ConnectionError as e:
print('Error', e.args)
如果代理需要使用 HTTP Basic Auth,可以使用类似 http://user:password@host:port 的语法来设置代理。
除了基本的HTTP代理外,requests还支持SOCKS协议的代理。首先你需要安装 socks 库:
pip3 install 'requests[socks]'
import requests
proxies = {
'http':'socks5://user:password@host:port',
'https':'socks5://user:password@host:port'
}
requests.get('https://www.xxxx.com',proxies=proxies)
超时设置
当本地网络条件不好或者服务器网络响应太慢甚至没有响应时,我们可能会等待很长时间才能收到响应,甚至最后没有收到响应就报错。
为了处理这种情况,应该设置一个超时时间,即从计算机向服务器发送请求到返回响应的时间。如果请求超过了这个超时时间并且没有收到响应,就会抛出错误。这需要使用 timeout 参数来实现,以秒为单位。
import requests
r = requests.get('https://www.baidu.com',timeout=1)
print(r.status_code)
或者您可以分别指定超时时间。实际上,请求分为两个阶段:连接和读取。如果给 timeout 参数指定一个整数值,则 timeout 是两个阶段的总和;如果你想单独指定它们,你可以传入一个元组,连接超时和读取超时:
import requests
#5 秒超时连接和 30 秒读取
r = requests.get('https://www.xxxx.com',timeout=(5,30))
print(r.status_code)
网站验证
访问网站时,可能会遇到如下认证页面,此时可以使用requests自带的认证功能,通过HTTPBasicAuth类实现。
import requests
from requests.auth import HTTPBasicAuth
r = requests.get('http://localhost:8080/manager/html',auth=HTTPBasicAuth('admin','123456'))
# or
r = requests.get('http://localhost:8080/manager/html',auth=('admin','123456'))
print(r.status_code)
requests也提供其他认证方式,如OAuth认证,但需要安装oauth包。
使用以下命令进行安装:
pip install requests_oauthlib
然后构造一个认证:
import requests
from requests_oauthlib import OAuth1
url = 'https://api.twitter.com/1.1/account/verify_credentials.json'
auth = OAuth1("YOUR_APP_KEY","YOUR_APP_SECRET","USER_OAUTH_TOKEN","USER_OAUTH_TOKEN_SECRET")
requests.get(url,auth=auth)
Prepared封装请求头
有时如果需要设置请求头,需要用一个Request对象来表示。在 requests 库中,有一个类似的类,叫做 Prepared Request。
from requests import Request,Session
url = 'http://httpbin.org/post'
data = {
'name':'jack'
}
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:95.0) Gecko/20100101 Firefox/95.0'
}
s = Session()
req = Request('POST',url,data=data, headers=headers)
prepped = s.prepare_request(req)
r = s.send(prepped)
print(r.text)
Request这里引入,然后Request用url、data和headers参数构造一个对象。这时候就需要调用prepare_request()Session的方法将其转化为Prepared Request对象,然后调用该send()方法发送。
这样做的好处是可以使用Request把请求当成一个独立的对象,这样对于队列调度非常方便,后面会用来构造一个Request队列。
相关推荐
- 30天学会Python编程:16. Python常用标准库使用教程
-
16.1collections模块16.1.1高级数据结构16.1.2示例...
- 强烈推荐!Python 这个宝藏库 re 正则匹配
-
Python的re模块(RegularExpression正则表达式)提供各种正则表达式的匹配操作。...
- Python爬虫中正则表达式的用法,只讲如何应用,不讲原理
-
Python爬虫:正则的用法(非原理)。大家好,这节课给大家讲正则的实际用法,不讲原理,通俗易懂的讲如何用正则抓取内容。·导入re库,这里是需要从html这段字符串中提取出中间的那几个文字。实例一个对...
- Python数据分析实战-正则提取文本的URL网址和邮箱(源码和效果)
-
实现功能:Python数据分析实战-利用正则表达式提取文本中的URL网址和邮箱...
- python爬虫教程之爬取当当网 Top 500 本五星好评书籍
-
我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...
- 深入理解re模块:Python中的正则表达式神器解析
-
在Python中,"re"是一个强大的模块,用于处理正则表达式(regularexpressions)。正则表达式是一种强大的文本模式匹配工具,用于在字符串中查找、替换或提取特定模式...
- 如何使用正则表达式和 Python 匹配不以模式开头的字符串
-
需要在Python中使用正则表达式来匹配不以给定模式开头的字符串吗?如果是这样,你可以使用下面的语法来查找所有的字符串,除了那些不以https开始的字符串。r"^(?!https).*&...
- 先Mark后用!8分钟读懂 Python 性能优化
-
从本文总结了Python开发时,遇到的性能优化问题的定位和解决。概述:性能优化的原则——优化需要优化的部分。性能优化的一般步骤:首先,让你的程序跑起来结果一切正常。然后,运行这个结果正常的代码,看看它...
- Python“三步”即可爬取,毋庸置疑
-
声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块importreimportrequests#第二步获取你想爬取的网页地址,发送请求,获取网页内...
- 简单学Python——re库(正则表达式)2(split、findall、和sub)
-
1、split():分割字符串,返回列表语法:re.split('分隔符','目标字符串')例如:importrere.split(',','...
- Lavazza拉瓦萨再度牵手上海大师赛
-
阅读此文前,麻烦您点击一下“关注”,方便您进行讨论和分享。Lavazza拉瓦萨再度牵手上海大师赛标题:2024上海大师赛:网球与咖啡的浪漫邂逅在2024年的上海劳力士大师赛上,拉瓦萨咖啡再次成为官...
- ArkUI-X构建Android平台AAR及使用
-
本教程主要讲述如何利用ArkUI-XSDK完成AndroidAAR开发,实现基于ArkTS的声明式开发范式在android平台显示。包括:1.跨平台Library工程开发介绍...
- Deepseek写歌详细教程(怎样用deepseek写歌功能)
-
以下为结合DeepSeek及相关工具实现AI写歌的详细教程,涵盖作词、作曲、演唱全流程:一、核心流程三步法1.AI生成歌词-打开DeepSeek(网页/APP/API),使用结构化提示词生成歌词:...
- “AI说唱解说影视”走红,“零基础入行”靠谱吗?本报记者实测
-
“手里翻找冻鱼,精心的布局;老漠却不言语,脸上带笑意……”《狂飙》剧情被写成歌词,再配上“科目三”背景音乐的演唱,这段1分钟30秒的视频受到了无数网友的点赞。最近一段时间随着AI技术的发展,说唱解说影...
- AI音乐制作神器揭秘!3款工具让你秒变高手
-
在音乐创作的领域里,每个人都有一颗想要成为大师的心。但是面对复杂的乐理知识和繁复的制作过程,许多人的热情被一点点消磨。...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- 30天学会Python编程:16. Python常用标准库使用教程
- 强烈推荐!Python 这个宝藏库 re 正则匹配
- Python爬虫中正则表达式的用法,只讲如何应用,不讲原理
- Python数据分析实战-正则提取文本的URL网址和邮箱(源码和效果)
- python爬虫教程之爬取当当网 Top 500 本五星好评书籍
- 深入理解re模块:Python中的正则表达式神器解析
- 如何使用正则表达式和 Python 匹配不以模式开头的字符串
- 先Mark后用!8分钟读懂 Python 性能优化
- Python“三步”即可爬取,毋庸置疑
- 简单学Python——re库(正则表达式)2(split、findall、和sub)
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)