爬虫学习(第三练)

当访问某个网站频繁时,可能会触发IP限制。为了解决这个问题,可以使用Python的urllib库结合代理服务器(如183.247.211.41:30001)创建opener,通过改变UserAgent信息,以不同的身份进行http请求,避免被禁止访问。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

opener+proxy的使用
假如一个网站它会检测某一段时间某个IP 的访问次数,如果访问次数过多,它会禁止你的访问。所以可以设置一些代理服务器来帮助我们做工作,每隔一段时间换一个代理.

from urllib.request import Request,build_opener,ProxyHandler
from fake_useragent import UserAgent


url = 'http://httpbin.org/get'
headers = {
    'User-Agent':UserAgent().chrome
}
request = Request(url,headers=headers)
# 自己在网上找一些免费的ip代理
handler = ProxyHandler({'http':'183.247.211.41:30001'})
opener = build_opener(handler)
response = opener.open(request)
print(response.read().decode())
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值