python爬虫 如何自己用云服务器上搭建代理服务器 并使用requests测试代理?

爬虫爬的过快被封IP,想用几个阿里或腾讯或百度的学生机,整几个稳定的代理IP,用免费代理的话可能大部分时间被用来测试这些代理是否有效,可以的话,还是自己整几个稳定IP比较... 爬虫爬的过快被封IP,想用几个阿里或腾讯或百度的学生机,整几个稳定的代理IP,用免费代理的话可能大部分时间被用来测试这些代理是否有效,可以的话,还是自己整几个稳定IP比较舒服 展开
 我来答
云南新华电脑学校
2020-01-07 · 百度认证:云南新华电脑职业培训学校官方账号
云南新华电脑学校
云南新华电脑学校是经云南省教育厅批准成立的省(部)级重点计算机专业学校,采用三元化管理模式,教学设备先进,师资雄厚学生毕业即就业,学院引进了电商企业入驻,创建心为电商创业园区,实现在校即创业
向TA提问
展开全部
1、简介
使用同一个ip频繁爬取一个网站,久了之后会被该网站的服务器屏蔽。所以这个时候需要使用代理服务器。通过ip欺骗的方式去爬取网站

可以使用http://yum.iqianyue.com.com/proxy中找到很多服务器代理地址

2、应用
# *-*coding:utf-8*-*
from urllib import request
def use_porxy(porxy_addr,url):
porxy = request.ProxyHandler({'http':porxy_addr})
opener = request.build_opener(porxy, request.ProxyHandler)
request.install_opener(opener)
data = request.urlopen(url).read().decode('utf-8')
return data
data = use_porxy("114.115.182.59:128","http://www.baidu.com")
print(len(data))
Link.AI
2025-03-20 广告
Link.AI 是深圳极简未来科技旗下的企业级一站式 AI 智能体开发及应用平台。聚合多模态大模型、知识库、插件和工作流等 Agent 构建能力,并具备丰富的渠道接入和管理能力,致力于为用户提供 LLM 大语言模型落地应用的强大在线平台。支... 点击进入详情页
本回答由Link.AI提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式