python下 selenium与chrome结合进行网页爬取,怎么设置代理IP

 我来答
匿名用户
2017-05-18
展开全部
设置代理的话,可以使用这种方式,代码是我刚才测试过的,亲测可用from selenium import webdriver
chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--proxy-server=http://171.37.135.94:8123')
chrome = webdriver.Chrome(chrome_options=chrome_options)
chrome.get('http://httpbin.org/ip')
print(chrome.page_source)
chrome.quit()
不过话说回来,本来用selenium的话抓取速度就很慢了,加上代理的话(如果代理不稳定)可能还会慢出一大截。
ya...0@163.com
2017-04-15 · TA获得超过282个赞
知道小有建树答主
回答量:1063
采纳率:0%
帮助的人:391万
展开全部
网上抓取和解析html的框架一抓一大把,各种工具直接拿来用就行了,比较省心。 首先速度/效率很成问题,有一次下载电影海报的时候,由于是crontab定期执行,也没做优化,开的php进程太多,直接把内存撑爆了。
本回答被提问者采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式