python 根据规律生成url列表然后在下载 做一个爬虫 10

importurllibimportrequestsimportosurl='http://188.161.79.8/qiongzhong/document/downlo... import urllib
import requests
import os
url = 'http://188.161.79.8/qiongzhong/document/downloadFile.jsp?FILENAME=docAttach00290138802.doc'#我想把docAttach00290138802.doc里面的数字替换掉,从000000000000开始,一直循环下去,能下载的就下载,不能下载的就跳过。
r = requests.get(url)
b='333'
with open(b,"wb") as code:
code.write(r.content)

我就只能写到这里,哪位大神帮帮忙。。。
展开
 我来答
匿名用户
2016-05-24
展开全部
用爬虫跟踪下一页的方法是自己模拟点击下一页连接,然后发出新的请求;
参考例子如下:
item1 = Item()
yield item1
item2 = Item()
yield item2
req = Request(url='下一页的链接', callback=self.parse)
yield req
注意:使用yield时不要用return语句。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
yujikang
2016-05-20 · 超过13用户采纳过TA的回答
知道答主
回答量:14
采纳率:100%
帮助的人:19万
展开全部
import requests

for index in range(000000000000, 999999999999):
    try:
        filename = "%s.doc" % index
        url = 'http://188.161.79.8/qiongzhong/document/downloadFile.jsp?FILENAME=' + filename
        r = requests.get(url)
        with open(filename, "wb") as code:
            code.write(r.content)
    except Exception, e:
        print(str(e))
        continue  # 出现异常忽略
本回答被网友采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式