scrapy在 pipeline能 获取到爬虫 的 名字吗 我来答 1个回答 #热议# 不吃早饭真的会得胆结石吗? 第一啊我v 2017-03-10 · 超过135用户采纳过TA的回答 知道小有建树答主 回答量:348 采纳率:0% 帮助的人:173万 我也去答题访问个人页 关注 展开全部 对于只是读取某几个网站更新内容的爬虫完全没必要在python代码中实现增量的功能,直接在item中增加Url字段。 item['Url'] = response.url 然后在数据端把储存url的column设置成unique。 之后在python代码中捕获数据库commit时返回的异常 本回答被提问者采纳 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 广告您可能关注的内容网页爬虫-数据采集就用后羿采集器-小白神器,一键采集基于人工智能算法的新一代智能网页爬虫,不需要配置采集规则,一键采集!导出采集结果无数量限制~不要积分~~www.houyicaiji.com广告网络爬虫强力防护,全面抵御僵尸网络攻击!www.akamai.com查看更多网站爬虫全能工程师2024 版 - 从入门到精通,实战特训网站爬虫海量学习资源,200 多节精心录制的视频课程,100 余个真实企业案例剖析网站爬虫从入门到精通,全方位覆盖 Python 各个知识点与应用场景。class.imooc.com广告 其他类似问题 2020-11-30 一周搞定Python爬虫,爬虫实战第五天-scrapy中pipeline中的使用 更多类似问题 > 为你推荐: