为什么 scrapy crawl myspider -o data.csv生成的CSV文件中数据是隔行输入的
展开全部
py:10: ScrapyDeprecationWarning: Module `scrapy.contrib.spiders` is...
答:都提示你了 scrapy.contrib.spiders已经过时了,请用scrapy.spiders替代 from scrapy.contrib.spiders import CrawlSpider 换成 from scrapy.spiders import CrawlSpider
答:都提示你了 scrapy.contrib.spiders已经过时了,请用scrapy.spiders替代 from scrapy.contrib.spiders import CrawlSpider 换成 from scrapy.spiders import CrawlSpider
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
#在pipelines.py这个文件复写这个方法就可以了。(注意缩进)
class mySpiderPipeline(object):
def open_spider(self, spider):
self.f = open('mySpider.csv', 'w',encoding='utf-8',newline='', errors='ignore')
def process_item(self, item, spider):
self.f.write(str(item['email']) +'\n')
self.f.flush()
return item
# 关闭爬虫时,调用一次
def close_spider(self, spider):
self.f.close()
class mySpiderPipeline(object):
def open_spider(self, spider):
self.f = open('mySpider.csv', 'w',encoding='utf-8',newline='', errors='ignore')
def process_item(self, item, spider):
self.f.write(str(item['email']) +'\n')
self.f.flush()
return item
# 关闭爬虫时,调用一次
def close_spider(self, spider):
self.f.close()
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询