Scrapy用pipelines把字典保存为csv格式

Posted shawone

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy用pipelines把字典保存为csv格式相关的知识,希望对你有一定的参考价值。

import csv

class MyProjectPipeline(object):
# 保存为csv格式
def __init__(self):
# 打开文件,指定方式为写,利用第3个参数把csv写数据时产生的空行消除
self.f = open("myproject.csv","a",newline="")
# 设置文件第一行的字段名,注意要跟spider传过来的字典key名称相同
self.fieldnames = ["m_num","m_name","s_name","i_date","l_work","m_style","c_work"]
# 指定文件的写入方式为csv字典写入,参数1为指定具体文件,参数2为指定字段名
self.writer = csv.DictWriter(self.f, fieldnames=self.fieldnames)
# 写入第一行字段名,因为只要写入一次,所以文件放在__init__里面
self.writer.writeheader()

def process_item(self, item, spider):
# 写入spider传过来的具体数值
self.writer.writerow(item)
# 写入完返回
return item

def close(self,spider):
self.f.close()




















以上是关于Scrapy用pipelines把字典保存为csv格式的主要内容,如果未能解决你的问题,请参考以下文章

scrapy爬取图片

Scrapy爬虫-pipeline.py

Scrapy框架: pipelines.py设置

scrapy中的Pipeline

scrapy爬虫录入mysql中文乱码的解决

scrapy中把数据写入mongodb