记录一个scrapy获取数据,持久化存储到csv文件,excel打开乱码的问题

用 “scrapy crawl 爬虫名.py -o 文件名.csv” 创建出来的csv文件直接用excel打开,中文部分是乱码,网上查了之后发现比较有效的就是用一些编辑器另存为带BOM的。查资料发现直接通过设置来解决的方法:
在settings.py文件中加入:

FEED_EXPORT_ENCODING = “gb18030” 

亲测,有效

你可能感兴趣的:(记录一个scrapy获取数据,持久化存储到csv文件,excel打开乱码的问题)