永发信息网

从GitHub下载的scrapy怎么运行

答案:1  悬赏:10  手机版
解决时间 2021-11-27 13:40
  • 提问者网友:兔牙战士
  • 2021-11-27 10:10
从GitHub下载的scrapy怎么运行
最佳答案
  • 五星知识达人网友:洎扰庸人
  • 2021-11-27 11:34
先cd到该项目的目录
这个项目中reviews/spiders/test.py定义了ReviewsSpider类,spider名为amazon,所以启动这个爬虫的命令:

scrapy crawl amazon而想存储为csv格式,只需加两个参数:
scrapy crawl amazon -t csv -o output.csv或者:
scrapy crawl amazon --output-format=csv --output=output.csv当然,你还可以在settings里加两条启用exporter,也可以达到目的:
FEED_URI = '/this/is/a/file/path'
FEED_FORMAT = 'csv'

还有,这个项目的README已经回答了你的问题。。。

我要举报
如以上回答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
点此我要举报以上问答信息
大家都在看
推荐资讯