浏览 3028 次
锁定老帖子 主题:Scrapy:一次性运行多个Spiders
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2014-10-13
1. 在你的Scrapy工程下面新建一个目录: cd path/to/your_project mkdir commands 注意这个commands和spiders目录是同级的 2. 在commands下面添加一个文件crawlall.py,代码如下: from scrapy.command import ScrapyCommand from scrapy.utils.project import get_project_settings from scrapy.crawler import Crawler class Command(ScrapyCommand): requires_project = True def syntax(self): return '[options]' def short_desc(self): return 'Runs all of the spiders' def run(self, args, opts): settings = get_project_settings() for spider_name in self.crawler.spiders.list(): crawler = Crawler(settings) crawler.configure() spider = crawler.spiders.create(spider_name) crawler.crawl(spider) crawler.start() self.crawler.start() 3. 在settings.py中添加配置: COMMANDS_MODULE = 'yourprojectname.commands' 4. 在cronjob中添加:scrapy crawlall命令即可 声明:ITeye文章版权属于作者,受法律保护。没有作者书面许可不得转载。
推荐链接
|
|
返回顶楼 | |