使用Scrapyd部署Scrapy爬虫到远程服务器上

Posted tulintao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用Scrapyd部署Scrapy爬虫到远程服务器上相关的知识,希望对你有一定的参考价值。

1、准备好爬虫程序

2、修改项目配置

  找到项目配置文件scrapy.cnf,将里面注释掉的url解开来

  本代码需要连接数据库,因此需要修改对应的数据库配置

    其实就是将里面的数据库地址进行修改,变成远程数据库服务器地址,需要保证scrapy服务器能够连接数据库服务器

3、部署项目

  在部署项目之前要保证scrapyd服务是开启状态。  

  进入本地爬虫工程的目录

  执行对应的部署命令

4、调度爬虫

  调度爬虫需要使用curl,以下的命令可以在dos窗口对应的项目目录下面执行,也可以在pycharm中的命令行执行

  4.1、查看远程服务端上面的爬虫

    curl http://node100:6800/listprojects.json

  4.2、移除远程服务端上面部署的爬虫工程

    curl http://node100:6800/delproject.json -d project=doubanSpider

  4.3、启动爬虫

    curl http://node100:6800/schedule.json -d project=doubanSpider -d spider=douban

  4.4、取消爬虫

    curl http://node100:6800/cancel.json -d project=doubanSpider -d job=000f47e035e911e9a8e90bb05244259f

以上是关于使用Scrapyd部署Scrapy爬虫到远程服务器上的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫从入门到放弃(二十一)之 Scrapy分布式部署

scrapyd 常用部署命令 & 远程监控 & 爬虫脚本

利用scrapy-client 发布爬虫到远程服务端

分布式爬虫的部署之Scrapyd对接Docker

五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

scrapy项目部署_1