scrapy相关整理

Posted xyc99

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy相关整理相关的知识,希望对你有一定的参考价值。

  • 创建项目
cd进入项目的文件夹 scrapy startproject Demo---deom是居然的项目名称
  • 远程服务器后台定时执行
    先进入目录
    cd /data/scrapyPJ/Eggprice/Eggprice
    nohup python3 main.py &

     

    import time
    import schedule
    import os
    ‘‘‘
    定时执行爬虫任务
    ‘‘‘
    
    def job():
        # cmdline.execute(‘scrapy crawl Eggprice‘.split())
    
        os.system("scrapy crawl Eggprice")
    print(开始执行)
    schedule.every().day.at("11:21").do(job)
    
    # schedule.every(2).minutes.do(job)
    
    while True:
        print(time.ctime())
        schedule.run_pending()
        time.sleep(2)

     

以上是关于scrapy相关整理的主要内容,如果未能解决你的问题,请参考以下文章

scrapy按顺序启动多个爬虫代码片段(python3)

IOS开发-OC学习-常用功能代码片段整理

VS2015 代码片段整理

Scrapy Spider没有返回所有元素

小程序各种功能代码片段整理---持续更新

常用python日期日志获取内容循环的代码片段