安装包

pip install scrapy
pip install scrapyd
pip install scrapyd-client
pip install spiderkeeper

进入到scrapy项目的根目录:

运行scrapyd

scrapyd

如果不出错就会生成一个scrapyd的服务。
spiderkeeper使用教程 随笔 第1张

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

打开对应页面

spiderkeeper使用教程 随笔 第2张

再另起窗口执行spiderkeeper命令

spiderkeeper

spiderkeeper使用教程 随笔 第3张

打开spiderkeeper的页面

默认用户名:admin
密码:admin

spiderkeeper使用教程 随笔 第4张

创建项目

点击Projects-》Create Project
spiderkeeper使用教程 随笔 第5张

打包egg文件

在scrapy的项目根目录,也就是和setting.py一个等级.

scrapyd-deploy -p chahao -v 1.0 --build-egg chahao.egg

-p后面加的是项目的名字,也就是scrapy爬虫文件的name,后面的内容可以不管,注意最后.egg的文件名规范就行。

点击deploy上传项目

spiderkeeper使用教程 随笔 第6张

提交以后看到部署成功即可。
spiderkeeper使用教程 随笔 第7张

执行项目

点击Dashboard然后点击Runonce选择对于的爬虫文件运行即可。
spiderkeeper使用教程 随笔 第8张
成功之后就可以看到上图的情况,刷新页面
可以查看爬虫的日志和运行状态,点击stop即可停止运行爬虫。
spiderkeeper使用教程 随笔 第9张

遇到坑

坑1:
提交完了之后,运行文件看不到东西。
看后台发现scrapyd出错了,错误如下
spiderkeeper使用教程 随笔 第10张
可知原因是项目中没有安装msgpack这个包,安装即可,通过这个错误可以知道,在提交项目到spiderkeeper对应的机器时
需要保证该机器的环境能正常运行程序。

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄