侧边栏壁纸
博主头像
程彬彬博主等级

业精于勤 荒于嬉 行成于思 毁于随

  • 累计撰写 101 篇文章
  • 累计创建 26 个标签
  • 累计收到 20 条评论

目 录CONTENT

文章目录

scrapydweb管理scrapy项目

程彬彬
2020-05-21 / 0 评论 / 0 点赞 / 1,893 阅读 / 0 字 / 正在检测是否收录...
温馨提示:
本文最后更新于 2020-05-21,若内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益,请联系我们删除。
广告 广告

服务器安装

pip install scrapyd
pip install scrapydweb
pip install logparser

配置scrapyd文件

sudo find / -name 'default_scrapyd.conf'

image.png
修改

vi /usr/local/python3/lib/python3.8/site-packages/scrapyd/default_scrapyd.conf

把bind_address 改为0.0.0.0

bind_address = 0.0.0.0

启动scrpyd

sudo scrapyd &

默认端口是6800
http://服务器地址:6800
image.png

点击Jobs
image.png

本地安装 Scrapyd客户端

pip install scrapyd-client

安装的根目录D:\Python38\Scripts中可以查看这个文件是没有后缀名的scrapyd-deploy

在同目录下,新建文件scrapyd-deploy.bat

@echo off
"D:\Python38\python.exe" "D:\Python38\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9

image.png

编辑需要部署的项目的scrapy.cfg文件

url = http://服务器地址:6800/
project = 项目名

image.png
部署项目到服务器上的scrpyd

scrapyd-deploy -p 项目名称

image.png
启动项目
curl http://ip:端口/schedule.json -d project=项目名称 -d spider=爬虫名称

curl http://服务器ip:6800/schedule.json -d project=bbs_spider -d spider=qiushibaike_spider

关闭项目
curl http://ip:端口/cancel.json -d project=项目名称 -d job=jobid

curl http://服务器ip:6800/cancel.json -d project=bbs_spider -d job=3927a14a9b1d11ea8b8e00163e0a1c21

启动scrapydweb

/usr/local/python3/bin

./scrapydweb &

image.png
默认端口是5000
http://服务器地址:5000
image.png

Timer Tasks添加任务

image.png
image.png

task results查看运行结果

image.png

0
广告 广告

评论区