首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
推荐学习书目
›
Learn Python the Hard Way
Python Sites
›
PyPI
- Python Package Index
›
http://diveintopython.org/toc/index.html
›
Pocoo
值得关注的项目
›
PyPy
›
Celery
›
Jinja2
›
Read the Docs
›
gevent
›
pyenv
›
virtualenv
›
Stackless Python
›
Beautiful Soup
›
结巴中文分词
›
Green Unicorn
›
Sentry
›
Shovel
›
Pyflakes
›
pytest
Python 编程
›
pep8 Checker
Styles
›
PEP 8
›
Google Python Style Guide
›
Code Style from The Hitchhiker's Guide
V2EX
›
Python
如果用 scrapy 抓取多个不同的站点放在同一个 spider 里,用下面哪种方法好点?
python30
·
2019-09-27 19:45:28 +08:00
· 3058 次点击
这是一个创建于 1838 天前的主题,其中的信息可能已经有所发展或是发生改变。
spider
Scrapy
站点
同一个
2 条回复
•
2019-09-29 15:34:45 +08:00
1
gaojin
2019-09-27 23:52:22 +08:00
看解析规则吧,
如果规则都一样,就全部丢到 start_urls 里面最方便了
否则还是分开。。。
2
tisswb
2019-09-29 15:34:45 +08:00
除了 name 外 其他都做成需要输入的变量是可行的,比如:allowed_domains, start_urls, rules,以前做舆情蜘蛛就这么办的。
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1352 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms ·
UTC 17:15
·
PVG 01:15
·
LAX 10:15
·
JFK 13:15
Developed with
CodeLauncher
♥ Do have faith in what you're doing.