V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
klsskyrim
V2EX  ›  问与答

我想下载一个网站的漫画,不知道该怎么做好

  •  
  •   klsskyrim · 2017-04-01 10:56:00 +08:00 · 1654 次点击
    这是一个创建于 2633 天前的主题,其中的信息可能已经有所发展或是发生改变。
    我压根不是程序员,标准群众水平,这里似乎比较专业,所以来碰碰运气看有人能帮我没:)
    言归正传,我想要做的是下载 177piczz 这个网站的漫画(这就是我没求助程序员同学和亲戚的原因 Orz )
    我感觉这个网站挺简单的,步骤暂定是:
    1.打开 url ,查看源码,得到标题,搜索 url 得到 url 、 url1 、 url2 、......url20
    2.打开 20 个 url 的源码,搜索得到 200 个图片的地址
    3.这个 200 个地址处理成“ wget 保存到标题文件夹 重命名为 001.jpg 下载链接”这样的格式(因为网站故意把文件名打乱了)
    4.在 cmd 里运行上面结果

    我想知道的是:
    1.有现成的方法能解决我的问题吗?
    2.如果没有的话我该自己做什么, chrome 扩展还是油猴子脚本?似乎本地批处理也可以?
    3.有没有哪位可怜我发车心诚,替我写了~~要是我请同学帮忙,他要花大概多久?
    4.我在想另一个问题,呃,很多 chrome 扩展都是“改变网页源码”,为什么不做一个扩展,能按用户要求以若干种方式(比如我仅知的查找替换)处理源码,再以用户想要的方式输出?比方各种批量下载,批量回复,批量回邮件,我的想法有意义吗?

    最后,可能我要做的事(盗链)会引起各位业内人士的反感,在此致歉。
    目前尚无回复
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2372 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 11:40 · PVG 19:40 · LAX 04:40 · JFK 07:40
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.