V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
IAmAnonymous
V2EX  ›  科技

爬重复数据

  •  
  •   IAmAnonymous · 2017-11-09 17:04:41 +08:00 · 1648 次点击
    这是一个创建于 2605 天前的主题,其中的信息可能已经有所发展或是发生改变。

    目前一个版块有 100 页数据,每页 30 条主题。

    有一条主题在第 50 页,这条主题如果有新的操作(比如评论、点赞),那么这条主题会跑到第一页第一条。

    那么下次爬新数据的时候,怎么样才能尽量不爬重复的数据(也就是重复页),怎么定位下回爬的时候的页码范围?

    9 条回复    2017-11-10 11:29:04 +08:00
    GooMS
        1
    GooMS  
       2017-11-09 20:16:24 +08:00 via Android
    只要正文吗?那简单点记录爬过的 url
    shyling
        2
    shyling  
       2017-11-09 21:15:15 +08:00
    倒着爬啊 ww
    Baboonowen
        3
    Baboonowen  
       2017-11-09 23:56:48 +08:00 via Android
    @shyling 记录 URL 中的帖子 id 吧
    Baboonowen
        4
    Baboonowen  
       2017-11-09 23:57:04 +08:00 via Android
    @shyling 倒着一样会有重复问题
    Cooky
        5
    Cooky  
       2017-11-10 00:02:29 +08:00 via Android
    你不重复爬一旦有的帖子删了你就漏爬咯
    neosfung
        6
    neosfung  
       2017-11-10 00:53:15 +08:00 via iPhone
    Simhash
    IAmAnonymous
        7
    IAmAnonymous  
    OP
       2017-11-10 10:12:52 +08:00
    @neosfung 谢谢,学到新的东西了
    IAmAnonymous
        8
    IAmAnonymous  
    OP
       2017-11-10 10:13:28 +08:00
    @Cooky 恩,是的,目前来看没有好的办法,只能重复几页比如( 5 )页数据
    neosfung
        9
    neosfung  
       2017-11-10 11:29:04 +08:00
    @IAmAnonymous 搜索引擎都是用类似算法来给相似页面去重的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   980 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:52 · PVG 03:52 · LAX 11:52 · JFK 14:52
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.