V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
alenryuichi
V2EX  ›  程序员

openMemory 不太好用,我做了个加强版

  •  
  •   alenryuichi · 1 天前 · 1177 次点击

    基于 mcp 的不如基于文件系统的,我做了个 openmemory plus 。基于配置化、以及 skill,workflow,command 入口等能力,加强了项目级的 memory 配置。

    https://github.com/Alenryuichi/openmemory-plus

    workflow 入口 command 效果

     ● Step 2: Display Menu
    
    
       ─────────────────────────────────────
    
       🧠 OpenMemory Plus - 记忆管理
       📊 当前状态:
       ├── 项目级 (_omp/memory/): 8 个文件
       └── 用户级 (openmemory): 21 条记忆
       ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
       选择操作:
       [1] 📊 查看状态    详细记忆状态和统计
       [2] 🔍 搜索记忆    语义搜索项目和用户记忆
       [3] 💾 存储记忆    手动添加新记忆
       [4] 🧹 清理记忆    清理 ROT (冗余/过时/琐碎)
       [5] 🔄 同步检查    检测冲突并解决
       [6] ⏰ 衰减分析    查看记忆衰减状态
       [7] 🔗 知识图谱    查看实体关系
       [8] 📦 记忆整合    合并碎片化记忆
       [9] 📊 质量指标    查看记忆健康度和指标
       [M] 返回菜单  [X] 退出
       ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
       输入数字选择,或直接描述你的需求:
    
    
       ───────────────────────────────────────
    
       Step 3: Wait for User Input
    
       请选择操作,或直接描述你的需求。
    
       例如:
         • 输入 3 存储新记忆
         • 输入 1 查看详细状态
         • 或直接说 "把部署信息存到用户级记忆"
    

    记住配置信息

    
       需要我现在帮你执行部署吗?(把刚才修改的 vlm_router.py 部署到服务器)
    
     ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
     › 更新本地项目的 memory 吧 基于已经调研的 deploy-vlm-mcp.md
    
     ● 让我先查看 OpenMemory Plus 的结构和现有 memory:
    
     ● _omp/memory - read file
       ⎿ Read 122 lines
    
     ● _omp/AGENTS.md - read file
       ⎿ Read 107 lines
    
     ● 让我查看现有的 memory 文件内容:
    
     ● read_multiple_files_filesystem - running tool
       ⎿ Completed read_multiple_files_filesystem
    
    
    

    效果如下

     ● ✅ 本地项目 Memory 已更新完成!
    
    
       ────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
    
       📋 更新总结
    
       更新的文件
    
       | 文件 | 更新内容 |
       |:---|:---|
       | _omp/memory/techContext.md | 添加 Production Deployment 章节 (服务器信息、访问地址、Docker 镜像、部署方式、Nginx 配置、运维命令) |
       | _omp/memory/systemPatterns.md | 添加 Deployment Patterns 章节 (Docker + Nginx 架构图、betaline-ops MCP 工具、部署流程) |
       | _omp/memory/activeContext.md | 更新当前工作状态 (完攀判断修复详情、部署信息、Next Steps) |
       | _omp/memory/decisions.yaml | 添加 3 条架构决策记录 |
    
       新增的架构决策
    
       | ID | 决策 | 选择 |
       |:---|:---|:---|
       | dec-2026-02-08-001 | VLM 后端部署方式 | Docker + betaline-ops MCP |
       | dec-2026-02-08-002 | 完攀判断默认行为 | 默认 send (完攀) |
       | dec-2026-02-08-003 | 完攀分析采样帧数 | 4 窗口 × 3 帧 = 12 帧 |
    
    
       ────────────────────────────────────────────────────────
    
       📍 关键信息已记录
    
         • ✅ 服务器: **** (腾讯云 CVM)
         • ✅ 生产 URL: ***
         • ✅ 镜像仓库: ***
         • ✅ 部署目录: ***
         • ✅ Nginx 反向代理配置
         • ✅ *MCP 部署工具**
    
       下次 AI Agent 开始新会话时,会自动加载这些 memory 文件,了解部署相关的上下文。
    
    第 1 条附言  ·  1 天前
    新对话的效果:
    ▇▇▇▇▇╗ ▇▇╗ ▇▇╗ ▇▇▇▇▇▇╗ ▇▇▇▇▇▇╗ ▇▇╗▇▇▇▇▇▇▇╗
    ▇▇╔══▇▇╗▇▇║ ▇▇║▇▇╔════╝ ▇▇╔════╝ ▇▇║▇▇╔════╝
    ▇▇▇▇▇▇▇║▇▇║ ▇▇║▇▇║ ▇▇▇╗▇▇║ ▇▇▇╗▇▇║▇▇▇▇▇╗
    ▇▇╔══▇▇║▇▇║ ▇▇║▇▇║ ▇▇║▇▇║ ▇▇║▇▇║▇▇╔══╝
    ▇▇║ ▇▇║╚▇▇▇▇▇▇╔╝╚▇▇▇▇▇▇╔╝╚▇▇▇▇▇▇╔╝▇▇║▇▇▇▇▇▇▇╗
    ╚═╝ ╚═╝ ╚═════╝ ╚═════╝ ╚═════╝ ╚═╝╚══════╝


    Get started with Auggie

    ● You can ask questions, edit files, or run commands
    ● Use Ctrl + Enter or Shift + Enter to input new lines
    ● Use vim mode with /vim

    For automation, use 'auggie --print "your task"'

    ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
    › 后端服务怎么部署你知道么

    ~ 用户在问后端服务如何部署。我需要先搜索内存和项目相关的部署信息。让我先查看项目结构和部署相关的文档或配置。.

    ● search_memory_openmemory - running tool
    ⎿ Completed search_memory_openmemory

    ● . - read file
    ⎿ Read 196 lines

    ● 让我查看一下部署相关的文档和配置文件:

    ● read_multiple_files_filesystem - running tool
    ⎿ Completed read_multiple_files_filesystem

    ● _omp/memory - read file
    ⎿ Read 122 lines

    ● 我知道后端服务的部署流程。这个项目有完整的 CI/CD 和部署文档。让我给你总结一下:

    📦 部署方式

    方式 1: 使用 GitHub Actions CI/CD (推荐)

    1. 测试环境构建: 进入 GitHub Actions → 选择 Manual Build (Test) → Run workflow
    2. 生产环境构建: 选择 Manual Build (Release) → Run workflow

    镜像会自动推送到阿里云 ACR:
    registry.cn-hangzhou.aliyuncs.com/boulder-science/vlm-service:<tag>

    方式 2: 手动部署

    ...
    目前尚无回复
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   955 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 20ms · UTC 22:45 · PVG 06:45 · LAX 14:45 · JFK 17:45
    ♥ Do have faith in what you're doing.