检索增强生成( RAG )是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型( LLM )用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。
---来自 AWS
1
mdb 11 天前
前段时间试了下 maxkb ,感觉一般,不能进行全局性的总结,后面又试了下 lightrag ,但是一直没运行成功过,同问
|
2
RRRoger 11 天前 5
bge-large-zh 做 embedding 模型
配合 bge-reranker-v2-m3 做 reranker 模型 weaviate 作为向量库 基于 dify 平台 目前感觉知识库的质量才是最关键的 |
3
luchenwei9266 11 天前
ragflow
|
4
Donaldo 11 天前
lightrag ,但本地模型太慢了。
|
6
unco020511 11 天前
dify
|
7
npe 11 天前
dify 吧,比 maxkb 灵活
|
8
lmq2582609 11 天前
|
9
pengxiaoyu 11 天前
dify
|
10
c466934322 11 天前
奇了怪了,大家怎么不推荐 fastgpt 了
|
11
mengyaoren 11 天前
dify
|
12
lower 11 天前
langchat
|
13
GeruzoniAnsasu 11 天前
想问问楼上的推荐哪个能解决这个问题:
RAG 只能 embed 知识库「内」的知识,但不能 embed 关于知识库「本身」的知识 —— 嵌入 10 条 A 知识后 LLM 能查询 N(N<10) 条最接近 A 知识向量的内容,但无法回答「关于 A 的知识量有多少」 |
14
zqqian 11 天前
RAG 效果还是不太好,AI 只能看见知识库里片面的数据,无法从一个全局的角度理解知识库中的知识
|
15
FleetingSound 10 天前
privateGPT
Milvus |
16
anyinlover 10 天前
@GeruzoniAnsasu 关于 A 的知识量有多少不是 RAG 要解决的问题,如果是公域知识直接问 LLM ,如果是私域知识就只能扩展知识库本身了。
|