在知识之间、AI 之间创造 connection
直觉上觉得 RAG 的作用比较局限,之前看到过一个论文是在讨论 long context 和 RAG 之间哪个更好。现在的模型上下文都可以处理的很长,不知道有没有新的定论。
一个高中生(LLM)在考试之前拿着一个博士生的课本(RAG),总觉得局限性还是有的,它可以背诵出博士生课本的内容,但可能不能很好的理解。RAG 在短短一年之内发展出了很多形态,我觉得Graph RAG 的思路是挺通用的。不管用不用 RAG,都可以给 LLM 一个地图,一个索引指导,让 LLM 通过索引来获取自己想针对性提问的内容。
对于普通用户来说,我觉得用 SQL 检索关键字直接从 PKM 数据库里找到相关的内容应该可以简单有效的提升 RAG 的效果。不光是和 LLM 的交互里可以运用到地图的思路,在自己做笔记的时候,也应该有一个思维地图,在查找相关概念的时候,可以沿着地图很方便的找到。 #19 #22
Google 的 NotebookLM 已经做到了我想实现的形态,更多的还是应该自己主动总结,做好索引地图。之前总想着让 LLM 浏览大量文件总结出问题帮助思考,这一步还是得自己来。有了索引地图之后,只需要让 LLM 在数据库里检索相关的字段就挺方便了。
最近在玩 phidata , 用来构建 agent 确实挺方便的。参考官方的 cookbook 整了一个本地 ollama 的 RAG小玩意,视频如下:
https://github.com/user-attachments/assets/b7ba2eb4-8703-4b41-ab74-ca40148d6b60