失效链接处理 |
大模型 RAG 经验面 PDF 下载
相关截图:
![]() 主要内容: 一、LLMs 已经具备了较强能力了,存在哪些不足点?
在 LLM 已经具备了较强能力的基础上,仍然存在以下问题:
• 幻觉问题:LLM 文本生成的底层原理是基于概率的 token by token 的形式,因此会不可避免地
产生“一本正经的胡说八道”的情况;
• 时效性问题:LLM 的规模越大,大模型训练的成本越高,周期也就越长。那么具有时效性的数
据也就无法参与训练,所以也就无法直接回答时效性相关的问题,例如“帮我推荐几部热映的电
影?”;
• 数据安全问题:通用的 LLM 没有企业内部数据和用户数据,那么企业想要在保证安全的前提下
使用 LLM,最好的方式就是把数据全部放在本地,企业数据的业务计算全部在本地完成。而在
线的大模型仅仅完成一个归纳的功能;
二、什么是 RAG?
RAG(Retrieval Augmented Generation, 检索增强生成),即 LLM 在回答问题或生成文本时,先
会从大量文档中检索出相关的信息,然后基于这些信息生成回答或文本,从而提高预测质量。
|