斯坦福新研究:RAG能帮助LLM更靠谱吗?(斯坦福大学)

AIGC动态欢迎阅读

原标题:斯坦福新研究:RAG能帮助LLM更靠谱吗?

关键字:模型,信息,知识,语言,问题

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:Mindy

【新智元导读】斯坦福大学的研究人员研究了RAG系统与无RAG的LLM (如GPT-4

)相比在回答问题方面的可靠性。研究表明,RAG系统的事实准确性取决于人工智能模型预先训练的知识强度和参考信息的正确性。大语言模型(LLM)虽然功能强大,但容易出现幻觉。

此外,它们受限于其训练语料库中包含的知识,因此无法回答有关近期事件或公开受限信息的查询。

为了解决上述问题,检索增强生成(RAG)是一种常用的框架,它在LLM的提示中提供相关检索内容,获得相关信息的参考文档或数据库,并可以显著提高模型的准确性。

大多数商业LLM,如ChatGPT

、Gemini和Perplexity.ai,已经在它们的Web界面中采用了某种版本的RAG。

例如,ChatGPT使用Bing搜索,而Gemini访问Google搜索结果。

但当语言模型内部知识与通过RAG提供的信息之间的不一致时,或者当网络结果不断变化,并且可能包含过时、错误或有害的信息时,这个问题就变得更加复杂了。

因此,对启用RAG的LLM行为进行客观评估,与对它们的非RAG对应物进行基准测试同样重要,特别是目前RAG系统越来

原文链接:斯坦福新研究:RAG能帮助LLM更靠谱吗?

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

0
分享到:
没有账号? 忘记密码?