提升长文本召回效率

Anthropic 刚刚发现,只需在提示中添加一个内容,即可将 LLM 回忆能力提高 70%:

200K相当于大约500页信息,所以搜索LLM是很困难的。 此外,该模型不擅长响应基于脱离上下文的内容的答案。 因此,该公司开发了一种方法来解决这个问题。

只要加入“这是上下文中最相关的句子:” 这足以将 200K 上下文窗口上的 Claude 2.1 分数从 27% 提高到 98%。

“Here is the most relevant sentence in the context:”

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注