清华唐杰团队新作:一口气生成2万字,大模型开卷长输出(唐杰 清华大学计算机学院)

AIGC动态欢迎阅读

原标题:清华唐杰团队新作:一口气生成2万字,大模型

开卷长输出

关键字:模型,长度,数据,文本,研究人员

文章来源:量子位

内容字数:0字

内容摘要:

明敏 发自 凹非寺量子位 | 公众号 QbitAI一口气生成2万字,大模型输出也卷起来了!

清华&智谱AI最新研究,成功让GLM-4、Llama-3.1输出长度都暴增。

相同问题下,输出结果直接从1800字增加到7800字,翻4倍。

要知道,目前大模型的生成长度普遍在2k以下。这对于内容创作、问题回答等都存在影响,可能导致模型回答问题不全面、创造性降低等。

该研究由智谱AI创始人、清华大学教授李涓子和唐杰共同领衔。

论文及代码都已放在GitHub上开源。

有网友已经抢先体验。LongWriter-llama3.1-8b可生成万字长文《罗马帝国衰落史》,在MacBook Pro 2018(32GB)上就能运行。

输出内容很准确,可以得A++。

9B模型搞定万字输出本项研究主要包括3方面工作。

分析文本生成长度限制因素

提出AgentWrite

扩展LLM输出窗口大小

首先,研究人员构建了一个测试工具LongWrite-Ruler。通过测试多个大模型,他们发现所有模型在生成超过2000字的文本时都遇到了困难。

进一步分析用户和大模型的交互日志,研究人员发现只有超过1%的用户请求明确提到要生

原文链接:清华唐杰团队新作:一口气生成2万字,大模型开卷长输出

联系作者

文章来源:量子位

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?