击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了(建模开源软件)

AIGC动态欢迎阅读

原标题:击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文

里了

关键字:模型,论文,上下文,系列,数据

文章来源:机器之心

内容字数:0字

内容摘要:

机器之心报道

机器之心编辑部经历了提前两天的「意外泄露」之后,Llama 3.1 终于在昨夜由官方正式发布了。

Llama 3.1 将上下文长度扩展到了 128K,拥有 8B、70B 和 405B 三个版本,再次以一已之力抬高了大模型赛道的竞争标准。

对 AI 社区来说,Llama 3.1 405B 最重要的意义是刷新了开源基础模型的能力上限,Meta 官方称,在一系列任务中,其性能可与最好的闭源模型相媲美。

下表展示了当前 Llama 3 系列模型在关键基准测试上的性能。可以看出,405B 模型的性能与 GPT-4o 十分接近。与此同时,Meta 公布了《The Llama 3 Herd of Models》论文,揭示了 Llama 3 系列模型迄今为止的研究细节。论文地址:https://ai.meta.com/research/publications/the-llama-3-herd-of-models/

接下来,让我们看一下论文内容。

Llama3 论文亮点

1、在使用 8K 上下文长度进行预训练后,Llama 3.1 405B 使用 128K 上下文长度进行连续训练,且支持

原文链接:击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了

联系作者

文章来源:机器之心

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?