开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型(百度开源大模型)

AIGC动态欢迎阅读

原标题:开源大模型

王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型

关键字:模型,阿里,中文,能力,开发者

文章来源:量子位

内容字数:6394字

内容摘要:

鱼羊 发自 凹非寺量子位 | 公众号 QbitAI开源大模型,已经开启大卷特卷模式。

全球范围,太平洋两岸,双雄格局正在呼之欲出。

Llama 3中杯大杯刚惊艳亮相,国内通义千问就直接开源千亿级参数模型Qwen1.5-110B,一把火上Hacker News榜首。

不仅相较于自家720亿参数模型性能明显提升,在MMLU、C-Eval、HumanEval等多个基准测试中,Qwen1.5-110B都重返SOTA开源模型宝座,超越Llama 3 70B,成最强开源大模型。

中文能力方面,对比仅喂了5%非英文数据的Llama 3 70B,Qwen1.5-110B更是优势明显。

于是乎,模型一上线,开源社区已经热烈响应起来。

这不,Qwen1.5-110B推出不到一天,帮助用户在本地环境运行创建大语言模型的Ollama平台,就已火速上线链接。

值得关注的是,这已经是3个月内通义千问开源的第8款大模型。

开源大模型都在卷些什么?那么,问题来了,因Llama 3和Qwen1.5接连开源而持续的这波开源大模型小热潮中,开源模型又在卷些什么?

如果说上一阶段由马斯克Grok和Mixtral所引领的话题热

原文链接:开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

0
分享到:
没有账号? 忘记密码?