微软「小而美」系列三连发!视觉小钢炮PK GPT-4o,MoE新秀力压Llama 3.1(微软小子有谁 30个)

AIGC动态欢迎阅读

原标题:微软「小而美」系列三连发!视觉小钢炮PK GPT-4

o,MoE新秀力压Llama 3.1

关键字:模型,任务,基准,参数

,微软

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:耳朵 好困

【新智元导读】微软Phi 3.5系列上新了!mini模型小而更美,MoE模型首次亮相,vision模型专注多模态。就在今天,微软「小语言模型」系列正式升级,最新的Phi 3.5版本一口气连发三款模型——

– 38.2亿参数的Phi-3.5-mini-instruct

– 419亿参数的Phi-3.5-MoE-instruct

– 41.5亿参数的Phi-3.5-vision-instruct

这三个模型都可供开发人员在Hugging Face上下载、使用和微调,并获得了微软的MIT许可证,可以进行不受限制的商业应用和修改。

别看规模不大,但这三个模型在很多第三方基准测试中都性能表现都相当不错,甚至在某些情况下击败了其他领先大模型,包括谷歌的Gemini 1.5 Flash、Meta的Llama 3.1,甚至在一些竞技场上击败了OpenAI

的GPT-4o。

优秀的性能加上宽松的开放许可证,网友在社交网络上纷纷试用并点赞Phi 3.5新系列:

接下来,根据Hugging Face上的发行说明,简要介绍一下三款新型号模型的不同特点和用途。

Phi-3.5-min

原文链接:微软「小而美」系列三连发!视觉小钢炮PK GPT-4o,MoE新秀力压Llama 3.1

联系作者

文章来源:新智元

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?