Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先(jambangee是什么牌子)

AIGC动态欢迎阅读

原标题:Jamba 1.5发布,最长上下文,非Transformer架构

首次成功领先

关键字:模型,长上,上下文

,架构,下文

文章来源:Founder Park

内容字数:0字

内容摘要:

昨天,号称当前最强、最高效的长上下文模型——Jamba 1.5 系列发布。

Jamba 是第一个基于 Mamba 架构的生产级模型。Mamba 是由卡内基梅隆大学和普林斯顿大学的研究人员提出的新架构,被视为 Transformer 架构的有力挑战者。

基于评估,Jamba 1.5 拥有最长的有效上下文窗口,在同等大小的所有上下文长度中速度最快,质量得分超过 Llama 3.1 70B 和 405B。

点击关注,每天更新深度 AI 行业洞察

01AI21 Labs 是谁?AI21 Labs 由人工智能先驱 Amnon Shashua 教授(Mobileye 创始人兼首席执行官)、Yoav Shoham 教授(斯坦福大学名誉教授、前谷歌首席科学家)和 Ori Goshen(CrowdX 创始人)于 2017 年创立,目标是打造成为人类思想伙伴的人工智能系统。

2023 年 8 月,AI21 Labs 宣布完成 1.55 亿美元的 C 轮融资,投资者包括 Walden Catalyst、Pitango、SCB10X、b2venture、Samsung Next 和 Amnon Shashua

原文链接:Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

联系作者

文章来源:Founder Park

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?