阿里发“神笔马良版Sora”,轻轻一抹让猫咪转向,20个演示视频+10页技术报告解读(神笔马良的神笔长什么样子)

AIGC动态欢迎阅读

原标题:阿里发“神笔马良版Sora”,轻轻一抹让猫咪转向,20个演示视频

+10页技术报告解读

关键字:视频,轨迹,阿里,模型,图像

文章来源:智东西

内容字数:0字

内容摘要:

视频生成告别“抽卡”。

作者|香草

编辑|李水青

AI视频生成赛道风起云涌,国内外新颖的文生、图生视频产品层出不穷。在各大厂商的“内卷”之下,当下的视频生成模型各方面已经接近“以假乱真”的效果。

但与此同时,大部分视频生成模型的准确程度、遵循指令的能力还有待提升,生成视频仍然是一个“抽卡”的过程,往往需要用户生成许多次,才能获得符合需求的结果。这也造成算力成本过高、资源浪费等问题。

如何提升视频生成的精准度,减少“抽卡”次数,利用尽可能少的资源来获取符合需求的视频?

智东西8月3日报道,阿里团队近日推出视频生成模型Tora,能够根据轨迹、图像、文本或其组合,简单几笔快速生成精确运动控制的视频,同时也支持首尾帧控制,让视频生成的可控性又上了一个阶梯。Tora是首个面向轨迹的DiT框架模型,利用DiT的可扩展性,Tora生成的物体运动不仅能精确地遵循轨迹,而且可以有效地模拟物理世界动态,相关论文已于8月1日发布在arXiv上。

▲Tora论文

Tora目前仅提供视频演示,其项目主页显示,其后续将发布在线Demo和推理、训练代码。

论文地址:

https://arxiv.org/abs/24

原文链接:阿里发“神笔马良版Sora”,轻轻一抹让猫咪转向,20个演示视频+10页技术报告解读

联系作者

文章来源:智东西

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?