查看原文
其他

AI生成视频现象级公司Runway:推出Gen-2模型,可支持文本生成视频 | 东西「文娱科技」

东西文娱 2023-10-23

The following article is from 共同虚拟 Author 共同虚拟

东西文娱科技,

上期AR文娱应用(见文末)

关注文化娱乐科技的产品化与场景应用

欢迎投稿与交流,联系请见文末


2023年AIGC爆火,ChatGPT、Midjourney、Descript等AI工具纷纷为内容创作提出各类解决方案,AI生成视频同步受到市场关注。

点击视频,了解更多
近期,Runway推出AI视频生成模型Gen-2,该系统与前作Gen-1一样可根据文本生成相关视频。这或将推动AIGC应用的全新场景。


Runway由以Valenzuela为首的三名智利人于2018年创立。其中,Valenzuela曾任纽约大学ITP(Interactive Telecommunications Program)项目项目研究员,并开始寻找制作艺术、生成内容和讲述故事的新方法。Anastasis和Alejandro则分别有后端开发工程师以及技术设计师、程序员的工作经历。

Runway多年致力于研发AI驱动视频编辑软件,为创作者们降低内容创作门槛。Runway曾参与AI图像生成模型Stable Diffusion的开发创建工作。目前Runway有包括Magic Tools在内的共计数十种AI创意工具。


作为AI服务平台,Runway还提供令用户自行训练AI模型的权限,用户能编排重组输入输出结果,以完成对AI模型运作逻辑的引导。

过去四年里,Runway从Felicis、Coatue、Amplify、Lux、Compound等投资者处完成了数轮融资,仅去年融资金额就达5000万美元。

Runway软件横跨视频剪辑、图片生成、音频处理等多个领域。在摘得第95届奥斯卡7项大奖的奇幻电影《瞬息全宇宙》中,移动石头、热狗手指等画面就是借助Runway技术完成的。


在官方发布的Runway软件与传统后期工具对比案例中,同样时间内,传统工具使用者仅完成了几帧抠图工作,Runway软件在速度和效果上都有更出色的表现。

在Gen-1之前,市场上不具备严格意义上的AI文转视频制作工具。据Runway官方表示,基于用户研究,Gen-1的结果优于Stable Diffusion 1.5以及Text2live等图转视频程序。

对于新推出的Gen-2模型,基础操作方面,创作者可利用纯文本生成视频,利用文字配图生成视频或是利用单张图像生成视频。特效方面,Gen-2能完成好莱坞科幻、吉卜力风等各式风格的渲染。


Runway CEO Valenzuela表示,相比Gen-1,Gen-2模型或将能在创制视频的基础上生成音频。目前,Runway正向有限数量的用户发布Gen-2的内部使用权。

Runway表示,公司使命是让每个人拥有创造内容的能力,并希望利用计算机图形学和机器学习技术的更迭来突破创造力的界限。

东西「文娱科技」
Hello!
我们在为更加闭环、更加高效的服务模式做准备
欢迎加入限定白名单
与我们一起探索





您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存