视频版Midjourney又进化了:一句话生成视频,谷歌注资,网友大呼好莱坞已死( 二 )


这也是Runway在“成名”以前为数不多的“八卦” 。
后来就像大多数的大模型开发公司一样,不再参与Stable Diffusion项目的Runway在发布Gen-1之后,发展速度就像坐上了火箭,并且在本月初拿到了谷歌的投资,距离D轮1亿美元的融资刚过去一个月,累计融资至少已有2亿美元,成为大模型领域的明星公司 。
说个更直观的数字,2021年12月对冲基金Coatue花3500万美元投资Runway时,其估值为2亿美元,一年后估值变成5亿美元,再过了半年,它的估值就又翻了3倍(保守说有15亿美元) 。
网友:好莱坞is dead
Gen-2的正式发布让不少网友感到兴奋 。
在Runway官宣发布Gen-2的推文下,出现了一些普通用户“求教程”的声音:
不过已经有行动力强的用户开始试着用Gen-2生成自己的视频了,不少用户都在Runway推文的评论区交上了自己的4秒钟“作业” 。
尽管Runway只是在网站列出了Gen-2的主要功能,并没有教给大家更多Gen-2的玩法,但聪明的网友已经自己学着用Gen-2生成的视频剪辑出了一个有反转的短故事 。
比如这个叫“Monster of the sea(海怪)”的48秒故事:天气晴朗、风平浪静的一天,一搜帆船开始还很悠然地行驶在海上,船上的游客惬意地碰着杯喝着酒,可突然狂风大作,船员拿起望远镜往远处望,发现一只巨大的海怪出现在海面,船随着海浪开始颠簸,甚至燃烧了起来,船上的人纷纷跳水弃船逃生 。

视频版Midjourney又进化了:一句话生成视频,谷歌注资,网友大呼好莱坞已死

文章插图
来自推特网友@MHU
甚至有直接用ChatGPT写了剧本、再用Gen-2生成的视频拼成一个故事的 。
还有用户拿Gen-2生成的素材剪了一个1分钟的电影预告片,甚至在最后幽默地加了一个戛纳电影节的标志,如果生成的视频质量再高一点,怕不是真能以假乱真 。
视频版Midjourney又进化了:一句话生成视频,谷歌注资,网友大呼好莱坞已死

文章插图
来自推特网友@Toni Seldr
不过视频质量差、生成的视频时长太短等也确实成了用户吐槽Gen-2的点 。
并且在为Android/ target=_blank class=infotextkey>安卓用户提供App服务的问题上,Gen-2和Gen-1一样也还是没有长进 。
当然,更多用户还是对Runway表现出了宽容 。有网友评价说,“虽然它有太多的不完美,但有一点可以肯定,整个视听工业都将迎来革命性的改变 。”
视频版Midjourney又进化了:一句话生成视频,谷歌注资,网友大呼好莱坞已死

文章插图
还有网友更激进地说,“好莱坞已死,任何人都可能做出一部世界级的电影 。”
真能取代好莱坞吗?
可以理解为什么广大网友对Gen-2的推出如此兴奋 。Gen-2对普通用户的好处是明摆着的——假以时日,文本生成视频技术一旦成熟,将意味着拍电影不再只是大制片厂的专属,任何一个普通人都可以做一部自己的电影 。
Runway并没有明确说过Gen-2面向的人群到底是谁 。不过我们可以从它推出App以及之前和影视工作室有过的合作等等动作来看,大致猜到有哪些人会用到Gen-2:专业的制片公司,个人工作室性质的独立生产者,以及我们这样的普通用户 。
虽然Gen-2看起来对普通用户很友好,但制片公司们会用Gen-2这样的工具也是肯定的 。
毕竟大模型不同于过去任何一个热过之后就销声匿迹的概念,它将成为未来又一次深刻改变人类的产业革命,几乎已经是各行各业的共识 。
事实上在国内,已经有影视项目开始借助大模型来完成一些工作 。比如在剧本筹备阶段,会把分镜头故事板的产出工作交给Midjourney(据说能省下几十万元的成本) 。
那假设,有一天Gen-N成熟到也能生成能直接拿去用的完美镜头呢?
或者可以拿大模型在游戏行业的应用做个类比,Midjourney等工具的使用显然已经对游戏公司产生了非常现实的影响:先是出于节省成本的需要砍掉美术外包团队,接着就是在自己人身上动刀,甚至有从业者提到最多有8成的原画师会下岗 。
考虑到如今大模型的迭代速度,它的影响真正显现在影视行业也会是迟早的事 。
不过我反而觉得,Gen-2大模型可能会淘汰那些影视行业流水线上的“工人”,但却淘汰不了真正的艺术家 。
之前听到过一个说法,AI大模型生成的内容里,可能有80%都会是对人类过去经验无聊的重复,但也可能有20%闪光的东西 。就比如在中式美学和赛博朋克如何进行融合的问题上,普通创作者可能需要极长时间进行思考,AI却可能生成一个让人意想不到的结果,给人带来惊喜 。


推荐阅读