→ 返回首页

改变视频行业的AI,快来了(但有点恐怖)

[搬屎] · 2026-02-10 15:13 · 来源: www.bilibili.com

首先这不是一个广告

这个视频录的也很突然

因为字节跳动

刚刚发布了一个叫做c dance2.0的模型

那正常面对AI模型

我的态度就是哦哦又发布了

然后会炒一堆很厉害的概念

然后实际体验不怎么好

然后翻篇

但是这个模型一开始我看到演示视频

就让我觉得啊这个也能做到

比如你看这个

蜜雪冰城大战外企咖啡店

那重点在于它的精细度对吧

这个真的很厉害

然后我看到网上的人都开始产出内容

比如这个

比如这个

那我不说它完美无缺

但是你能明显感觉到

比以前的AI视频要强很多对吧

那这个时候我就觉得这个模型有点不简单了

然后就是我们公司自己的人开始生产内容

我自己也试了

我的感受就是你真的得自己去试一试

假如2016年出

视频生成模型已经是这个水平了

那我感觉传统影视流程距离被AI海啸冲走

已经彻底进入倒计时了

我没有危言耸听

我们一起来看看视频生成模型在今天是什么样

其实过去的视频生成模型已经很不错了

看着都挺像回事

但是有几个点你是能让他破功的

那就是大范围摄像机的运动

分镜的连续性

还有音画的匹配度

那么从这三个痛点来看一看c dance2.0的表现

那首先大范围的运动

我们请公司的AI导演撰写了这样一段文本

还有图片

没有给别的任何的信息

这是我们产出的结果

这个不震撼吗

这种运镜是现在AI能够生成的了什么

你想改个更离谱的运镜

没有问题

我们改下提示词

再来看一眼

反正应该不用多说了

过去我们鉴别AI视频是看摄影机运动假不假

这种方式已经基本上确定是失效的了

那我们现在进入第二个点分镜

以往的模型是可以生成分镜的对吧

但是以前的分镜是这样的

他就有点为了切而切

最多给点特写

然后再给个全景

他的运镜本身是接不上的

至少和真人

就我们人做的视听语言是有区别的

那么好

我们接下来来看看这个模型最震撼的地方

我们来看看一句话

让它生成的视频

它的分镜设计

啊啊这个我不知道你有没有注意到

他不是只给了特写

他是有明确的角度的切换

而且他是有一个导演的意图在的

而且人物也没有走形

可能我这样讲听起来不够明确

我们用一个俯视图来模拟

看一下他的职位的变化

你看这个切景

这个切进这个切镜

他就像是真人导演一样

在不断的改变摄影机的位置

还有视角

为的就是让观众

你能够对于重要内容有一个更好的理解

这是一个导演的思维存在

他这里有一个专注点

就以前我脑子里想的是AI生成一个视频

能够一段的生出来

然后剪辑师把它捡起来

变成一个厉害的作品

但是现在就是我们得意识到这种模型一旦成熟

将来是不需要剪辑师的

他没有筛选或者废片的概念

它所有的东西都是有用的

只要生成的分镜够好

我为什么需要剪辑

就我过去真的一直以为剪辑是一种情感表达

你插几帧

你的情绪会变得不一样

所以必须得人来做

但现在我们必须得面对这这个问题

就是你怎么确定你插的这几帧

你的思考比AI差的这几帧更好

尤其是它可以给你无数个版本

而且很快就能给你

那我们现在进入最后一个点音画的匹配

如果一个视频没有声音

那会大打折扣

过去AI最大的问题就是配的声音很假

尤其是人说话

加上环境音加音乐混在一起就不自然了

那我们再来看一下这个模型的效果啊

没有我们现在在图书馆需要小声点

还不错对吧

你要知道以前做音效和混音

需要人手工一个个贴上去

要一天或者更久的时间

现在一键就完成了

但是声音模型现在行业里面

你要说把优秀的也不少了

我觉得这个你不会觉得很震撼

但我想讲一个有点我们意外发现

但是比较恐怖的事情

就是我发现一个点

只要把我就我本人的脸传到c dance2.0上面

这个AI它会自动用我的声音说话呃

我不确定你有没有听明白我在说什么

就是在没有给任何提示任何词语

任何信息的情况之下

我也没有给我的声音文件

只是把我的脸传上去

这个AI居然知道这张脸的声音是我的这个声音

我给你们演示一下

这是我们用一句话加上我的照片生出来的结果

正常面对AI模型

我的态度就是哦哦哦又发布了

然后又会炒一堆很厉害的概念

然后实际体验不佳

然后翻篇

但是这个模型一开始我看到的演示视频

就让我觉得啊这个你不觉得恐怖吗

而且最恐怖的一点是不只是我的声音

而是我们上传的照片是这样的对吧

只有楼的正面

但是你看他的运镜

它可以转到楼的另一面

那现实中我们的楼的另一面是什么样呢

是这样

这不恐怖吗

他知道我背后的东西是什么

即便我没有告诉他

这基本上可以确定一件事情

就是CDAS2.0

很大量的训练了我们公司的视频

那你肯定会问team team

他们有没有问你要版权

那我简单来说

平台的用户协议里面

我不知道可能隐藏了类似的授权的一个条款

但是我个人没有收过钱

也没有被联系过授权

也许他们在法理上是合规的

但是这有点恐怖对吧

就是更恐怖的是

我们测试了别的博主

比如何同学

你会发现人物形象的一致性超级高

我们平时看到的沙子都是由石头

经过漫长的风化形成的

都是时间赠予我们的礼物啊

这不过可能何同学的视频音质还有一些空间啊

可以提升

结果我们发现c dance

这次选择了用我的声音来附魔给他

然后还有很多人也都莫名其妙的有了我的声音

反正这个有点好笑

但是我觉得笑完得回归严肃

我真心觉得我们大家现在得警醒

因为我们算得上是一个案例

就是最早把所有的信息数据

尤其是图像和声音

数据传到云端的公司

还有我这个个体

尤其是高清内容

你现在就能够看到

如果一个人的数据全部进入了AI的数据集

会发生什么

它能够100%的模拟出你的任何的形态

还有声音

那请问这样的内容

你的家人分得出真假吗

就我想看到这里

你应该能够理解为什么我们要做这个视频

这不是一个小的技术革新

这是一个会推走行业

所有过去流程和沉淀的一个海啸

我就会这么形容他

那在结束之前

我想再来举一个案例

就我们前段时间出了一个视频

AI可以替代我

那我的意义是什么

那个视频里面我们讲述了

我们帮助一位得了肿瘤的粉丝做了MV

花了两年的时间做特效

但是最终我们发现我人越努力做

越比不过AI的进步速度

我以前学的东西越没有价值

在2022和23年

我们手工做一些这样列车飞天的镜头

大概需要几十个到上百个小时

而2023年的AI几分钟可以做出这样的结果

不怎么好

但是2025年两年以后

到了中期

AI可以做出这样的结果

已经非常强了对吧

那请问今天的CDEX2.0呢

我们也试了一下

这是他现在的结果

所以多说无益

我真的觉得你自己亲自去试一试这个AI模型

能更好的理解它的可怕的地方

就他还不算真正改变视频行业的AI

我打心里里说是这样

但是即将登场的下一个AI

下一个版本可能就是了

那请问这对人类是好还是坏呢