AI根据视频画面自动配音 ,真假难辨 !(附数据集)
2017-12-14 15:57
453 查看
点击有惊喜
先来做个“真假美猴王”的游戏。
你将看到两段画面相同的视频,请判断哪段来自视频原声,哪段是AI根据视频画面配上的假声?
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/52d36d8497e9d364c9daf67eb072ed61.png)
莫非两个都是真的?不可能,答案文末揭晓。(还有更多真假难辨的视频原声和配音大对比)
真假难辨,简直让人怀疑耳朵。模型合成的假音效,什么时候都这么逼真了?一切还得从这个自动为自然环境下的视频配音的项目说起。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/60f12f829a6500a7ca619686c65a3fa2.png)
看闪电,知雷声。
对人类来说,声音和视觉通常会打包出现传递信息。就像一个孩子看到闪电会下意识捂住耳朵,看到沸腾的水会想起水汽呼呼的声音。
在论文(Visual to Sound: Generating Natural Sound for Videos in the Wild)中,北卡罗来纳大学的博士生Yipin Zhou,其导师Tamara L. Berg联合Adobe公司的Zhaowen Wang、Chen Fang和Trung Bui三人,想做出一个计算模型来学习视觉和声音间的关系,减少繁琐的音频编辑流程。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/e2ec655618248a6ef94b858575e354c5.png)
论文一作Yipin Zhou
要做出这样一个模型,那第一步肯定是找出一个合适的数据集来训练。
这个数据集可没有那么好找。
研究人员掐指一算,觉得AudioSet不错。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/0c947cd089e6456c6ea53832003d1809.png)
这是今年3月谷歌开放的一个大规模的音频数据集,包含了632个类别的音频及2084320条人工标记的音频,每段音频长度均为10秒。人与动物、乐器与音乐流派、日常环境的声音均覆盖在数据集内。
数据集代码地址:
https://github.com/audioset/ontology
但由于AudioSet中很多的音频与视频的关联松散,目标声音可能被音乐等其他声音覆盖,这些噪音会干扰模型学习正确的声音和图像间的映射(mapping),因此也不是很理想。研究人员先清理了数据的一个子集,让它们适应生成任务。
研究人员从AudioSet中选择10个类别进行进一步的清理,分别为婴儿啼哭、人打鼾、狗、流水、烟火、铁路运输、打印机、打鼓、直升机和电锯。每个类别中包含1500-3000个随机抽取的视频。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/4b168082443650761554520138abc599.png)
其中4个类别的视频帧及相应波形。图像边界颜色与波形上的标记标记一致,表示整个视频中当前帧的位置
之后,研究人员用亚马逊众包平台Mechanical Turk(AMT)清理数据。值得一提的是,李飞飞在建立ImageNet数据集时,也是借助这个可以把任务分发给全世界坐在电脑前的人的平台做起来的。
在这个任务中,研究人员借助AMT上兼职的力量验证在图像和音频形态下,视频片段中关注的物体或动作是否存在。如果在视听两种环境下都存在,则认为它是一个噪音较少的可用视频。为了尽可能保留更多数据,研究人员将每段视频分割成两秒钟的短视频,分别标注标签。
这样一来,图像和音频模式上共标注了132209个片段,每个都被3个兼职做了标记,并从原始数据中删除了34392个片段。研究人员在合并相邻的短片段后,总共得到了28109个筛选后的视频。这些视频平均长度为7秒,总长度为55小时。
下图左表显示了视频数量和每个类别的平均长度,而饼图展示了长度的分布。由图中可见大多数视频的长度超过8秒。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/0936094efc4fa74813b20846c861d9ed.png)
点击有惊喜
先来做个“真假美猴王”的游戏。
你将看到两段画面相同的视频,请判断哪段来自视频原声,哪段是AI根据视频画面配上的假声?
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/52d36d8497e9d364c9daf67eb072ed61.png)
莫非两个都是真的?不可能,答案文末揭晓。(还有更多真假难辨的视频原声和配音大对比)
真假难辨,简直让人怀疑耳朵。模型合成的假音效,什么时候都这么逼真了?一切还得从这个自动为自然环境下的视频配音的项目说起。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/60f12f829a6500a7ca619686c65a3fa2.png)
视听关联
看闪电,知雷声。对人类来说,声音和视觉通常会打包出现传递信息。就像一个孩子看到闪电会下意识捂住耳朵,看到沸腾的水会想起水汽呼呼的声音。
在论文(Visual to Sound: Generating Natural Sound for Videos in the Wild)中,北卡罗来纳大学的博士生Yipin Zhou,其导师Tamara L. Berg联合Adobe公司的Zhaowen Wang、Chen Fang和Trung Bui三人,想做出一个计算模型来学习视觉和声音间的关系,减少繁琐的音频编辑流程。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/e2ec655618248a6ef94b858575e354c5.png)
论文一作Yipin Zhou
要做出这样一个模型,那第一步肯定是找出一个合适的数据集来训练。
这个数据集可没有那么好找。
加工数据集
研究人员掐指一算,觉得AudioSet不错。![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/0c947cd089e6456c6ea53832003d1809.png)
这是今年3月谷歌开放的一个大规模的音频数据集,包含了632个类别的音频及2084320条人工标记的音频,每段音频长度均为10秒。人与动物、乐器与音乐流派、日常环境的声音均覆盖在数据集内。
数据集代码地址:
https://github.com/audioset/ontology
但由于AudioSet中很多的音频与视频的关联松散,目标声音可能被音乐等其他声音覆盖,这些噪音会干扰模型学习正确的声音和图像间的映射(mapping),因此也不是很理想。研究人员先清理了数据的一个子集,让它们适应生成任务。
研究人员从AudioSet中选择10个类别进行进一步的清理,分别为婴儿啼哭、人打鼾、狗、流水、烟火、铁路运输、打印机、打鼓、直升机和电锯。每个类别中包含1500-3000个随机抽取的视频。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/4b168082443650761554520138abc599.png)
其中4个类别的视频帧及相应波形。图像边界颜色与波形上的标记标记一致,表示整个视频中当前帧的位置
之后,研究人员用亚马逊众包平台Mechanical Turk(AMT)清理数据。值得一提的是,李飞飞在建立ImageNet数据集时,也是借助这个可以把任务分发给全世界坐在电脑前的人的平台做起来的。
在这个任务中,研究人员借助AMT上兼职的力量验证在图像和音频形态下,视频片段中关注的物体或动作是否存在。如果在视听两种环境下都存在,则认为它是一个噪音较少的可用视频。为了尽可能保留更多数据,研究人员将每段视频分割成两秒钟的短视频,分别标注标签。
这样一来,图像和音频模式上共标注了132209个片段,每个都被3个兼职做了标记,并从原始数据中删除了34392个片段。研究人员在合并相邻的短片段后,总共得到了28109个筛选后的视频。这些视频平均长度为7秒,总长度为55小时。
下图左表显示了视频数量和每个类别的平均长度,而饼图展示了长度的分布。由图中可见大多数视频的长度超过8秒。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201908/31/0936094efc4fa74813b20846c861d9ed.png)
点击有惊喜
相关文章推荐
- AI根据视频画面自动配音 ,真假难辨 !(附数据集)
- 骗过70%的人!这个AI能自动给视频配音,真假难辨(不服来试)
- Android 使用PLDroidPlayer播放网络视频 根据视频角度自动旋转
- 根据视频地址获取视频的第一帧画面做为封面
- 根据覆盖物自动缩放画面比例
- ffmpeg保持原视频画面比例 自动添加黑边
- [AI开发]视频多目标跟踪高级版(离自动驾驶又‘近’了一点点)
- Android 使用PLDroidPlayer播放网络视频 根据视频角度自动旋转
- Android 使用PLDroidPlayer播放网络视频 根据视频角度自动旋转
- Android 使用PLDroidPlayer播放网络视频 根据视频角度自动旋转
- 深度学习与自动驾驶领域的数据集(KITTI,Oxford,Cityscape,Comma.ai,BDDV,TORCS,Udacity,GTA,CARLA,Carcraft)
- 自动根据视频文件类型选择不同播放器的JAVASCRIPT代码
- 使用Hibernate-tools中的hbm2java和hbm2ddl根据hbm文件自动生成pojo和数据库脚本
- 百度BROAD-Video Highlights视频精彩片段数据集简要介绍与分析
- ITCAST视频-Spring学习笔记(@Autowire注解与自动装配)
- 根据首字母自动查找功能的实现
- php 根据url自动生成缩略图,并处理高并发问题
- 根据输入的年月日,自动判断生日日期
- EasyRTC EasyPusher 推送 视频画面旋转90度问题
- 视频理解数据集汇总