用AI还原地道京片子!作者大谷亲自揭秘老北京视频语音修复,网友:黄渤穿越了?

简介: 用AI还原地道京片子!作者大谷亲自揭秘老北京视频语音修复,网友:黄渤穿越了?

对历史,我们总是充满了无限的遐想,而北京这座城市充满了太多故事,对于过去或现在生活在这里的人,都是一份情怀。

在电影中,我们经常能看到对老北京街道的还原,但布景终归只是布景。试想在90年前,有人用摄像机记录下了当时的一切呢?

早在5月,微博博主“大谷Spitzer”分享了他对百年前老北京视频的修复结果,如今在和央视的合作下,时隔两个月,第二期节目终于如约而至,在新的视频中,除了仍然熙熙攘攘的老北京街道,你还能看到很多生活化的场景,甚至听到他们的声音。

比如在学校外面买饭时孩子们的喧闹声:

或者是盲人乐手在街边弹奏表演:

甚至是在剃头小摊剃头,这效果可以堪比不少Tony老师了:

“这头剃得好不疼,剃得不好,真疼!”
“你家几口人啊“
“十口人?!怎么那么些人呢?“
“一天挣两毛钱够挑费不?“

看到这里,有网友表示,“感觉剃头师傅说了段相声”。

这剃头小哥也是个话痨,他对着镜头拍头说“剃挺好”的时候,文摘菌觉得,这怎么就这么像“黄渤×夏雨”呢?

有网友也表示认同,笑称道,“黄渤,你为什么穿越回去剃头”。

这次除了画面,声音修复是一大亮点,不过碍于GIF的限制,想听最纯正的老北京话,大家可以点击下方链接👇:
小程序,

哔哩哔哩
,,
我用人工智能修复了百年前的北京影像!第2期:民俗乐队,街边地摊与剃头匠
小程序

对于大谷来说,有了两次的经验,这次的修复项目要显得得心应手了许多,在整体效果的呈现上,大谷也十分满意,不过颜色上还存在闪烁,分辨率也还可以再提升。

大谷表示,会总结每次的经验教训,争取下一次比上一次的效果更好,当然他也会尝试加入一些新技术。

这次的修复项目,大谷和央视进行了合作,在央视的宣传下,更多人得以领略百年老北京风光,不少网友感叹道科技的进步和贡献:

也有网友感叹道时间的流逝,“下一个90年,未来的人看到我们现在生活面貌,不知道会是什么感想”。

视频发布一周后,在微博、知乎等多个社交平台上都掀起了讨论热潮,文摘菌也再次联系到大谷,第二次接受采访的他也显得要游刃有余许多。

用AI项目做声音修复,老北京视频有声音啦!

说到本次视频的来源,大谷介绍道,可以称得上本次修复过程中最困难的地方了。

虽然网上能找到两段相关的视频影像,两分钟的宣传片和六分钟的正片,但是网上的版本水印非常重,基本不能用,这才触发了大谷向美国南卡罗莱纳大学影像库“求救”,申请了视频的使用权,得到了学校内部版本的视频,这才解决了水印的问题。

“那边的人很配合。”大谷说,当然他们提出了一些要求,就是要加上视频前的小黄纸片,和版权声明部分,除此之外,对视频的后续处理和分享都是自由的。

视频开头的小黄纸片

除了水印外,由于年代差距,这两段宣传片和正片的内容是不重复的,再加上当时的工作人员不懂中文,两段视频的时间顺序是完全乱掉的,比如前一秒还是宣传片的内容,后一秒就马上跳到了全片末尾。

所以拿到这个视频之后,大谷的第一个工作就是把视频重新剪辑到正确的时间流上。

在声音的修复上,当时制作团队所使用的录音设备无形之中帮到了大忙,微博网友@失重的梁柱介绍道:

福克斯有声电影新闻在当时是比较新鲜的模式。区别于华纳兄弟开发了维他风(Vitaphone)和RCA 开发的光电留声机(Photophone),福克斯的有声电影(Movietone)属于单摄影机系统,可将声画同时录制到胶片上,较之以往是十分便捷的。而目前所见的拍摄中国的原声影片,很多都出自福克斯的这一系列。

得益于设备的先进,视频本身的录音效果就已经足够好,再加上南卡罗莱纳大学可能也进行了一些初步处理,大谷所做的工作主要是底层去噪,也就是处理掉那些经常出现在录音中的、吱吱的毛刺声。

大谷表示,AE或PR里的去噪功能就很好,系统首先会学习一小段噪音波形,随后会自动把后续出现的噪音部分抵消,这样的话听上去会清晰很多。但去噪主要针对以低频为主的声音,处理后整体的声音效果听上去就会比较“干”,所以在去噪后,大谷还加入了一些混响,让声音听上去更自然,当然文摘菌可是一点都没听出来。

不过,在盲人演奏的音乐部分,大谷除了加了混响外,基本没有做其他处理,因为音乐本身的混声就比较严重了,如果再去噪的话,低音乐器的声音就会被掩盖住。

随后,大谷还介绍了一个声音修复的AI项目,导入一段默片,AI系统就可以自动补充出音效,比如导入《火车进站》,系统就能补充火车的音效,由远及近,非常逼真,有了这项技术就可以更轻松地对更多老电影进行声音修复了。

不过,这个项目还没有开源,大谷表示他也会持续关注最新进展。

论文链接如下,感兴趣的朋友们可以尝尝鲜:
http://bvision11.cs.unc.edu/bigpen/yipin/visual2sound_webpage/visual2sound.html

大谷说到,这其实是第一次针对原声视频进行修复,也是很有意义的一次进步。南卡罗莱纳大学影像库内部还保存有很多有声老视频,也希望未来能够和他们继续取得联系。

画面大升级:边缘更平滑,整体效果更好了

除了声音上的修复外,文摘菌也注意到,与第一期视频相比,本次视频中画面上颜色跳来跳去的情况少了很多,这与大谷使用的不同软件有着直接关系。

大谷表示,在画面分辨率上首先进行了进一步的提升,与第一期不同,本次修复主要使用的是Topaz,Topaz在边缘的处理上要更加平滑,画面效果也更好。

其次就是利用到了DeepRemaster这项技术,与这项技术的邂逅是在YouTube上的推荐流上,这其实是GitHub上的一个开源项目,目前还在研究中。

GitHub链接:
https://github.com/satoshiiizuka/siggraphasia2019_remastering

发现这项技术之后,大谷就发邮件征得了两位日本研究员的同意。

在使用过程中,大谷发现,DeepRemaster非常好上手,可以导入一些手绘图或者历史图像作为参考图,修复的效果就会稳定在参考图的范围内,同时场景中颜色的抖动也变得更加平稳。

在本次视频中,盲人音乐家表演的部分和“黄渤”拍头的部分都是通过这个技术实现的。

当然,DeepRemaster技术本身也存在瓶颈,不是所有的场景都能直接套用,就大谷的个人经验来说,对于动作剧烈或者是人脸很多的场景,比如市井,都没办法使用这项技术,DeepRemaster更适合那些静帧、平移的画面,比如音乐表演。

在画面和声音的修复工作上,大谷也进行了有机的结合,比如电脑自动补帧的时候,就可以利用空隙在PR上修复声音,两个部分可以不矛盾地进行,有时候会穿插着来,也会返工二次修复声音部分。

除了在声音和画面上的修复外,我们也注意到,在这次的项目上,大谷也和央视进行了一次合作,他表示,自己主要负责技术修复,央视主要负责宣发,“这也省了很多力气,上传审核视频都是很费时的”。

有了前两次的经验,这次的修复显得要“顺手”很多,整个制作周期大概持续了一个月的时间,这段时间里,其实也不是全身心地扑在这上面,也有在开发自己的游戏,做一些其他的项目。

在和央视的合作过程中,央视也会对整体的修复提出参考意见,比如音乐的剪辑,以及字幕的添加等。大谷感叹道,添加字幕的过程同样也是一次学习的体验,同时也可以让观众更好地理解人物对话。

不只如此,修复后的老视频在社交媒体上传播之后,大谷收到了很多反馈,比如第二期老视频的出处本来是模糊的,后来有大神根据修复后的画面等信息综合后,指出这是100年前老济南西门泺源门(濼源门),这些都是宝贵的互动。

破案过程,欢迎围观:
https://www.zhihu.com/question/399225415

神器DeepRemaster:如何把修复效果稳定在参考图范围内

和第一期修复视频一样,在这次新的视频过程中,大谷仍然借鉴了YouTube博主Denis Shiryae的影像修复教程,以及使用到了上海交大联合提出的DAIN补帧技术。

除此之外,如上文所说,新一期视频中使用到的新技术DeepRemaster由日本筑波大学和早稻田大学两位研究者合作提出,论文曾被计算机图形学顶会SIGGRAPH Asia 2019收录。

论文链接:
http://iizuka.cs.tsukuba.ac.jp/projects/remastering/en/index.html

DeepRemaster之所以强大,是因为它与近年来使用递归模型处理视频的方法不同,该方法对老旧影像的修复是基于全卷积网络实现的。

在这项研究中,研究人员提出了一种单一框架,该框架基于带有注意力机制的时间卷积神经网络,主要以半交互的方式处理所有重制任务。同时,论文提出的source-reference注意力,允许模型在处理任意数量的彩色参考图像时,不需要进行分割就能视频着色,也很好地保持了时间一致性。

输入一系列的黑白图像,通过预处理网络修复,修复的结果作为最终输出视频的亮度通道。然后,source-reference网络将预处理网络的输出和任意数目的彩色参考图像结合,产生视频的最终色度通道。

在效果测试上,研究人员对一些老视频进行了测试,比如下图,结果正如大谷所说,在静止的场景内,输入少量参考图像后,系统就能输出稳定、一致的数千帧图像。

与以往的方法相比,DeepRemaster生成的图像与真实世界的色彩更加一致。

未来,大谷表示,他会继续关注新的技术和老视频修复领域,也会尝试将这些新的AI修复技术利用到老视频修复上。

换句话说,现在是不是就可以期待第三期的老北京修复视频了?!搓手~

相关文章
|
1月前
|
人工智能
三文带你轻松上手鸿蒙的AI语音03-文本合成声音
三文带你轻松上手鸿蒙的AI语音03-文本合成声音
53 1
三文带你轻松上手鸿蒙的AI语音03-文本合成声音
|
1月前
|
存储 人工智能 开发者
三文带你轻松上手鸿蒙的AI语音02-声音文件转文本
三文带你轻松上手鸿蒙的AI语音02-声音文件转文本
84 0
三文带你轻松上手鸿蒙的AI语音02-声音文件转文本
|
1月前
|
人工智能 语音技术 数据格式
三文带你轻松上手鸿蒙的AI语音01-实时语音识别
三文带你轻松上手鸿蒙的AI语音01-实时语音识别
34 0
三文带你轻松上手鸿蒙的AI语音01-实时语音识别
|
2月前
|
机器学习/深度学习 人工智能 编解码
深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
【9月更文挑战第2天】深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
 深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
|
29天前
|
人工智能 自然语言处理 IDE
CodeFuse IDE 0.6 版本发布,支持编辑器诊断问题 AI 修复
CodeFuse IDE 是基于蚂蚁自研大模型和 OpenSumi 框架的 AI 编程助手,支持多语言,提供代码建议、解释、测试生成等,增强开发效率。最新版增加 AI 修复和智能补全功能,开源并支持 VS Code 插件生态。[了解更多](https://github.com/codefuse-ai/codefuse-ide)
79 0
|
1月前
|
人工智能 编解码 API
【选择”丹摩“深入探索智谱AI的CogVideoX:视频生成的新前沿】
【选择”丹摩“深入探索智谱AI的CogVideoX:视频生成的新前沿】
|
2月前
|
人工智能
防AI换脸视频诈骗,中电金信联合复旦提出多模态鉴伪法,还入选顶会ACM MM
【9月更文挑战第26天】中电金信与复旦大学合作,提出一种基于身份信息增强的多媒体伪造检测方法,并入选ACM MM国际会议。该方法利用身份信息作为检测线索,构建了含54位名人324个视频的多模态伪造数据集IDForge,设计了参考辅助的多模态伪造检测网络R-MFDN,显著提升了检测性能,准确率达到92.90%。尽管如此,该方法仍存在一定局限性,如对非英语国家数据及无明确身份信息的视频检测效果可能受限。
64 4
|
1月前
|
人工智能 自然语言处理 搜索推荐
Sora - 探索AI视频模型的无限可能
这篇文章详细介绍了Sora AI视频模型的技术特点、应用场景、未来展望以及伦理和用户体验等方面的问题。
27 0
|
2月前
|
人工智能 Linux iOS开发
AI超强语音转文本SenseVoice,本地化部署教程!
【9月更文挑战第7天】以下是AI超强语音转文本工具SenseVoice的本地化部署教程:首先确保服务器或计算机满足硬件和软件要求,包括处理器性能、内存及操作系统等。接着从官网下载适合的安装包,并按操作系统进行安装。配置音频输入设备和语言模型后,启动SenseVoice并测试其语音转文本功能。最后根据实际使用情况进行优化调整,并定期更新以获取最新功能。详细步骤需参照官方文档。
615 1
|
3月前
|
人工智能 数据处理 语音技术
通义语音AI技术问题之查看KAN-TTS在ModelScope上的模型列表如何解决
通义语音AI技术问题之查看KAN-TTS在ModelScope上的模型列表如何解决
51 10
下一篇
无影云桌面