小伙用智能 AI 修复100 年前京城的老视频

简介: 近日,一个“修复老北京街道”的视频刷屏全网。一段由加拿大摄影师在 100 年前的北京被 AI 修复后,活灵活现地展现在人们面前,一百年前人们打招呼的方式、使用的乐器、交通工具,在这段视频中,都清晰可见。

--------点击屏幕右侧或者屏幕底部“+订阅”,关注我,随时分享机器智能最新行业动态及技术干货----------

image.png

近日,一个“修复老北京街道”的视频刷屏全网。一段由加拿大摄影师在 100 年前的北京被 AI 修复后,活灵活现地展现在人们面前,一百年前人们打招呼的方式、使用的乐器、交通工具,在这段视频中,都清晰可见。配上颇合时宜的音乐,24 小时内,已经有了将近 50 万的点赞量,10 万多次的转发,接近 3 万的留言,看来周六大家也有在好好工作啊。

image.png

这个视频来自一位名叫“大谷Spitzer”的博主,据他所说,接触老片修复是一个偶然,整个项目也只花了 7 天时间就顺利完成了。

先来一起看看这惊人的修复效果。

👇老视频👇

1.gif

👇修复后效果👇

2.gif

修复后的视频把当时的北京城演绎的活灵活现,下边的片段中,左下角👇小哥呆呆的看着镜头,连细微的表情都清晰可见,青涩中带有一点可爱,想象一下这位憨厚的小哥来自一百年前,还是让文摘菌感慨万千。

3.gif

怪不得网友们纷纷赞叹。有网友表示,不仅整体氛围没话说,连细节部分也分毫毕显,“每个人脸上都是新奇又不敢接近的表情”。

image.png

甚至有网友留言表示,“博物馆应该收藏你的作品”!

image.png

博主在视频最开始就说道,想用技术为社会做一些有意义的事情,怀着仰慕的心情,文摘菌联系到了这位“大谷Spizer”,来看看他是怎么说的吧~

7 天完工,难在显卡!整体满意,颜色上还有不足
自称将 AI 视为业余爱好的大谷如今身在纽约,接受文摘菌采访的时候,他感叹道,自己做 AI 科普视频做了七年,没想到一下子火了,现在完全处于“被信息淹没”的状态。

大谷透露道,其实这次接触老片修复纯属偶然,在搜索其他资料时候,偶然间在 YouTube 看到了人民日报上传的一段老北京视频,对其中对视镜头的部分十分有感触,“有一种穿越时空的感觉”。同时,一想到一百年前的人们有那个年代的思想,看问题的角度和现代有所差别,是很有趣的体验,自己恰好了解相关技术,为何不将老片上色补帧,做成活灵活现的 60 帧,和大家分享呢?

image.png

具体到操作上,根据大谷介绍,可以大致分为补帧、扩分辨率、上色三个环节,每个环节也都用了不同的工具,整体框架的流程则主要参考了 Denis Shiryaev 在社交媒体上分享的经验贴。

大谷说道,整个项目只用了 7 天时间,大部分都是硬性的时间消耗,比如补帧需要一到两天,扩分辨率至少一天,上色也需要花费一天时间,再加上要做到 4K60fps,渲染速度很慢。多方考量之下,他把人民日报 14 分钟的原片剪到了 10 分钟。

相比而言,去年国庆 164 分钟修复版《开国大典》让人们亲眼目睹三次战役胜利到开国大典的历史过程。除了借助 AI,胶片的撕裂、划痕等都是专业的修复师一帧一帧地修补。“修复过程中,我们70%的时间都在完成资料片镜头的修复工作。”负责本片修复工作的三维六度公司的首席技术官周苏岳说道,虽然修复时间只用了 40 天,但这却是 600 人每天工作 20 小时的奋战结果!

image.png

在视频中,相信大家也会看到时不时会出现颜色跳来跳去的情况,大谷表示,在补帧之前用工具把老电影中经常出现的画面闪烁去掉了,否则会更严重,整体的色彩上,AI 的渲染效果也明显偏淡。

除此之外,大谷这次利用的是国外的一套模型,显然无法直接将其套用到 100 年前的中国影片修复上,在颜色上就无法做到历史性的准确,视频中的上色都是AI学习的成果,虽然肤色大致还原了,但是在红绿服装等方面的真实性还有待商榷。

也正是考虑到这些不足,大谷对去年参与《开国大典》修复的工作人员表达了敬意,“AI 没办法做到艺术家那么准确,尤其是在历史方面,而《开国大典》对历史准确性的要求更高”,随后他也打趣地说道,或许可以“让 AI 看看清宫剧,提升一下准确率”。

image.png

就像大谷在视频开头所说,他想用技术做一些对社会有意义的事,在这次视频爆红之后,他表现得相当豁达,“太深刻的大意义倒也说不上”,主要是想借此让人们对历史有所反思。不少网友指出,视频中几乎看不到女性,这正是历史生动性的体现,既有光鲜也有不足,让大家意识到现在的生活是多么来之不易。

同时,作为老北京人,大谷也想通过视频分享他的切身感受,让更多人看到一百年前的民俗,尤其是上了色帧数提高之后,“感觉确实不一样,也感慨这一百年的变化”。

对于目前收到得反馈,大谷表示“完全没想到”,他看了很多评论,也受感触于一些留言,还有人私信向他表示,给太姥姥看后,也很怀念那个年代。

大谷透露道,这其实是他第一次尝试做视频修复,后续或许会出一期视频介绍一下具体的操作。对于后续的视频更新计划,他想要介绍一下国内已经成熟的语音修复技术。

目前,大谷在研究一款换衣 AI,通过把模特导入系统,在 Photoshop 里换好衣服,就能生成模特穿上衣服的各种姿势,听上去是淘宝卖家会喜欢的 AI。不过,大谷介绍道,这个AI目前还处于“婴儿状态”,精度上不是很乐观,未来需要大量的训练,以后或许也会做个视频介绍一下。

AI 助力,老片修复一直在路上

对于这次用到的技术,大谷表示,上色主要还是应用在黑白照片和电影上,补帧技术就可以遍地开花了,比如修复像素动画的跳帧问题,或者在动画领域加以应用,因为动画很多是 12 帧/秒,甚至 6 帧/秒,补帧之后效果很好,也终于可以看更流畅的 EVA 了。

Denis Shiryaev通过神经网络修复老视频的内容今年在油管爆红了一阵子,他使用Topaz Labs的Gigapixel AI和DAIN图像编辑应用程序将1896胶片缩放到4K分辨率,不仅将素材增加到4K,还将帧率提高到每秒60帧。

Shiryaev最火的作品是用Gigapixel AI将1896年拍摄的50秒无声短片《火车进站》(the Arrival of a Train at La Ciotat Station)做成了4K格式,把模糊的原片做成了高清画质,完全符合当下的高清视频标准!

尽管存在一些缺陷,如图像会出现跳跃或某些细节依旧模糊,但已经很棒了!为了使这一作品更加完整,Shiryaev还为这部无声电影添加了声音。

这些图像是通过生成对抗网络(GANs)得来的。

科普一下,GANs是由两个相反的神经网络组成的。第一个网络基于训练对象的数据生成对象,而第二个的作用是确定对象的真实性。第一个网络通过不断尝试,直到它的作品完美到足以欺骗第二个网络。通过这种方式,才得以生成最有可能的图像。

Gigapixel AI软件使用一种专有的插值算法来分析图像,它可以使图像更清晰,甚至在放大了600%之后。

再来说说DAIN(深度感知视频帧插值),它可以将帧想象并插入现有视频剪辑的关键帧之间。换句话说,DAIN首先分析并映射视频片段,然后插入在现有图像之间生成填充图像。这与4K电视的运动平滑功能是同一个概念。为了在这段1896年的视频中达到同样的效果,Shiryaev添加了足够多的图像来将速度提高到60帧每秒。因此,DAIN自动生成,然后在最初记录的24张图像之外,每秒添加36张额外的图像。

Shiryaev的 “火车”的视频修复版本看起来像是一部使用智能手机或GoPro拍摄的最新电影。与原始视频相比,效果非常惊人,尤其是在新版本中获得了流畅性。列车上的阳光反射和月台上的女士珠宝都被记录的很完整,也许是最显着的改进之一。

image.png

Shiryaev也用神经网络对这一修复视频进行了着色:从一堆彩色照片开始,将它们转换为黑白,然后训练神经网络以重建彩色原稿。

除了上文提到的《开国大典》,在老片修复上,“中影·神思”的开发,能缩短修复电影所需时间的四分之三,成本可以减少一半,目前已成功应用于《厉害了,我的国》《血色浪漫》《亮剑》等多部影视剧的图像修复与增强当中。

爱奇艺也推出了其自主研发的视频增强技术ZoomAI,为电影修复提出解决方案,这是业内第一个利用较低成本、将深度学习技术应用在视频画质增强场景中的方案。但不可否认的是,这种技术如果被有恶意的人使用,例如,可以用于制作“伪造品”并允许视频中的身份盗用,也会导致巨大的社会问题。

image.png

原文链接:https://yqh.aliyun.com/detail/9818
文章转自阿里云云栖号,本文一切观点和《机器智能技术》圈子无关

目录
相关文章
|
8天前
|
人工智能 并行计算 Linux
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
斯坦福大学推出的FramePack技术通过压缩输入帧上下文长度,解决视频生成中的"遗忘"和"漂移"问题,仅需6GB显存即可在普通笔记本上实时生成高清视频。
225 19
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
|
3天前
|
人工智能 测试技术 计算机视觉
让AI看懂3小时长视频!Eagle 2.5:英伟达推出8B视觉语言模型,长视频理解能力碾压72B大模型
Eagle 2.5是英伟达推出的8B参数视觉语言模型,通过创新训练策略在长视频和高分辨率图像理解任务中超越更大规模模型,支持512帧视频输入和多样化多模态任务。
70 10
让AI看懂3小时长视频!Eagle 2.5:英伟达推出8B视觉语言模型,长视频理解能力碾压72B大模型
|
4天前
|
人工智能 编解码 算法
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
MAGI-1是Sand AI开源的全球首个自回归视频生成大模型,采用创新架构实现高分辨率流畅视频生成,支持无限扩展和精细控制,在物理行为预测方面表现突出。
136 1
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
|
3天前
|
机器学习/深度学习 人工智能 自动驾驶
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
英伟达推出的DAM-3B多模态大语言模型,通过创新的焦点提示技术和局部视觉骨干网络,实现了对图像和视频中特定区域的精准描述生成,为内容创作和智能交互领域带来全新可能。
68 0
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
|
5天前
|
存储 人工智能 安全
AI驱动的幼儿跌倒检测——视频安全系统的技术解析
幼儿跌倒检测系统基于AI视频技术,融合人体姿态识别与实时报警功能,为幼儿园安全管理提供智能化解决方案。系统通过YOLOv9、OpenPose等算法实现高精度跌倒检测(准确率达98%),结合LSTM时间序列分析减少误报,支持目标分类区分幼儿与成人,并具备事件存储、实时通知及开源部署优势。其高效、灵活、隐私合规的特点显著提升安全管理效率,助力优化园所运营。
AI驱动的幼儿跌倒检测——视频安全系统的技术解析
|
8天前
|
人工智能 算法 IDE
通义灵码:以AI重塑开发者生产力,解锁智能编程新范式
通义灵码是阿里云推出的一款AI智能编程助手,基于通义大模型打造,深度集成于主流IDE。它不仅提供全场景智能代码生成、对话式开发体验和工程化智能重构等功能,还通过百亿级参数大模型底座、企业级环境适配、私有化部署等优势,重新定义人机协作边界。在真实开发场景中,通义灵码显著提升API开发与算法优化效率,助力开发者从机械劳动转向创造性对话,开启人机协同的新时代。
62 9
|
1天前
|
存储 人工智能 安全
阿里云双项入选首批智算一体化权威评估 以AI Stack加速政企智能化升级 ——万卡智算集群服务推进方阵(ICCPA)第三期沙龙在京举办
2024年4月9日,中国信通院主办的智算集群服务沙龙第三期在京召开。阿里云凭借领先的AI技术能力,成为首批通过《面向大模型的智算一体化解决方案》评估的云厂商,并入选行业应用案例。会上,阿里云AI Stack赋能政企大模型高效落地,提供软硬一体推理优化框架,支持主流开源模型快速适配,助力企业构建高性能私有化AI服务,已在政务、金融等领域广泛应用。
|
7天前
|
传感器 人工智能 搜索推荐
只靠一个头,能做出被“可爱攻击”的AI智能宠物吗?
本文探讨了AI实体化的一个具体方向——AI智能宠物,尤其是仅靠“一个头”设计的可行性与潜力。相比复杂的人形机器人,头部AI宠物成本更低、技术门槛更小,且能聚焦语言和表情交互,打造情感连接。文章分析了AI宠物的市场机遇,如满足孤独经济需求、成为消费电子新趋势,并指出“可爱”只是入场券,真正留住用户的在于深度交互体验。最后强调,精准洞察用户需求是关键,避免陷入“有趣但无用”的陷阱,为AI实体化找到切实可行的商业化路径。
|
机器学习/深度学习 人工智能 边缘计算
AI盲杖触动的边缘智能未来
经常网上冲浪的朋友想必知道,最近不少城市的公共交通,都开始逐步接纳导盲犬。
|
13天前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
156 29
下一篇
oss创建bucket