码农也来玩奥运开幕式“超级变变变”!相机动捕,实时转换赛事图标,项目开源可试玩

简介: 码农也来玩奥运开幕式“超级变变变”!相机动捕,实时转换赛事图标,项目开源可试玩

大家都有在看奥运会吗?

根据发稿前的数据统计,目前中国金牌数量24,位列第一,奖牌总数51,仅次于美国的59,位列第二。

在为运动员们加油助威的同时,我们不妨再回顾一下本届奥运会开幕式。

7月23日,东京时间晚上8点,延期一年的东京奥运会终于开幕,本应座无虚席可容纳6.8万人的看台上,因防疫需要几乎空无一人。

在开幕仪式上,最让人惊喜的节目之一便是将日本老牌节目《超级变变变》的风格搬运到了各个项目图标中,表演者们相互配合,用道具搭配肢体动作,展现了乒乓球、射击、铁人三项等50个图标。

其实,在1964年的东京奥运会上,日本人就首次发明了体育项目图标,随后这也逐渐成为奥运会的传统之一,得以延续。

借着奥运热潮,不少象形文字项目也受到了关注。

比如,日本一位叫做高桥的嵌入式工程师就亲自开发了一个软件,通过相机捕捉动作和姿势,然后把它们变成奥运风格的象形动图,就像这样:

最终识别效果如下图所示,文摘菌只能说,都是“动作不够,机器来凑”啊。

手把手教你把自己变成象形动图

目前,该项目已经在GitHub上开源了。
GitHub链接:
https://github.com/Kazuhito00/Tokyo2020-Pictogram-using-MediaPipe

首先,我们需要创建一个GitHub的存储库。

$ git clone https://github.com/Kazuhito00/Tokyo2020-Pictogram-using-MediaPipe.git
$ cd Tokyo2020-Pictogram-using-MediaPipe

然后,需要创建一个Python虚拟环境,并安装所需要的库。

$ python -m venv .venv
$ source .venv/bin/activate
$ pip install mediapipe opencv-python

准备工作做完之后,可能会遇到在本地代码无效的情况,可以对VideoCapture的宽度和高度适当做出调整。

  • parser.add_argument("--width", help='cap width', type=int, default=640)
  • parser.add_argument("--height", help='cap height', type=int, default=360)
  • parser.add_argument("--width", help='cap width', type=int, default=960)
  • parser.add_argument("--height", help='cap height', type=int, default=540)

随后就可以运行该项目了。

$ python main.py

这时候你就会发现,相机识别出来的图变成了这个样子:

最后,高桥也大方地给出了试玩地址,感兴趣的同学可别错过了:
试玩地址:
https://pictogram-san.com/

象形动图升级:霹雳舞也能玩出花!

这么有意思的项目仅限于此未免有些可惜了。

于是,一位叫做岩田智哉的同学就对高桥的程序进行了进一步的改进和完善,比如说,用来跳霹雳舞。

由于身体机能的下降,岩田放弃了在转动摄像机时实时制作象形图,转而尝试通过让程序读取视频,来制作象形图。

考虑到这点后,他做出了如下修改,把程序改成了由命令行参数传递的视频文件的象形图,同时还删除了反转视频的逻辑。

  • parser.add_argument("--device", type=int, default=0)
  • parser.add_argument('--file', type=str, required=True, help="video file path")
    parser.add_argument("--width", help='cap width', type=int, default=960)
    parser.add_argument("--height", help='cap height', type=int, default=540)

@@ -43,7 +43,7 @@ def main():

 # 引数解析 #################################################################
 args = get_args()

  • cap_device = args.device
  • cap_file = args.file
    cap_width = args.width
    cap_height = args.height

@@ -55,7 +55,7 @@ def main():

 rev_color = args.rev_color


 # カメラ準備 ###############################################################
  • cap = cv.VideoCapture(cap_device)
  • cap = cv.VideoCapture(cap_file)
    cap.set(cv.CAP_PROP_FRAME_WIDTH, cap_width)
    cap.set(cv.CAP_PROP_FRAME_HEIGHT, cap_height)

@@ -86,7 +86,7 @@ def main():

     ret, image = cap.read()
     if not ret:
         break
  • image = cv.flip(image, 1) # ミラー表示
  • image = cv.flip(image, 1) # ミラー表示

    debug_image01 = copy.deepcopy(image)
    debug_image02 = np.zeros((image.shape[0], image.shape[1], 3), np.uint8)
    cv.rectangle(debug_image02, (0, 0), (image.shape[1], image.shape[0]),

然后就能得到这样的视频识别效果:

最后,岩田表示,既然都做到这一步了,我们就顺理成章地再添加逻辑,把这个栩栩如生的视频保存为一个单独的mp4文件。

第一次加载作为命令行参数传递的视频文件时,需要创建一个文件名为<UTC时间戳>-pictgram-output.mp4的视频文件,并在每次循环后添加一个进程来导出象形图象即可。

!/usr/bin/env python

# -- coding: utf-8 --
import copy
+from datetime import datetime
import math
import argparse

@@ -79,6 +80,8 @@ def main():

     color = (100, 33, 3)
     bg_color = (255, 255, 255)

  • is_first = True
  • output_video = None
    while True:

    display_fps = cvFpsCalc.get()
    

@@ -86,6 +89,7 @@ def main():

     ret, image = cap.read()
     if not ret:
         break

+

     #image = cv.flip(image, 1)  # ミラー表示
     debug_image01 = copy.deepcopy(image)
     debug_image02 = np.zeros((image.shape[0], image.shape[1], 3), np.uint8)

@@ -125,7 +129,18 @@ def main():

     cv.imshow('Tokyo2020 Debug', debug_image01)
     cv.imshow('Tokyo2020 Pictogram', debug_image02)

  • if is_first:
  • fmt = cv.VideoWriter_fourcc('m', 'p', '4', 'v')
  • fps = cap.get(cv.CAP_PROP_FPS)
  • now = datetime.now().strftime('%Y-%m-%d-%H%M%S')
  • output_video = cv.VideoWriter(f'{now}-pictgram-output.mp4', fmt, fps, (debug_image02.shape[1], debug_image02.shape[0]))
  • is_first = False

+

  • output_video.write(debug_image02)

+

 cap.release()
  • if output_video:
  • output_video.release()
    cv.destroyAllWindows()

基于机器学习技术的手势识别算法MediaPipe

据了解,高桥所使用的为谷歌开源机器学习工具“MediaPipe”。

MediaPipe是一种基于机器学习技术的手势识别算法,其特点是准确率高,支持五指和手势追踪,可根据一帧图像推断出单手21个立体节点。

与目前市面上较先进的手势识别技术相比,MediaPipe不需要依赖台式机,在手机上就能进行实时追踪,还支持同时追踪多只手,识别遮挡等。

MediaPipe框架有3个模型组成,包括:手掌识别模型BlazePalm(用于识别手的整体框架和方向)、Landmark模型(识别立体手部节点)、手势识别模型(将识别到的节点分类成一系列手势)。

其中,BlazePalm是一个可识别单帧图像的模型,主要为Landmark模型提供准确剪裁的手掌图像,在经过训练后手掌识别准确率可达95.7%。这大大降低了对旋转、转化和缩放等数据增强方式的依赖,让算法将更多计算能力用在提高预测准确性上。

此外,BlazePalm可识别多种不同手掌大小,还能识别手部遮挡,并且能通过对手臂、躯干或个人特征等的识别来准确定位手部。

Landmark模型在BlazePalm基础上识别到的21个立体节点坐标,这些节点之间的位置遮挡也可被识别。

通过手势识别模型,从Landmark提取的数据来推断每根手指伸直或弯曲等动作,接着将这些动作与预设的手势匹配,以预测基础的静态手势。预设手势包括美国、欧洲、中国通用手势,以及竖大拇指、握拳、OK、“蜘蛛侠”等。

对于MediaPipe,更为主流是将其作为手语识别和翻译的辅助方式,如果再结合AR/VR头显的输入方式,或许可以进一步提升听障人士沟通效率。

当然,我们也十分期待高桥这种脑洞大开的项目。

相关文章
|
2月前
|
移动开发 Linux PHP
群雄逐鹿,谁主沉浮?三国战纪H5游戏详细图文架设教程
群雄逐鹿,谁主沉浮?三国战纪H5游戏详细图文架设教程
|
6月前
|
Java Android开发
技术经验解读:专属空间十一——私人影院(在线看电视台的直播)
技术经验解读:专属空间十一——私人影院(在线看电视台的直播)
65 0
|
7月前
|
vr&ar
字节跳动上线Pixsoul,主打特效变脸
字节跳动上线Pixsoul,主打特效变脸
113 0
|
自然语言处理 搜索推荐 UED
有钱景线上赛事直播开发搭建,探讨需要哪些核心功能
随着体育赛事直播平台成为用户最主要观赛,那么要打造一家充满活力的赛事直播平台,需要提供以下功能和内容。
|
存储 编解码 人工智能
自媒体影视后期数字助理--视频调色中间件设计
阿里云提供的线上AI能力在处理视觉信息方面已经有较为成熟和通用的产品,对于开始兴建媒体资源管理平台的自媒体来说,采用阿里云的AI能力、函数计算以及OSS等产品进行平台搭建可以快速实现建设与能力扩充。本文为调色中间件的开发思路、技术架构设计和开发实战中参数的设置介绍,对一些数字影像的基础概念和阿里云人工智能视觉生产的API细节进行了分析。
401 5
自媒体影视后期数字助理--视频调色中间件设计
|
移动开发 JavaScript Java
游戏转播平台源码分享(类虎牙斗鱼系统源码)
数字化时代,娱乐游戏产业蓬勃发展,游戏转播平台成为了各类游戏爱好者分享游戏乐趣的热门选择。为满足市场需求,东莞梦幻网络科技开发了一款全功能的游戏转播平台源码,该源码可供开发者搭建类似于虎牙斗鱼平台的系统。具备APP安卓端、APP苹果端、H5网页端和PC端的游戏转播平台,提供游戏转播、视频模块、社区论坛、新闻话题等多样化功能。采用了PHP、Java、Vue和Objective-C 编程语言开发。
|
5G
《扬帆远航:5G融合应用实践精编》电子版地址
本书共汇集48个优秀的5G行业应用实践案例,涵盖电力、钢铁、矿山、交通、医疗、教育、文旅、智慧城市、金融和信息消费等十大领域,聚焦5G技术给行业带来的机遇及成效。本书对每个垂直行业的行业基本情况、行业发展痛点及需求、5G网络如何解决其痛点,以及当前行 业5G规模化应用发展现状进行总结。本书选取了各行业5G融合应用探索中具有代表性和成熟度的案例进行深度剖析,对案例的参与单位、案例背景、解决方案做介绍
185 0
《扬帆远航:5G融合应用实践精编》电子版地址
|
移动开发 开发框架 小程序
再添新亮点!3 张图带你走近蚂蚁mPaaS音视频通话组件
远程问诊、线上开户、车载语音通话……蚂蚁 mPaaS 正在“拥抱新技术,探索新未来”。
2162 0
再添新亮点!3 张图带你走近蚂蚁mPaaS音视频通话组件
|
机器学习/深度学习 图形学 计算机视觉
一边动,一边画,自己就变二次元!华人小哥参与的黑科技:实时交互式视频风格化
云栖号资讯:【点击查看更多行业资讯】在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 动画,动画,就是你动你的,我画我的。 就像下面这张GIF,左边是张静态图片,随着画者一点一点为其勾勒色彩,右边的动图也在实时地变换颜色。
一边动,一边画,自己就变二次元!华人小哥参与的黑科技:实时交互式视频风格化