阿里云的大数据技术被用来守护马拉松选手的心脏

简介:

1月2日,2016厦门国际马拉松赛在鹭岛开赛,获得了诸多运动爱好者的追捧。随着近年马拉松运动的兴起,越来越多的兴趣者加入其中。但是,是否所有人都适合这样的运动?

在此次厦门马拉松比赛中,一款叫做“阿甘跑步”的运动社交APP联手深圳一家心电医疗设备供应商,借助阿里云大数据平台面向跑马爱好者推出皮肤级运动心律监测解决方案"安心跑"。希望通过大数据的方法来寻找极限运动中可能存在的风险并及时解决。

这是一个像“创可贴”大小的智能设备,它实时扫描并且收集人体生命数据,通过及时回传、实时处理,机器判读等做出健康风险预警。

“结合3D路径实时上传心电数据,云平台快速分析后,又能实时的传给赛事安全保障小组,这是运动赛事保障的一个创新点,不仅如此,“安心跑”还将基于心律在运动康复方面进行探索,如睡眠深度监测、呼吸暂停症监测、焦虑分析。” 阿甘跑步CEO尚文表示。

对马拉松业余选手来说,可在日常的训练中提前进行监测,对自己的心脏状况有一个初步的评估,看是否适合参加马拉松。

在比赛进行中,通过联合紧急救援机构和智能心电设备数据打通,可以对跑步人员的心跳状况通过现场设施实时回传,可以及时识别,重点关注,在心脏出现问题时可以及时抢救。

参与测试中的跑步爱好者“解药”(网名,厦马3小时44完赛)表示,“这是目前市场心率监测设备中,在数据准确性和佩戴舒适性做的最好的产品。”

“目前已经有多家设备厂商和应急救援机构加入合作,计划在今年更多的城市马拉松活动中进行尝试,向部分自愿参与监测的跑友发放设备。”阿里云大数据平台资深数据专家甘云锋表示。

为什么会想到做这样的事情?在过去的2015年一年,国内发生过几起马拉松赛中选手猝死的悲剧。去年的上海马拉松赛上,在25公里处也有一名男性跑友出现心脏骤停的情况,经过现场医护人员抢救脱离危险。从马拉松猝死的案例来看,大多数跑友都是因为心脏病发死亡。

据美国10大马拉松30年的数据统计显示,马拉松的猝死率约为十万分之一,其中最主要的原因为心源性猝死。研究证明,存在未知的肥厚性心肌病等心脏疾病的年轻人在马拉松运动中最容易发生心跳骤停和猝死。

心血管专家表示,半程马拉松运动猝死的高发时段是在终点前;全程马拉松猝死的高发时段,是在35公里后;这与寒冷或高温使得人体运动能力受到一定限制,或因为疲劳导致机体对于运动负荷适应能力下降有密切关系。深究其原因,有跑者对自身身体状况的不了解和对比赛强度的盲目乐观。

甘云锋表示,也许借助于大数据,人们能够及时地发现潜在的风险,帮助更好地施以救援。“阿里云希望输出大数据分析和计算能力,提供大数据存储、计算资源等技术上支持,联合医疗设备商、急救组织、APP厂商、组委会等共同合力完成这件事情,比如帮助不同厂商、设备商、医疗系统之间的数据打通,使医疗大数据能够在多系统下发挥价值。

本文转自d1net(转载)

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
Cloud Native 数据处理 云计算
探索云原生技术在大数据分析中的应用
随着云计算技术的不断发展,云原生架构作为一种全新的软件开发和部署模式,正逐渐引起企业的广泛关注。本文将探讨云原生技术在大数据分析领域的应用,介绍其优势与挑战,并探讨如何利用云原生技术提升大数据分析的效率和可靠性。
|
28天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
17天前
|
Cloud Native Serverless 开发者
阿里云助力开发者创新:探索云原生技术的新境界
阿里云开发者社区推动云原生技术发展,提供丰富产品(如容器服务、Serverless、微服务架构、服务网格)与学习平台,助力企业数字化转型。开发者在此探索实践,共享资源,参与技术活动,共同创新,共创云原生技术新篇章。一起加入,开启精彩旅程!
|
11天前
|
分布式计算 大数据 BI
MaxCompute产品使用合集之MaxCompute项目的数据是否可以被接入到阿里云的Quick BI中
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
11天前
|
分布式计算 大数据 MaxCompute
MaxCompute产品使用合集之使用pyodps读取OSS(阿里云对象存储)中的文件的步骤是什么
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
28天前
|
存储 数据采集 数据可视化
大数据处理技术
【4月更文挑战第10天】大数据处理涵盖采集、预处理、存储、分析挖掘、展现和应用等关键步骤。采集涉及多种类型数据,预处理确保数据质量,存储管理关注规模、速度和安全,分析挖掘利用机器学习发现价值,展现和应用则通过可视化和检索实现数据价值。云计算和AI强化了大数据处理能力,整体目标是提取数据中的价值,驱动企业和社会进步。
33 4
大数据处理技术
|
3天前
|
机器学习/深度学习 运维 算法
大数据基础工程技术团队4篇论文入选ICLR,ICDE,WWW
近日,由阿里云计算平台大数据基础工程技术团队主导的四篇时间序列相关论文分别被国际顶会ICLR2024、ICDE2024和WWW2024接收。
|
8天前
|
存储 机器学习/深度学习 数据采集
大数据处理与分析实战:技术深度剖析与案例分享
【5月更文挑战第2天】本文探讨了大数据处理与分析的关键环节,包括数据采集、预处理、存储、分析和可视化,并介绍了Hadoop、Spark和机器学习等核心技术。通过电商推荐系统和智慧城市交通管理的实战案例,展示了大数据在提高用户体验和解决实际问题上的效能。随着技术进步,大数据处理与分析将在更多领域发挥作用,推动社会进步。
|
11天前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之阿里云DataWorks专有云环境下,上传MaxCompute的UDF(用户自定义函数)的JAR包的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
21 0
|
11天前
|
SQL 分布式计算 DataWorks
MaxCompute产品使用合集之阿里云MaxCompute对SQL语句的长度的长度限制是多少
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。