大数据运用于旅游业的三个案例

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

浙江大数据交易中心是浙江省唯一经省政府批准建立的交易数据资产的创新型交易场所,致力于建立一个具有公信力、开放、客观、独立的第三方数据交易平台。2016国际旅游互联网大会上,浙江大数据交易中心副总经理来磊做了有关大数据在旅游业的运用的演讲,节录如下。

我们交易中心平台上有大量与大数据有关的会员单位合作伙伴,首先要介绍的案例一是一家运营商的案例。运营商基于用户的位置信息,可以很轻松地掌握每个景区的游客量、进出景区的情况、具体游玩住宿消费场所的分布情况、以及每位游客的景区停留时长都可以掌握到。 除了给出不同维度的统计分析结果之外,运营商可以实时掌握并监控景区的客流情况,分析景区是否拥挤,游客分布位置是否不均,及时警告运营方控制人群密度避免一些由于人群太多可能产生的危险发生,我觉得G20后的杭州西湖各热门景点非常需要这套产品。

技术型的公司,有2个项目案例,一个是针对旅游行业的舆情项目,一个是旅游智能机器人。

首先是旅游舆情项目,通过大部分无自有数据的大数据技术公司的通用技术:爬虫技术到各类平台抓取与旅游相关的信息,利用数据挖掘和文本挖掘技术对这类碎片化的文本数据进行多维度的分析,从而来掌握某一地区或某一景点的舆情动态,并掌握游客的满意度、评价、旅游重点行业的运行情况,从而全面提升旅游产业的数据化管理能力。

然后是旅游智能机器人项目。针对自由行的游客,机器人可以在旅游开始之前根据您提供的一点点基础信息就能帮您作出非常适合您的个性化定制旅游行程安排,而且在旅游行程之中,也可以给你全程贴身的智能化导游咨询服务,机器人不光能帮你介绍景点、回答你的问题、还能提前帮你贴心安排好一些,你需要的只是享受旅行,关键的一点还不会强制你去购物点买买买。

第三个案例是浙报传媒。浙报传媒今天大会主题贴合的有两个部门,一个是旅游全媒体中心,一个是数据业务中心。

浙报传媒旅游全媒体中心是浙报传媒旗下的新型传媒机构,整合了浙报传媒运营下的35家媒体机构的媒介旅游资源,同时还联合了外部的25家主流媒体合作伙伴,专门为旅游行业提供品牌咨询与管理、媒体传播与推广、活动策划与实施及旅游新媒体传播等多种旅游综合服务。而通过浙报传媒自有数据团队通过提供从客源地分析、游客用户画像、交通住宿分析、消费力分析等多种大数据分析应用,为广大旅游企事业单位提供了精准推广和互联网化营销方案,实现了众多旅游目的地的深度开发和高度提升。

旅游大数据应用要突破,源数据、数据技术、行业经验缺一不可,而通过一个交易中心作为一个公共平台,把大家在这3方面的优势互补到一起,这绝对会萌生出非常大量的旅游大数据应用产品。浙江大数据交易中心也希望能够作为公共平台,帮助各行业的企业在平台上完成合规便捷的数据融通,帮助企业体验数据融通所带来的价值。 

本文转自d1net(转载)

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
47 3
|
30天前
|
分布式计算 监控 大数据
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
63 0
|
30天前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
115 0
|
30天前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
58 0
|
30天前
|
SQL 分布式计算 NoSQL
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
22 1
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
|
26天前
|
分布式计算 大数据 Linux
大数据体系知识学习(二):WordCount案例实现及错误总结
这篇文章介绍了如何使用PySpark进行WordCount操作,包括环境配置、代码实现、运行结果和遇到的错误。作者在运行过程中遇到了Py4JJavaError和JAVA_HOME未设置的问题,并通过导入findspark初始化和设置环境变量解决了这些问题。文章还讨论了groupByKey和reduceByKey的区别。
25 1
|
30天前
|
消息中间件 存储 druid
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
37 3
|
30天前
|
存储 大数据 分布式数据库
大数据-165 Apache Kylin Cube优化 案例 2 定义衍生维度及对比 & 聚合组 & RowKeys
大数据-165 Apache Kylin Cube优化 案例 2 定义衍生维度及对比 & 聚合组 & RowKeys
30 1
|
30天前
|
消息中间件 druid 大数据
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
29 2
|
30天前
|
消息中间件 分布式计算 druid
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
49 1