学习报告:冬季实战营第五期

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 在《冬季实战营第五期:轻松入门学习大数据》的学习报告

冬季实战营第五期:轻松入门学习大数据

基于EMR离线数据分析

实际操作,请确保已登录

上传数据到HDFS

本步骤将指导您如何将自建数据上传到HDFS

  1. 执行如下命令,创建HDFS目录

    说明:在LX终端中,粘贴快捷键为SHIFT+CTRL+V

    hdfs dfs -mkdir -p /data/student
    
  2. 上传文件到hadoop文件系统

    • 执行如下命令,创建u.txt文件

      #创建u.txt文件
      vim u.txt
      
    • 按 "i" 键进入编辑模式,通过粘贴快捷键(SHIFT+CTRL+V)将下方内容复制到文件中,按"Esc"返回命令模式,输入":wq"保存

      说明:第一列表示userid,第二列表示movieid,第三列表示rating,第四列表示unixtime。

      196  242  3  881250949
      186  302  3  891717742
      22  377  1  878887116
      244  51  2  880606923
      166  346  1  886397596
      298  474  4  884182806
      115  265  2  881171488
      253  465  5  891628467
      305  451  3  886324817
      6  86  3  883603013
      62  257  2  879372434
      286  1014  5  879781125
      200  222  5  876042340
      210  40  3  891035994
      224  29  3  888104457
      303  785  3  879485318
      122  387  5  879270459
      194  274  2  879539794
      291  1042  4  874834944
      234  1184  2  892079237
      119  392  4  886176814
      167  486  4  892738452
      299  144  4  877881320
      291  118  2  874833878
      308  1  4  887736532
      95  546  2  879196566
      38  95  5  892430094
      102  768  2  883748450
      63  277  4  875747401
      160  234  5  876861185
      50  246  3  877052329
      301  98  4  882075827
      225  193  4  879539727
      290  88  4  880731963
      97  194  3  884238860
      157  274  4  886890835
      181  1081  1  878962623
      278  603  5  891295330
      276  796  1  874791932
      7  32  4  891350932
      10  16  4  877888877
      284  304  4  885329322
      201  979  2  884114233
      276  564  3  874791805
      287  327  5  875333916
      246  201  5  884921594
      242  1137  5  879741196
      249  241  5  879641194
      99  4  5  886519097
      178  332  3  882823437
      251  100  4  886271884
      81  432  2  876535131
      260  322  4  890618898
      25  181  5  885853415
      59  196  5  888205088
      72  679  2  880037164
      87  384  4  879877127
      290  143  5  880474293
      42  423  5  881107687
      292  515  4  881103977
      115  20  3  881171009
      20  288  1  879667584
      201  219  4  884112673
      13  526  3  882141053
      246  919  4  884920949
      138  26  5  879024232
      167  232  1  892738341
      60  427  5  883326620
      57  304  5  883698581
      223  274  4  891550094
      189  512  4  893277702
      243  15  3  879987440
      92  1049  1  890251826
      246  416  3  884923047
      194  165  4  879546723
      241  690  2  887249482
      178  248  4  882823954
      254  1444  3  886475558
      293  5  3  888906576
      127  229  5  884364867
      225  237  5  879539643
      299  229  3  878192429
      225  480  5  879540748
      276  54  3  874791025
      291  144  5  874835091
      222  366  4  878183381
      267  518  5  878971773
      42  403  3  881108684
      11  111  4  891903862
      95  625  4  888954412
      8  338  4  879361873
      162  25  4  877635573
      87  1016  4  879876194
      279  154  5  875296291
      145  275  2  885557505
      119  1153  5  874781198
      62  498  4  879373848
      62  382  3  879375537
      28  209  4  881961214
      135  23  4  879857765
      32  294  3  883709863
      90  382  5  891383835
      286  208  4  877531942
      293  685  3  888905170
      216  144  4  880234639
      166  328  5  886397722
    • 上传文件u.txt到hadoop文件系统

      hdfs dfs -put u.txt /data/student
      
  3. 查看文件

    hdfs dfs -ls /data/student
    

使用hive创建表

本步骤将指导您如何使用hive创建数据表,并使用hadoop文件系统中的数据加载到hive数据表中

  1. 执行如下命令,登录hive数据库

    hive
    
  2. 创建user表

    CREATE TABLE emrusers (
       userid INT,
       movieid INT,
       rating INT,
       unixtime STRING ) 
      ROW FORMAT DELIMITED 
      FIELDS TERMINATED BY '\t' 
      ;
  3. 执行如下命令,从hadoop文件系统加载数据到hive数据表

    LOAD DATA INPATH '/data/student/u.txt' INTO TABLE emrusers;

对表进行操作

本步骤将指导您如何使用hive对数据表进行查询等操作

  1. 查看5行表数据

    select * from emrusers limit 5;
  2. 查询数据表中有多少条数据。

    select count(*) from emrusers;

返回结果中您可以看到您数据表中一共有多少数据

  1. 查询数据表中评级最高的三个电影

    select movieid,sum(rating) as rat from emrusers group by movieid order by rat desc limit 3;

返回结果中您可以看到您数据表中评级最高的三个电影

使用阿里云Elasticsearch快速搭建智能运维系统

登录集群

在右侧远程桌面中打开浏览器,复制左侧云产品资源中提供的阿里云子用户名称和密码登录控制台

复制如下阿里云Elasticsearch控制台地址至浏览器地址栏,登录Elasticsearch控制台

说明:您可以在云产品资源列表查看已创建的资源信息,例如:IP地址、用户名、密码和资源所在地域等

https://elasticsearch-cn-hangzhou.console.aliyun.com

说明:

本次实验已开通阿里云Elasticsearh6.8版本,仅做本次场景体验使用,如需作为测试环境或生产环境使用,可选择其他更高版本

登录Kibana,开启自动创建索引功能

  • 在右侧概览页面Elasticsearch区域中,单击集群管理
  • 在Elasticsearch实例列表中,单击实例ID
  • 在左侧导航栏,选择配置与管理 > 可视化控制
  • 在Kibana区域中,单击修改配置
  • 开启Kibana私网访问,此变更过程需等待3-5分钟
  • 返回上级页面,在Kibana区域中,单击公网入口
  • 复制左侧云产品资源列表下的Elasticsearch登录名和Elasticsearch登录密码,至Kibana登录页面的账号和密码,单击登录
  • 在登录成功页面,单击Explore on my own

    结果

  • 在左侧导航栏,单击Dev Tools(开发工具),再单击Go to work
  • 在Console页签下,执行如下命令,开启阿里云ES实例的自动创建索引功能

    PUT _cluster/settings
    {
    "persistent": {
    "action.auto_create_index": "true" 
    }
    }

    结果

使用Metricbeat采集ECS上的系统数据

  • 返回阿里云Elasticsearch管理控制台,单击Beats数据采集 > 创建采集器
  • 在创建采集器窗口中,单击Metricbeat
  • 在系统弹出的确定服务授权对话框,单击确认,授权创建服务关联角色
  • 在采集器配置向导中,输入或选择采集器信息,复制左侧云产品资源列表下的Elasticsearch登录名Elasticsearch登录密码,至用户名密码

metricbeat.yml 中末尾添加如下脚本,单击下一步

metricbeat.modules:
- module: system
  metricsets:
    - cpu             
    - load            
    - memory         
    - network        
    - process         
    - process_summary 
    - uptime          
    - socket_summary  
    - core
    - diskio 
    - filesystem
    - fsstat
  enabled: true
  period: 10s
  processes: ['.*']
  cpu.metrics:  ["percentages"]
  core.metrics: ["percentages"]
  • 选择采集器安装的ECS实例

    结果

  • 启动采集器并查看采集器安装情况,此生效过程需等待3~5分钟

    • 单击启动,启动成功后,系统弹出启动成功对话框
    • 单击前往采集中心查看,在采集器管理区域中,查看启动成功的Metricbeat采集器,等待采集器状态变为已生效1/1
  • 返回Kibana页面,在左侧导航栏,单击Dev Tools【开发工具】
  • Console页签下,执行如下命令,查看索引

    GET _cat/indices?v
    

    索引创建成功后,结果如下

    结果

  • 左侧导航栏,单击Dashboard,搜索 [Metricbeat System] Overview
  • 单击进入 [Metricbeat System] Overview 页面,再单击 Host Overview,可查看监控仪表板

使用Filebeat采集ECS上的Nginx服务数据

  • 返回阿里云Elasticsearch管理控制台 > Beats数据采集中心
  • 在创建采集器区域,将鼠标移至Filebeat上,单击ECS日志
  • 在采集器配置向导中,输入或选择采集器信息,完成后,单击下一步

    填写Filebeat文件目录处,填写如下路径:

    /var/log/nginx/
    

    结果

  • filebeat.yml 中更改如下脚本

    • 第24行enabled更改为 true
    • 第28行更改paths

      - /var/log/nginx/*.log
  • 单击下一步,选择采集器安装的ECS实例
  • 启动采集器并查看采集器安装情况,此生效过程需等待3~5分钟

    • 单击启动。启动成功后,系统弹出启动成功对话框
    • 单击前往采集中心查看,在采集器管理区域中,查看启动成功的Filebeat采集器,等待采集器状态变为已生效1/1
  • 返回Kibana页面,在左侧导航栏,单击Dev Tools(开发工具)

    Console页签下,执行如下命令,查看索引

    GET _cat/indices?v
    

    索引创建成功后,结果如下

    结果

  • 在左侧导航栏,单击Discover,点击选择filebeat,可查看采集的数据详情

    结果

推荐系统入门之使用协同过滤实现商品推荐

创建PAI Studio项目

  1. 在控制台左侧导航栏,单击可视化建模(Studio)
  2. 在PAI Studio页面单击创建项目
  3. 在右侧弹出的创建项目页面,MaxCompute选择按量付费,填入项目名称,然后单击确定

    PAI Studio底层计算依赖MaxCompute,如果您未开通过当前区域的MaxCompute,请按照页面提示去购买

    • 单击购买
    • 选择步骤一开通的机器学习PAI服务所在区域,例如华东2(上海),然后单击立即购买。
    • 仔细阅读《大数据计算服务MaxCompute(按量计算)服务协议》后,勾选我已阅读并同意,最后单击立即开通。
    • 开通成功后返回PAI Studio控制台页面,再次单击创建项目,在创建项目页面选择MaxCompute付费方式为按量付费,然后填入项目名称,最后单击确认。
  4. 项目创建需要1分钟左右进行初始化,等待项目操作列出现进入机器学习,表示项目创建完成。

    结果

创建实验

  1. 单击左侧导航栏的首页

    结果

  2. 在模板列表找到【推荐算法】商品推荐,然后单击从模板创建

    结果

  3. 在弹出的新建实验框,单击确定

    结果

查看实验数据

  1. 右键单击cf_训练_data节点,然后单击查看数据
  2. 右键单击cf_结果_data,然后单击查看数据

运行实验

  1. 单击左上角运行

    结果

  2. 请耐心等到3~5分钟,实验运行完成如下所示

    结果

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
SQL 分布式计算 运维
冬季实战营第五期学习报告
冬季实战营第五期学习报告
|
SQL Web App开发 弹性计算
学习报告:冬季实战营第三期
在《冬季实战营第三期:MySQL数据库进阶实战》的学习报告
258 0
学习报告:冬季实战营第三期
|
SQL 弹性计算 运维
冬季实战营第三期学习报告
通过本期学期,掌握了MySQL及RDS MySQL基本操作
149 2
|
Web App开发 弹性计算 Kubernetes
学习报告:冬季实战营第四期
在《冬季实战营第四期:零基础容器技术实战》的学习报告
185 0
学习报告:冬季实战营第四期
|
Linux 程序员 Shell
冬季实战营第二期学习报告
针对第二期的Linux操作系统实战入门,通过动手实操的体验写出感受。时间真快,从1月24日到1月28日,参与了五天不同内容的动手实战,从中发现虽然在大学里学过这门课,但是好像没有这期收获很多没有学过的知识点,每一天都在涨知识,不得不感叹,学无止境,感觉真妙,可见大学里学的东西比较浅,还需要自学其它很多新知识点,感谢第二期Linux操作系统实战入门的体验,再接再厉~ 让我们一起向未来。
153 0
冬季实战营第二期学习报告
|
Kubernetes 监控 Docker
冬季实战营第四期学习报告
通过本期学期,掌握了容器的基本技术
95 0
|
3天前
|
SQL 人工智能 安全
【灵码助力安全1】——利用通义灵码辅助快速代码审计的最佳实践
本文介绍了作者在数据安全比赛中遇到的一个开源框架的代码审计过程。作者使用了多种工具,特别是“通义灵码”,帮助发现了多个高危漏洞,包括路径遍历、文件上传、目录删除、SQL注入和XSS漏洞。文章详细描述了如何利用这些工具进行漏洞定位和验证,并分享了使用“通义灵码”的心得和体验。最后,作者总结了AI在代码审计中的优势和不足,并展望了未来的发展方向。
|
11天前
|
编解码 Java 程序员
写代码还有专业的编程显示器?
写代码已经十个年头了, 一直都是习惯直接用一台Mac电脑写代码 偶尔接一个显示器, 但是可能因为公司配的显示器不怎么样, 还要接转接头 搞得桌面杂乱无章,分辨率也低,感觉屏幕还是Mac自带的看着舒服
|
18天前
|
存储 人工智能 缓存
AI助理直击要害,从繁复中提炼精华——使用CDN加速访问OSS存储的图片
本案例介绍如何利用AI助理快速实现OSS存储的图片接入CDN,以加速图片访问。通过AI助理提炼关键操作步骤,避免在复杂文档中寻找解决方案。主要步骤包括开通CDN、添加加速域名、配置CNAME等。实测显示,接入CDN后图片加载时间显著缩短,验证了加速效果。此方法大幅提高了操作效率,降低了学习成本。
2770 8
|
13天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1576 12