大数据编程技术基础实验六:ZooKeeper实验——进程协作

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 大数据基础实验六,使用ZooKeeper了解并实践进程协作的操作。

一、前言

在实验开始之前,首先祝大家国庆节快乐,希望大家都能愉快的度过国庆假期,而我也就昨天休息了一天跟室友们出去吃了一顿饭,我们的国庆只有三天,真羡慕国庆七天并且还能出去玩的人,太命苦了,大学四年已过去三年一次像样的国庆都没有,只能默默的锻炼和学习安抚我的心灵。

好啦,回归正题,在前面一期实验中,我们刚学会了ZooKeeper的部署与启动,本期我们就来用ZooKeeper实战一下,学习一下ZooKeeper如何实现多个线程间的协作。

二、实验目的与要求

  1. 掌握Java代码如何连接ZooKeeper集群及通过代码读写ZooKeeper集群的目录下的数据,掌握ZooKeeper如何实现多个线程间的协作。
  2. 用Java代码实现两个线程,一个向ZooKeeper中某一目录中写入数据,另一线程监听此目录,若目录下数据有更新则将目录中数据读取并显示出来。

三、实验原理

  1. 通过ZooKeeper实现不同物理机器上的进程间通信。
  2. 场景使用:客户端A需要向客户端B发送一条消息msg1。
  3. 实现方法:客户端A把msg1发送给ZooKeeper集群,然后由客户端B自行去ZooKeeper集群读取msg1。

四、实验步骤

本实验主要完成多线程通过ZooKeeper完成彼此间的协作问题,实验过程包含启动集群、编写代码、客户端提交代码三个步骤。

1、启动ZooKeeper集群

启动ZooKeeper集群。具体步骤可以参考我前面一期博客内容:

大数据技术基础实验五:Zookeeper实验——部署ZooKeeper

2、导入jar包

我们在本地打开我们的开发工具Eclipse,然后创建我们的ZooKeeperTest项目,它是一个java项目。

image-20221002103907923.png

创建完项目之后,我们需要从服务器上ZooKeeper安装包的lib目录下,将如下jar包导入到开发工具,我们需要用到Xftp工具连接到服务器,然后直接进行拖拽到本地项目下的lib包内即可。

首先连接主机:

image-20221002104954878.png

我们需要导入的jar包有:

jline-0.9.94.jar

log4j-1.2.16.jar

netty-3.7.0.Final.jar

slf4j-api-1.6.1.jar

slf4j-log4j12-1.6.1.jar

zookeeper-3.4.6.jar

找到虚拟机内的ZooKeeper安装包的lib目录,它在/usr/cstor/zookeeper/lib,然后将lib下的这些jar包导入到我们本地的项目lib目录内:

image-20221002105233796.png

一共有六个jar包,最后一个zookeeper-3.4.6.jar它在这个目录/usr/cstor/zookeeper/lib的上一级里面:

image-20221002105608121.png

然后我们需要将这六个jar导入到我们的项目中,我们右键每一个jar包然后进行如下选择即可导入成功:

image-20221002110104609.png

3、编写java代码

然后我们创建两个java类:

image-20221002110334193.png

然后分别写入java代码。

向/testZk目录写数据线程代码实现:

publicclassWriteMsgextendsThread {
@Overridepublicvoidrun() {
try {
ZooKeeperzk=newZooKeeper("slave1:2181", 500000, null);
Stringcontent=Long.toString(newDate().getTime());
// 修改节点/testZk下的数据,第三个参数为版本,如果是-1,那会无视被修改的数据版本,直接改掉zk.setData("/testZk", content.getBytes(), -1);
// 关闭sessionzk.close();
      } catch (Exceptione) {
e.printStackTrace();
    }
  }
}

监听/testZk目录若数据改变则读取数据并显示线程代码实现:

publicclassReadMsg {
publicstaticvoidmain(String[] args) throwsException {
finalZooKeeperzk=newZooKeeper("slave1:2181", 500000, null);
//定义watch Watcherwacher=newWatcher() {
publicvoidprocess(WatchedEventevent) {
//监听到数据变化取出数据if(EventType.NodeDataChanged==event.getType()){
byte[] bb;
try {
bb=zk.getData("/testZk", null, null);
System.out.println("/testZk的数据: "+newString(bb));
         } catch (Exceptione) {
e.printStackTrace();
         }
       }
     }
   };
//设置watch zk.exists("/testZk", wacher);
//更新/testZk目录信息,触发wacthwhile(true)
   {
Thread.sleep(2000);
newWriteMsg().start();
//watch一次生效就会删除需重新设置 zk.exists("/testZk", wacher);
   }
  }
}

4、做成jar包

和之前打包类似,但这次我们需要改成可执行的jar文件:

image-20221002144042248.png

image-20221002144108676.png

打包成功之后,我们再次使用Xftp工具将打包好的jar包放到root目录下面,因为我们要在/testZk目录写数据线程,但在上一期实验中我们最后删除了这个目录,所以我们需要重新启动客户端,然后创建/testZk目录,然后退出。

这里启动客户端和创建目录我就不再演示,不会的朋友可以移步到上一期博客。

然后我们执行如下命令即可执行代码:

java -jar /root/ZooKeeperTest.jar

image-20221002144352842.png

这里我们成功打印了日志信息,打印日志信息为ZooKeeper接收线程监控到/testZk目录信息有变化时,读取该目录的内容。

但是这里一直抛出这样的错误:

2022-10-0214:34:08,511 ERROR [org.apache.zookeeper.ClientCnxn] - Error while calling watcher
java.lang.NullPointerException
        at org.apache.zookeeper.ClientCnxn$EventThread.processEvent(ClientCnxn.java:522)
        at org.apache.zookeeper.ClientCnxn$EventThread.run(ClientCnxn.java:498)

根据我上网查询过后,目前还是没有解决这个异常,我也不太懂这个是什么原因,如果有知道的大佬可以告诉我一下,谢谢,我也准备问一下我们的老师,看他是怎么解决的,如果解决了后续我再将解决办法加进来。

五、最后我想说

本期ZooKeeper实验就到这里结束了,马上我们将开始HBase的实验了,还请大家敬请关注,谢谢!

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
北天
+关注
目录
打赏
0
0
0
0
300
分享
相关文章
大数据-83 Spark 集群 RDD编程简介 RDD特点 Spark编程模型介绍
大数据-83 Spark 集群 RDD编程简介 RDD特点 Spark编程模型介绍
79 4
嵌入式Linux系统编程 — 5.3 times、clock函数获取进程时间
在嵌入式Linux系统编程中,`times`和 `clock`函数是获取进程时间的两个重要工具。`times`函数提供了更详细的进程和子进程时间信息,而 `clock`函数则提供了更简单的处理器时间获取方法。根据具体需求选择合适的函数,可以更有效地进行性能分析和资源管理。通过本文的介绍,希望能帮助您更好地理解和使用这两个函数,提高嵌入式系统编程的效率和效果。
155 13
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
147 2
为什么局域网协作工具是大数据时代的必需品?
本文深入解析了局域网文档协同编辑的技术原理与优势,涵盖分布式系统架构、实时同步技术、操作变换及冲突自由的副本数据类型等核心概念。同时,探讨了其在信息安全要求高的组织、远程与现场混合团队、教育与科研团队等场景的应用,以及国内外技术方案对比和市场未来趋势。
大数据-89 Spark 集群 RDD 编程-高阶 编写代码、RDD依赖关系、RDD持久化/缓存
大数据-89 Spark 集群 RDD 编程-高阶 编写代码、RDD依赖关系、RDD持久化/缓存
82 4
大数据-92 Spark 集群 SparkRDD 原理 Standalone详解 ShuffleV1V2详解 RDD编程优化
大数据-92 Spark 集群 SparkRDD 原理 Standalone详解 ShuffleV1V2详解 RDD编程优化
68 0
大数据-92 Spark 集群 SparkRDD 原理 Standalone详解 ShuffleV1V2详解 RDD编程优化
大数据-91 Spark 集群 RDD 编程-高阶 RDD广播变量 RDD累加器 Spark程序优化
大数据-91 Spark 集群 RDD 编程-高阶 RDD广播变量 RDD累加器 Spark程序优化
83 0
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
114 0
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
92 0
揭秘Python IPC:进程间的秘密对话,让你的系统编程更上一层楼
【9月更文挑战第8天】在系统编程中,进程间通信(IPC)是实现多进程协作的关键技术。IPC机制如管道、队列、共享内存和套接字,使进程能在独立内存空间中共享信息,提升系统并发性和灵活性。Python提供了丰富的IPC工具,如`multiprocessing.Pipe()`和`multiprocessing.Queue()`,简化了进程间通信的实现。本文将从理论到实践,详细介绍各种IPC机制的特点和应用场景,帮助开发者构建高效、可靠的多进程应用。掌握Python IPC,让系统编程更加得心应手。
66 4