ZooKeeper【客户端的API操作、写数据流程】

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: ZooKeeper【客户端的API操作、写数据流程】

前置工作

创建Maven工程

导入依赖

<dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.13.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.18.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.zookeeper</groupId>
            <artifactId>zookeeper</artifactId>
            <version>3.5.7</version>
        </dependency>
    </dependencies>

配置log4j

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c]- %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c]- %m%n

API 操作实例

初始化方法

 @Before
    public void init() throws IOException {
        zkClient = new ZooKeeper(connectString, sessionTimeOut, new Watcher() {
            //process方法可以为空 在这里设置的监听并不是监听一次就关闭而是一直监听            
            @Override
            public void process(WatchedEvent watchedEvent) {
                System.out.println("----------init------------");
                List<String> children = null;
                try {
                    children = zkClient.getChildren("/sanguo", true);
                } catch (KeeperException | InterruptedException e) {
                    e.printStackTrace();
                }
                for (String child : children) {
                    System.out.println(child);
                }
            }
        });
    }

创建节点

create方法的参数:

  1. path:要创建的节点路径
  2. data:节点的数据
  3. acl:一个List<ACL>类型的权限集合
  4. createMode:创建的节点类型
@Test
    public void create() throws InterruptedException, KeeperException {
        //创建节点并返回节点路径/sanguo/wuguo
        String Znode = zkClient.create("/sanguo/wuguo", "liubei".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
        System.out.println("Znode : "+Znode);
    }

获取子节点并监听

       只要在init方法中新建了Watcher类并实现了process方法,就会一直监听而不是监听一次就自动关闭。

 @Test
    public void getChildren() throws InterruptedException, KeeperException {
        System.out.println("--------------------");
        /**设置watcher为true之后就会自动执行init方法中watcher的重写的process方法
        * 如果process方法为空,则这里只会监听一次就关闭监听
        **/
        List<String> children = zkClient.getChildren("/sanguo", true);
        /**这个for循环只会被执行一次 真正的监听在初始化ZooKeeper对象中重写Wather的process方法里
        *一旦监听的节点有变化,就会从process方法输出监听到的变化结果
        **/    
        for (String child : children) {
            System.out.println(child);
        }
        //延时程序 作用就是让客户端一直开启 以方便返回监听到的变化结果
        Thread.sleep(Long.MAX_VALUE);
    }

        我们发现,我们监听的是"/sanguo"但是当我们在它的孙目录"/sanguo/shuguo"下创建一个新节点时监听就不会生效,这是因为它只能监听子节点。

判断节点是否存在

@Test
    public void exits() throws InterruptedException, KeeperException {
        //返回节点状态 参数1是节点 参数2是是否开启监听
        Stat stat = zkClient.exists("/sanguo", false);
        System.out.println(stat==null?"not exist":"exit");
    }

写操作流程

       我们之前的操作都是在向zookeeper集群写数据,因为我们可以把zookeeper集群看做一个分布式小型文件系统,它存储着大量的Znode数据,只要一台服务器修改了Znode信息,我们集群中的每个节点都可以立即更新。

写数据流程通常只有两种情况:

  1. 直接发送写入请求给Leader
  2. 直接发送写入请求给Flower

1. 直接发送给Leader

  1. 客户端向Leader发送写数据请求
  2. 写入数据会首先写入领导者节点,领导者将数据同步到所有副本节点,当超过半数节点完成数据同步并回复成功消息后,写操作就算完成了,并通知客户端写入成功。(加入我们的zookeeper集群有三台节点,那么只要两台(Leader+任意一台Flower)同步完成就算写入成功)

3.之后剩余未同步的节点也会马上将数据同步,并告诉Leader自己同步完成。

2. 直接发送请求给Flower

  1. 客户端发送写入请求给Flower
  2. Flower没有写入的权限,于是将请求转发给Leader
  3. Leader收到请求,自己先写入一份,再将数据同步到所有副本节点,同样当超过半数的节点写入完成后,写操作就算完成了。
  4. 这时候Leader不会去告诉客户端写入完成,而是由向它转发请求的Flower原路返回给客户端。
  5. 同样之后剩余未同步的节点也会立即将客户端写入的数据同步,并告诉Leader自己已经同步完成。


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
26天前
|
机器学习/深度学习 搜索推荐 API
商品信息全景图:API接口在聚合商品数据中的应用
在电子商务的世界中,API接口是连接不同服务和数据的桥梁。特别是在商品信息的聚合上,API接口扮演了至关重要的角色,它允许开发者从多个来源收集、整合并展示商品信息,从而为消费者提供全面且一致的购物体验。本文将深入探讨API接口在聚合商品数据中的应用,并通过具体的代码示例来揭示其工作原理。
|
28天前
|
API
Poi 中文API文档 「40种操作 Excel文件的姿势」
Poi 中文API文档 「40种操作 Excel文件的姿势」
89 0
|
1月前
|
XML 监控 API
跨平台销售策略:通过API同步不同市场的商品数据
在数字化时代,零售商和品牌经常需要在不同的在线市场上展示和销售商品。为了保持竞争力并确保一致的客户体验,商家必须确保其商品信息在所有渠道上保持同步和准确。这种需求催生了跨平台销售策略,其中一个关键组成部分就是利用应用程序编程接口(API)来同步不同市场的商品数据。
|
2月前
|
搜索推荐 安全 API
API接口的艺术:如何巧妙获取商品数据
在数字时代,API接口已经成为连接不同软件系统、共享数据的桥梁。尤其在电商领域,商品数据的实时获取和处理对于提供个性化服务、优化用户体验至关重要。本文将深入探讨API接口的艺术,以及如何通过它们高效地获取和管理商品数据。
|
2月前
|
JSON API 数据格式
在钉钉开放平台中,创建或更新OA审批表单模板需要通过API接口进行操作
在钉钉开放平台中,创建或更新OA审批表单模板需要通过API接口进行操作【1月更文挑战第20天】【1月更文挑战第97篇】
32 1
|
9天前
|
数据采集 数据挖掘 API
主流电商平台数据采集API接口|【Python爬虫+数据分析】采集电商平台数据信息采集
随着电商平台的兴起,越来越多的人开始在网上购物。而对于电商平台来说,商品信息、价格、评论等数据是非常重要的。因此,抓取电商平台的商品信息、价格、评论等数据成为了一项非常有价值的工作。本文将介绍如何使用Python编写爬虫程序,抓取电商平台的商品信息、价格、评论等数据。 当然,如果是电商企业,跨境电商企业,ERP系统搭建,我们经常需要采集的平台多,数据量大,要求数据稳定供应,有并发需求,那就需要通过接入电商API数据采集接口,封装好的数据采集接口更方便稳定高效数据采集。
|
24天前
|
缓存 安全 API
【亿级数据专题】「高并发架构」盘点本年度探索对外服务的百万请求量的API网关设计实现
公司对外开放的OpenAPI-Server服务,作为核心内部系统与外部系统之间的重要通讯枢纽,每天处理数百万次的API调用、亿级别的消息推送以及TB/PB级别的数据同步。经过多年流量的持续增长,该服务体系依然稳固可靠,展现出强大的负载能力。
28 9
【亿级数据专题】「高并发架构」盘点本年度探索对外服务的百万请求量的API网关设计实现
|
2天前
|
监控 数据挖掘 API
商品评价聚合:利用API从多个来源获取数据的详细指南
在当今电子商务的繁荣发展下,消费者在做出购买决策前越来越依赖商品评价。这些评价不仅反映了产品的实际使用体验,也直接影响着品牌信誉和销售业绩。为了全面了解消费者的声音并优化产品,企业需要从各种销售渠道收集和分析商品评价。本文将详细介绍如何通过API集成不同数据源的商品评价。
|
25天前
|
数据采集 缓存 前端开发
API揭秘:初学者的数据提取综合指南
API揭秘:初学者的数据提取综合指南
39 1
|
1月前
|
数据采集 JSON API
集成电子商务平台:如何通过API获取实时商品数据
在当今的数字时代,电子商务(电商)平台已经成为了购物和销售商品的重要渠道。为了保持竞争力并为客户提供最佳的购物体验,电商平台需要能够实时访问和更新商品数据。这包括价格、库存水平、用户评价和其他相关信息。实现这一目标的关键之一是通过应用程序编程接口(API)集成来自各个供应商的数据。本文将探讨如何使用API来获取实时商品数据,并提供一个简单的Python代码示例来说明如何发出API请求。

相关产品

  • 云迁移中心