01.【微服务架构】服务注册与发现:AP和CP,你选哪个?-- 面试准备+基本模型

简介: 【5月更文挑战第2天】面试准备应涵盖公司所使用的注册中心类型及其优缺点,了解其集群规模、QPS和机器性能。准备故障排查及优化案例。若公司未采用微服务,可熟悉ZooKeeper、Nacos或etcd的基本特性以讨论注册中心概念。面试时,可将话题引导至服务注册与发现,如被问及特定中间件,阐述为何选择它并讨论优缺点。当涉及微服务高可用性时,可强调服务注册与发现的作用。基础模型部分,需解释服务上线和下线流程,提及注册数据和分组功能,并举例说明。最后,简述服务注册与发现的高可用挑战。

面试准备

在面试前,如果你们公司确实使用了注册中心,那么你要弄清楚一些数据和信息。

  • 你们用了什么中间件作为注册中心以及该中间件的优缺点。确保自己在回答“你为什么用某个中间件作为注册中心”的时候,能够综合这些优缺点来回答。

  • 注册中心的集群规模

  • 读写QPS 每秒查询率

  • 机器性能 如CPU和内存大小

  • 最好准备一个注册中心出故障之后你排查和后续优化的案例。在讨论使用注册中心的注意事项,或者遇到过什么BUG的时候可以用这个案例。

如果你所在的公司没有采用微服务架构,那么你可以在ZooKeeper、Nacos或者etcd里面选择一个大概学习一下他们的基本特性。在面试的时候你可以用它们来解释注册中心。这样就算没接触过服务注册与发现,但是你也对此是有相当深入的理解的。

在面试过程中,你可以尝试从这些角度把话题引到服务注册与发现这个主题上。

第一种情况,面试官问到了某一个可以作为注册中心的中间件。举例来说,如果你可以用ZooKeeper作为注册中心,那么如果面试官问到了ZooKeeper,你可以主动提起你把他作为注册中心;如果面试官问了etcd,那么你可以主动提起etcd虽好,但是你用的是ZooKeeper。这个时候面试官可能继续追问你,为什么最终选择ZK作为注册中心,这个时候说一下它的优缺点就好了。

还有一种情况,面试官问了你微服务高可用的问题,你可以把高可用的服务注册与发现作为保证整个微服务架构高可用的一个环节来叙述。

基本模型

一般而言,在最开始的阶段,面试官会问你“你知道服务注册与发现吗?”或者“你知道注册中心吗?”等问题。其实是希望你回答服务注册与发现的基本模型。

那么你可以回答前置知识里服务上线和服务下线这两个流程的具体步骤,然后可以简单描述下你所在公司的注册中心,也可以罗列下你准备的那些数据和内容。基本内容说完以后,你可以先浅刷一个亮点,关键词是注册数据

在说第一个步骤的时候,我提到“主要是定位信息”。既然用到了“主要”,那自然有不那么主要的数据。非主要数据取决于微服务框架的功能特性,例如常见的分组功能,就是依赖于服务端在注册的时候同时注册自己的分组信息。

所以你可以用一个例子来解释,关键词是分组

服务端注册的数据除了定位信息是必需的以外,剩下需要什么数据都是根据微服务框架本身的功能和业务来设计的。比如很多微服务框架支持分组功能,那么就可以让服务端在注册的时候同时注册自己的分组信息,比如当前节点是VIP节点,那么客户端在收到VIP请求之后就会把请求发给VIP节点。

这一段说完之后,你要稍微总结一下,引导面试官追问下去。

服务注册与发现的整个模型比较简单,不过要在实践中做到高可用还是很不容易的。

至于为什么不容易、怎么不容易你就等着面试官继续问。而高可用就是我们要刷的亮点。

目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能 监控
大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案
大型动作模型(LAMs)作为人工智能新架构,融合神经网络与符号逻辑,实现企业重复任务的自动化处理。通过神经符号集成、动作执行管道、模式学习、任务分解等核心技术,系统可高效解析用户意图并执行复杂操作,显著提升企业运营效率并降低人工成本。其自适应学习能力与上下文感知机制,使自动化流程更智能、灵活,为企业数字化转型提供坚实支撑。
383 0
大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案
|
6月前
|
存储 BI Shell
Doris基础-架构、数据模型、数据划分
Apache Doris 是一款高性能、实时分析型数据库,基于MPP架构,支持高并发查询与复杂分析。其前身是百度的Palo项目,现为Apache顶级项目。Doris适用于报表分析、数据仓库构建、日志检索等场景,具备存算一体与存算分离两种架构,灵活适应不同业务需求。它提供主键、明细和聚合三种数据模型,便于高效处理更新、存储与统计汇总操作,广泛应用于大数据分析领域。
645 2
|
8月前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
639 4
|
9月前
|
机器学习/深度学习 人工智能 文件存储
Llama Nemotron:英伟达开源基于Llama架构优化的推理模型,253B参数持平DeepSeek R1!
NVIDIA推出的Llama Nemotron系列推理模型,基于Llama架构优化,包含Nano/Super/Ultra三款,在数学推理、编程和工具调用等任务中展现卓越性能。
347 5
Llama Nemotron:英伟达开源基于Llama架构优化的推理模型,253B参数持平DeepSeek R1!
|
4月前
|
数据采集 机器学习/深度学习 搜索推荐
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
215 3
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
|
8月前
|
人工智能 缓存 自然语言处理
Bolt DIY架构揭秘:从模型初始化到响应生成的技术之旅
在使用Bolt DIY或类似的AI对话应用时,你是否曾好奇过从输入提示词到获得回答的整个过程是如何运作的?当你点击发送按钮那一刻,背后究竟发生了什么?本文将揭开这一过程的神秘面纱,深入浅出地解析AI对话系统的核心技术架构。
|
9月前
|
人工智能 算法 网络安全
基于PAI+专属网关+私网连接:构建全链路Deepseek云上私有化部署与模型调用架构
本文介绍了阿里云通过PAI+专属网关+私网连接方案,帮助企业实现DeepSeek-R1模型的私有化部署。方案解决了算力成本高、资源紧张、部署复杂和数据安全等问题,支持全链路零公网暴露及全球低延迟算力网络,最终实现技术可控、成本优化与安全可靠的AI部署路径,满足企业全球化业务需求。
|
3月前
|
机器学习/深度学习 存储 缓存
115_LLM基础模型架构设计:从Transformer到稀疏注意力
大型语言模型(LLM)的架构设计是其性能的核心决定因素。从2017年Transformer架构的提出,到如今的稀疏注意力和混合专家模型,LLM架构经历了快速的演进。本文将全面探讨LLM基础架构的设计原理,深入分析Transformer的核心机制,详细介绍稀疏注意力、MoE等创新架构,并展望未来架构发展方向。通过数学推导和实践案例,为构建高效、强大的LLM提供全面指导。
|
3月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
|
5月前
|
编解码 文字识别 自然语言处理
Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22
Dots.ocr 是一款仅1.7B参数的视觉语言模型,正在重塑文档处理技术。它将布局检测、文本识别、阅读顺序理解和数学公式解析等任务统一于单一架构,突破传统OCR多模块流水线的限制。在多项基准测试中,其表现超越大参数模型,展现出“小而精”的实用价值,标志着OCR技术向高效、统一、灵活方向演进。
663 0
Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22