我懂了,原来这就是4+1架构模型!

简介: 我懂了,原来这就是4+1架构模型!

大家好,我是飘渺。今天继续带来架构师之路系列文章。

之前我们讲架构描述的时候提到过,一个有效的架构描述需要做到以人为本,不同的利益相关方展示不同的视点及视图。

那究竟需要从哪些视点入手,应该展示哪些视图?这是个问题。

于是,1995年,Philippe Kruchten 在《IEEE Software》上发表了题为 The 4+1 View Model of Architecture 的论文,引起了业界的极大关注,在这个论文中,首次提出了使用 4+1视图 来解决这个问题。


4+1 视图


“4+1视图” 从5个不同的侧面来描述架构,其中包括4个主视图和一个冗余的场景视图。4个主视图分别如下:

  • 逻辑视图(Logical View):主要是整个系统的抽象结构表述,关注系统提供最终用户的功能。
  • 进程视图(Process view):处理视图关注系统动态运行时,主要是进程以及相关的并发、同步、通信等问题。
  • 物理视图(Physical view ):定义软件到硬件的映射,反映架构的分布式特性。
  • 开发视图(Development View):定义在开发环境中软件的静态组织结构。

在进行架构设计时,架构的各个关注点够归结于以上4个视图,同时使用一个场景视图对它们进行解释和说明,就形成了第5个视图,也就是4+1架构模型中的1。

4+1模型

在设计架构时,会基于每个视图对系统进行独立分解,每种分解都是基于这个视图的关注点而进行的。基于每个视图的分解都会使用相同的方法和步骤,把系统分解成组件并维持组件间交互的关系。但是每个视图构成的组件类型各不相同,这些组件的类型源自视图分解的需求。


01 逻辑视图

用于描述系统的功能需求,即系统给用户提供哪些服务;以及描述系统软件功能拆解后的组件关系、组件约束和边界,反映系统整体组成与系统如何构建的过程。

下面springcloud微服务的逻辑视图示例(仅部分),就描述了springcloud中各个功能组件。从这个图中,基本可以对springcloud有一个大颗粒度的了解。

springcloud微服务的逻辑视图


02 物理视图

开发出的软件系统,最终是要运行在物理或软件环境上。物理环境可能是服务器、PC机、移动终端等物理设备;软件环境可以是虚拟机、容器、进程或线程。部署视图就是对这个部署信息进行描述。在UML中通常由部署图表示。

物理视图


03 进程视图

处理视图,又称过程视图、运行视图。用于描述系统软件组件之间的通信时序,数据的输入输出。在UML中通常由时序图和流程图表示,如下图所示:

进程视图


04 开发视图

开发视图关注的是架构如何指导开发流程,在这个视图中,软件系统会被分解成小的子程序或软件包,并为每个子程序或软件包定义接口。系统设计人员会根据这些分解的子程序和软件包分配工作内容。

DDD分层视图


05 场景视图

场景视图是4+1架构模型中最重要的视图,其他4个视图都是以场景视图为核心的。它用于描述系统的参与者与功能用例间的关系,反映系统的最终需求和交互设计。在UML中通常由用例图表示:

场景视图


小结


上面我们详细介绍了4+1架构模型,但是在公司实际架构活动中往往都是会自定义一套符合公司架构标准的架构设计模板,然后根据特定项目进行裁剪或补充,那我们为什么不直接使用上面提到的4+1架构模型进行架构设计呢?

个人觉得主要有三个方面的原因:

  1. 系统复杂度增加:1995年提出4+1架构模型时系统大部分还是单体系统,现在基本是分布式系统的天下。4+1模型中的核心视图场景视图无法描述清楚整体业务。
  2. 绑定UML图:4+1视图大部分绑定的是UML元素,颜值即正义,已经不符合今天的审美要求了。
  3. 理解困难:4+1视图的逻辑视图、开发视图、处理视图比较容易混淆。
目录
相关文章
|
1月前
|
机器学习/深度学习 自然语言处理 分布式计算
大规模语言模型与生成模型:技术原理、架构与应用
本文深入探讨了大规模语言模型(LLMs)和生成模型的技术原理、经典架构及应用。介绍了LLMs的关键特点,如海量数据训练、深层架构和自监督学习,以及常见模型如GPT、BERT和T5。同时,文章详细解析了生成模型的工作原理,包括自回归模型、自编码器和GANs,并讨论了这些模型在自然语言生成、机器翻译、对话系统和数据增强等领域的应用。最后,文章展望了未来的发展趋势,如模型压缩、跨模态生成和多语言多任务学习。
135 3
|
2月前
|
存储 分布式计算 API
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
109 0
|
14天前
|
机器学习/深度学习 测试技术 定位技术
新扩散模型OmniGen一统图像生成,架构还高度简化、易用
近期,一篇题为“OmniGen: Unified Image Generation”的论文介绍了一种新型扩散模型OmniGen,旨在统一图像生成任务。OmniGen架构简洁,无需额外模块即可处理多种任务,如文本到图像生成、图像编辑等。该模型通过修正流优化,展现出与现有模型相当或更优的性能,尤其在图像编辑和视觉条件生成方面表现突出。OmniGen仅含3.8亿参数,却能有效处理复杂任务,简化工作流程。尽管如此,OmniGen仍存在对文本提示敏感、文本渲染能力有限等问题,未来研究将继续优化其架构与功能。
43 16
|
1月前
|
机器学习/深度学习 自然语言处理 C++
TSMamba:基于Mamba架构的高效时间序列预测基础模型
TSMamba通过其创新的架构设计和训练策略,成功解决了传统时间序列预测模型面临的多个关键问题。
137 4
TSMamba:基于Mamba架构的高效时间序列预测基础模型
|
28天前
|
网络协议 网络架构
TCP/IP协议架构:四层模型详解
在网络通信的世界里,TCP/IP协议栈是构建现代互联网的基础。本文将深入探讨TCP/IP协议涉及的四层架构,以及每一层的关键功能和作用。
134 5
|
29天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型演进与经典架构
本文探讨了AI计算模式对AI芯片设计的重要性,通过分析经典模型结构设计与演进、模型量化与压缩等核心内容,揭示了神经网络模型的发展现状及优化方向。文章详细介绍了神经网络的基本组件、主流模型结构、以及模型量化和剪枝技术,强调了这些技术在提高模型效率、降低计算和存储需求方面的关键作用。基于此,提出了AI芯片设计应考虑支持神经网络计算逻辑、高维张量存储与计算、灵活的软件配置接口、不同bit位数的计算单元和存储格式等建议,以适应不断发展的AI技术需求。
36 5
|
2月前
|
机器学习/深度学习 网络架构 计算机视觉
目标检测笔记(一):不同模型的网络架构介绍和代码
这篇文章介绍了ShuffleNetV2网络架构及其代码实现,包括模型结构、代码细节和不同版本的模型。ShuffleNetV2是一个高效的卷积神经网络,适用于深度学习中的目标检测任务。
109 1
目标检测笔记(一):不同模型的网络架构介绍和代码
|
3月前
|
机器学习/深度学习
ACM MM24:复旦提出首个基于扩散模型的视频非限制性对抗攻击框架,主流CNN和ViT架构都防不住它
【9月更文挑战第23天】复旦大学研究团队提出了ReToMe-VA,一种基于扩散模型的视频非限制性对抗攻击框架,通过时间步长对抗性潜在优化(TALO)与递归令牌合并(ReToMe)策略,实现了高转移性且难以察觉的对抗性视频生成。TALO优化去噪步骤扰动,提升空间难以察觉性及计算效率;ReToMe则确保时间一致性,增强帧间交互。实验表明,ReToMe-VA在攻击转移性上超越现有方法,但面临计算成本高、实时应用受限及隐私安全等挑战。[论文链接](http://arxiv.org/abs/2408.05479)
86 3
|
3月前
|
机器学习/深度学习 测试技术 数据处理
KAN专家混合模型在高性能时间序列预测中的应用:RMoK模型架构探析与Python代码实验
Kolmogorov-Arnold网络(KAN)作为一种多层感知器(MLP)的替代方案,为深度学习领域带来新可能。尽管初期测试显示KAN在时间序列预测中的表现不佳,近期提出的可逆KAN混合模型(RMoK)显著提升了其性能。RMoK结合了Wav-KAN、JacobiKAN和TaylorKAN等多种专家层,通过门控网络动态选择最适合的专家层,从而灵活应对各种时间序列模式。实验结果显示,RMoK在多个数据集上表现出色,尤其是在长期预测任务中。未来研究将进一步探索RMoK在不同领域的应用潜力及其与其他先进技术的结合。
111 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)