「技术架构」TOGAF建模之技术架构:网络计算硬件图

简介: 「技术架构」TOGAF建模之技术架构:网络计算硬件图

从从大型机到客户机-服务器系统的转换开始,后来随着电子商务和J2EE的出现,大型企业主要迁移到高度基于网络的分布式网络计算环境中,该环境具有防火墙和非军事区。目前,大多数应用程序都有web前端,看看这些应用程序的部署架构,在网络环境中通常会发现三个不同的层:web表示层、业务逻辑或应用程序层和后端数据存储层。在共享的公共基础设施环境中部署和承载应用程序是一种常见的做法。因此,记录在开发和生产环境中支持应用程序的逻辑应用程序和技术组件(例如,服务器)之间的映射变得非常关键。网络计算硬件图的目的是显示分布式网络计算环境中逻辑应用程序组件的部署逻辑视图

UML/BPMN EAP Profile


  • 服务器设备:表示一个硬件平台,它可以连接到其他设备,并在其上部署应用程序组件。
  • 工作站:工作站通过网络连接到IS。应用程序组件可以部署在那里。
  • 流程应用程序组件:流程应用程序组件负责业务流程执行。它编排流程的任务。
  • 实体应用程序组件:实体组件通常派生自业务实体,负责管理对实体的访问及其完整性。
  • 实用组件:表示经常重用的应用程序组件,大多数情况下都是现成的。
  • 交互应用程序组件:表示管理与IS外部元素交互的顶级组件。在大多数情况下,它是一个GUI组件,比如这里的web界面。
  • 数据库应用程序组件:它表示一个存储库。在纯SOA体系结构中,这些元素不应该出现。但是,对于遗留分析或技术架构,建模存储库或存储库部署可能非常有用。
  • 应用程序:此应用程序组件对应于遗留应用程序、现成产品,或者可以是应用程序组件的组装。
  • 内部参与者:属于企业的参与者
  • 两个类之间的关联:关联有一个名称,对于每个端点提供相关元素的角色名称和基数(可能出现的次数)。

Archimate


此图显示了应用程序组件部署的位置、计算机如何联网,等等。

此图展示了通过网络互连的硬件(服务器、工作站),以及部署在此硬件上的技术和应用程序组件。

技术、体系结构组件(如web服务器)被添加到应用程序体系结构中标识的逻辑组件中。

相关文章
|
8天前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
31 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
JeecgBoot架构图 ● 技术架构图 ● 系统架构图
JeecgBoot架构图 ● 技术架构图 ● 系统架构图
|
3月前
|
机器学习/深度学习 网络架构
揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷
近年来,神经网络在MLP和Transformer等模型上取得显著进展,但在处理周期性特征时存在缺陷。北京大学提出傅里叶分析网络(FAN),基于傅里叶分析建模周期性现象。FAN具有更少的参数、更好的周期性建模能力和广泛的应用范围,在符号公式表示、时间序列预测和语言建模等任务中表现出色。实验表明,FAN能更好地理解周期性特征,超越现有模型。论文链接:https://arxiv.org/pdf/2410.02675.pdf
154 68
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭示Transformer周期建模缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷
北京大学研究团队发现,Transformer等主流神经网络在周期特征建模方面存在缺陷,如记忆数据模式而非理解内在规律,导致泛化能力受限。为此,团队提出基于傅里叶分析的Fourier Analysis Network(FAN),通过显式建模周期性特征,提升模型的理解和预测能力,减少参数和计算量,并在多个实验中验证其优越性。论文链接:https://arxiv.org/pdf/2410.02675.pdf
49 3
|
3月前
|
机器学习/深度学习 数据采集 人工智能
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
层次化Softmax算法通过引入Huffman树结构,将传统Softmax的计算复杂度从线性降至对数级别,显著提升了大规模词汇表的训练效率。该算法不仅优化了计算效率,还在处理大规模离散分布问题上提供了新的思路。文章详细介绍了Huffman树的构建、节点编码、概率计算及基于Gensim的实现方法,并讨论了工程实现中的优化策略与应用实践。
101 15
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器ECS架构区别及选择参考:X86计算、ARM计算等架构介绍
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下这些架构各自的主要性能及适用场景,以便大家了解不同类型的架构有何不同,主要特点及适用场景有哪些。
310 10
|
2月前
|
存储 人工智能 运维
面向AI的服务器计算软硬件架构实践和创新
阿里云在新一代通用计算服务器设计中,针对处理器核心数迅速增长(2024年超100核)、超多核心带来的业务和硬件挑战、网络IO与CPU性能增速不匹配、服务器物理机型复杂等问题,推出了磐久F系列通用计算服务器。该系列服务器采用单路设计减少爆炸半径,优化散热支持600瓦TDP,并实现CIPU节点比例灵活配比及部件模块化可插拔设计,提升运维效率和客户响应速度。此外,还介绍了面向AI的服务器架构挑战与软硬件结合创新,包括内存墙问题、板级工程能力挑战以及AI Infra 2.0服务器的开放架构特点。最后,探讨了大模型高效推理中的显存优化和量化压缩技术,旨在降低部署成本并提高系统效率。
|
3月前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
99 4
【AI系统】计算图优化架构
|
3月前
|
机器学习/深度学习 人工智能 API
【AI系统】昇腾异构计算架构 CANN
本文介绍了昇腾 AI 异构计算架构 CANN,涵盖硬件层面的达·芬奇架构和软件层面的全栈支持,旨在提供高性能神经网络计算所需的硬件基础和软件环境。通过多层级架构,CANN 实现了高效的 AI 应用开发与性能优化,支持多种主流 AI 框架,并提供丰富的开发工具和接口,助力开发者快速构建和优化神经网络模型。
125 1
|
4月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
209 7

热门文章

最新文章