并行计算

首页 标签 并行计算
# 并行计算 #
关注
5291内容
|
14小时前
| |
来自: 数据库
代码示例说明如何通过线程池实现有返回值的多线程编程
通过Callable和Future结合线程池,实现有返回值的多线程编程。Callable定义带返回值的任务,submit提交后返回Future对象,调用get()可获取结果并处理异常。支持单任务与多任务并发,适用于数据并行计算等场景,提升执行效率。
亚洲唯一,阿里云无影跃居Gartner® DaaS魔力象限挑战者
Gartner发布了2025年《DaaS魔力象限》(Magic Quadrant™ for Desktop as a Service)报告,阿里云连续三年入选并首次跻身至“挑战者”象限,凭借旗下无影云电脑在球合规运营能力、自主技术栈优势和持续创新的场景化解决方案等优势,尤其在亚太、欧洲及南美等新兴市场获得广泛认可。
|
1天前
|
基于有限体积法(FVM)的MATLAB流体力学求解程序
基于有限体积法(FVM)的MATLAB流体力学求解程序
|
2天前
|
阿里云技术加持!钉钉AI表格突破1000万热行
钉钉AI表格突破单表1000万热行,首创存算一体架构,助力企业高效应对双11数据洪峰。已应用于德香苑、森马等品牌,实现海量数据秒级响应,告别“人工分表”,提升运营效率与决策精准度。
Transformer参数规模深度解析:从模型聪明说到实际影响
Transformer参数规模显著影响模型能力,参数越多,知识容量与模式识别能力越强,但存在边际效应和过拟合风险。现代大模型通过混合专家、量化压缩等技术提升参数效率,未来趋势是优化参数使用而非盲目扩大规模,实现性能与效率的平衡。(238字)
Transformer的核心:自注意力机制
自注意力机制是Transformer的核心,让序列中每个元素直接关联所有其他元素,实现全局信息交互。相比RNN的顺序处理和CNN的局部感知,它能并行计算、捕捉长距离依赖,并提供可解释的权重分布,彻底改变了序列建模方式,成为大模型崛起的关键基石。(239字)
|
4天前
|
TensorRT 和 ONNX Runtime 推理优化实战:10 个降低延迟的工程技巧
模型性能优化关键在于细节:固定输入形状、预热、I/O绑定、精度量化、图优化与CUDA Graph等小技巧,无需重构代码即可显著降低延迟。结合ONNX Runtime与TensorRT最佳实践,每个环节节省几毫秒,累积提升用户体验。生产环境实测有效,低延迟从此有据可依。
解决方案体验 | 基于 GPU 云服务器微调 Qwen3 模型
本方案通过模型蒸馏,利用大模型生成标注数据,微调Qwen3-0.6B小模型,实现高效、低成本的结构化信息抽取。结合ms-swift与vLLM框架,仅需一行命令完成训练与部署,准确率从14%提升至98%,显著提升推理速度与性价比,适用于物流填单等实际场景。
为什么 OpenSearch 向量检索能提速 13 倍?
本文介绍在最新的 OpenSearch 实践中,引入 GPU 并行计算能力 与 NN-Descent 索引构建算法,成功将亿级数据规模下的向量索引构建速度提升至原来的 13 倍。
免费试用