并行计算

首页 标签 并行计算
# 并行计算 #
关注
5221内容
|
3月前
| |
vLLM 部署 Qwen3
本文介绍了在特定环境下安装和使用 vLLM 的步骤。环境配置包括 CUDA 12.2、40GB 显存,使用 conda 进行 Python 包管理,并基于 Qwen3-8B 模型。首先通过创建 conda 环境并安装 vLLM 实现部署,接着启动 API 服务以支持对话功能。文中提供了 curl 和 Python 两种调用方式示例,方便用户测试与集成。
基于昇腾适配蛋白质序列模型ProteinMPNN
ProteinMPNN是一种基于深度学习的蛋白质序列设计模型,核心目标是解决“逆向折叠问题”(inverse folding problem),即根据给定的蛋白质三维结构,设计出能够折叠成该结构的氨基酸序列。ProteinMPNN在计算和实验测试中都有出色的性能表现,不同位置的氨基酸序列可以在单链或多链之间偶联,从而广泛的应用于当前蛋白质设计上。ProteinMPNN不仅在天然蛋白质序列恢复率上面性能要高于传统的Rosetta方法,并且可以恢复先前设计失败的蛋白质。通过前沿AI技术突破科学研究的效率瓶颈,对于蛋白质工程、药物设计、酶设计等领域有极其重要的意义。
基于昇腾适配DeepMind团队发布的蛋白质结构预测模型OpenFold
OpenFold是一种基于深度学习的蛋白质结构预测模型,广泛应用于蛋白质从头预测、功能位点解析、突变效应模拟等领域。该模型的核心目标是通过大规模预训练和多阶段优化,从氨基酸序列中高效、准确地推断蛋白质的三维结构。
|
3月前
|
MyEMS开源能源管理系统核心代码解读006
MyEMS开源能源管理系统支持建筑、工厂等场景的电、水、气数据采集与分析,提供光伏、储能等可选功能。本期解读虚拟表计算方法:通过数据库操作获取虚拟表信息,使用多进程并行处理能耗计算任务,结合SymPy解析公式,实现高效能耗数据分析。代码涵盖数据库连接、数学表达式解析及时间处理等关键技术,助力精准能源管理与优化。
OpenFold2.0 基于NPU的推理适配与测试
本教程详细介绍了 OpenFold 的环境搭建、代码部署、依赖安装、数据集准备及推理测试全流程。首先通过 Anaconda 创建 Python3.9 环境并配置相关库,接着克隆 OpenFold 代码仓库并安装必要依赖(如 PyTorch、dllogger、hhsuite 等)。随后准备 PDB 数据集与模型参数,调整脚本路径以适配运行环境。最后执行推理脚本完成测试,并针对常见报错提供了解决方案,例如更新 NumPy、SciPy 或调整 GPU 配置等,确保流程顺利运行。
|
3月前
| |
ParScale:一种全新的大模型Scaling Law
ParScale是一种新的模型扩展路线,通过并行计算增强模型能力,无需增加参数量。它引入多个并行流处理输入,动态聚合输出,显著提升性能,尤其在数学和编程任务中表现突出。相比传统方法,ParScale仅增加1/22的内存和1/6的延迟,适合边缘设备。研究还提出两阶段训练策略,降低训练成本。未来将探索更多模型架构和大数据场景下的应用潜力。
|
3月前
| |
提升长序列建模效率:Mamba+交叉注意力架构完整指南
本文探讨了Mamba架构中交叉注意力机制的集成方法,Mamba是一种基于选择性状态空间模型的新型序列建模架构,擅长处理长序列。通过引入交叉注意力,Mamba增强了多模态信息融合和条件生成能力。文章从理论基础、技术实现、性能分析及应用场景等方面,详细阐述了该混合架构的特点与前景,同时分析了其在计算效率、训练稳定性等方面的挑战,并展望了未来优化方向,如动态路由机制和多模态扩展,为高效序列建模提供了新思路。
|
3月前
|
《解锁JNA与CUDA内核密码,定制专属AI算子》
JNA(Java Native Access)让Java程序轻松调用本地代码,无需复杂JNI操作,动态加载本地库并自动映射Java与C/C++语言。结合CUDA(NVIDIA并行计算平台),可高效开发自定义AI算子。CUDA内核通过分解任务充分利用GPU多核优势,满足AI算法中矩阵运算和数据处理需求。两者结合虽面临性能优化与跨平台兼容性挑战,但能充分发挥Java便捷性与CUDA高性能,为AI领域提供强大支持。
魔搭社区模型速递(6.2-6.7)
魔搭ModelScope本期社区进展:1910个模型,183个数据集,47个创新应用,5 篇内容
面壁小钢炮MiniCPM 4.0开源,端侧推理常规提速5倍!
面壁智能重磅推出MiniCPM 4.0 ——一个极致高效的端侧大模型,通过其 CPM.cu 自研推理框架,可实现220倍极致的速度提升,5 倍常规提速。
免费试用