PyTorch

首页 标签 PyTorch
# PyTorch #
关注
4942内容
构建AI智能体:九十四、Hugging Face 与 Transformers 完全指南:解锁现代 NLP 的强大力量
Hugging Face 是领先的自然语言处理开源平台,提供 Transformers 等核心库,支持数千种预训练模型,涵盖文本分类、生成、问答等任务。其 Pipeline 工具简化了模型调用,AutoClass 实现架构自动识别,助力开发者高效构建 AI 应用。
|
1天前
|
PyTorch Docker 容器化部署与生产运行实践
本文详细介绍PyTorch的Docker容器化部署方案,涵盖环境准备、镜像拉取、测试与生产环境分级部署、功能验证及优化建议。强调版本固定、非root运行、资源限制与健康检查,结合轩辕镜像加速,确保安全、稳定、高效的深度学习开发与生产环境。
GLM-4V-9B 视觉多模态模型本地部署教程【保姆级教程】
本教程详细介绍如何在Linux服务器上本地部署智谱AI的GLM-4V-9B视觉多模态模型,涵盖环境配置、模型下载、推理代码及4-bit量化、vLLM加速等优化方案,助力高效实现图文理解与私有化应用。
|
7天前
|
神经辐射场NeRF入门:3D视图合成的原理与PyTorch代码实现
NeRF(神经辐射场)用多层感知机将5D坐标(位置+视角)映射为颜色和密度,通过过拟合单个场景实现高质量新视角合成。结合位置编码与体积渲染,以隐式方式表征三维场景,仅需少量图像即可重建精细结构。
|
8天前
|
Mosaic:面向超长序列的多GPU注意力分片方案
本文剖析Transformer中“二次方注意力瓶颈”的成因与工程破解之道,聚焦Mosaic提出的多轴注意力分片方案。针对长序列内存爆炸问题,Mosaic通过灵活路由不同轴至本地或分布式后端(如Ring、Mesh2D),实现高效计算与通信平衡,尤其适用于表格等多维数据场景,显著降低显存占用且不侵入模型代码。
|
16天前
|
大模型在云上的训练与部署
本文系统阐述大模型在云上的训练与部署实践路径,涵盖发展趋势、GPU集群搭建、框架选型、数据处理、分布式训练、模型部署、成本优化及金融行业应用案例,全面解析云计算如何支撑大模型高效落地,并展望“大模型即服务”(MaaS)的未来生态。
实用程序:无需付费软件!自制音视频转字幕工具,复制代码直接运行
一款基于Whisper模型的音视频转字幕工具,支持多格式文件,提供可视化界面与实时进度反馈,可自动识别语音并生成简体SRT字幕,操作简单,开源免费,显著提升字幕制作效率。
|
19天前
|
08_昇腾推荐系统加速算子:FBGEMM算子库
FBGEMM算子库适配昇腾平台,支持Torchrec模型在DCNV2和GR等推荐模型中的高效运行。已完成JaggedToPaddedDense、DenseToJagged、HstuDenseForward/Backward等核心算子的移植与优化,并引入自定义算子提升生成式推荐性能,助力推荐系统训练加速。
免费试用