算法框架/工具

首页 标签 算法框架/工具
# 算法框架/工具 #
关注
10838内容
|
1天前
|
Scikit-Learn 1.8引入 Array API,支持 PyTorch 与 CuPy 张量的原生 GPU 加速
Scikit-Learn 1.8.0 首次引入实验性 Array API 支持,可直接使用 CuPy 数组或 PyTorch 张量,计算全程保留在 GPU。交叉验证等操作不再强制转回 CPU,大幅提升效率。需配置环境变量与 `set_config` 开启,目前支持部分组件如 Ridge、GaussianMixture 等,标志其迈向 GPU 加速的重要一步。
【报考指南】2026年想考AI证书,有哪些靠谱建议?
最近总被朋友问到:“想学点AI,考个证是不是靠谱?”说实话,证书本身不是魔法钥匙,但它确实能帮你梳理知识体系,有时在求职或转行时增加一点“辨识度”。如果你在规划2026年的学习计划,下面这几个不同方向的认证,或许可以帮你打开思路
构建AI智能体:六十五、模型智能训练控制:早停机制在深度学习中的应用解析
文章摘要:早停机制是深度学习中防止过拟合的关键技术,通过在验证集性能停止改善时终止训练,自动平衡模型复杂度和泛化能力。其核心价值包括自动防过拟合、提升训练效率(节省30-80%计算资源)、简化调参过程。关键参数设置涉及patience(容忍轮次)、min_delta(最小改善阈值)和restore_best_weights(恢复最佳权重)。实现流程包括训练轮次监控、验证集评估和性能改善判断,通过U型曲线分析可直观理解其工作原理。
|
5天前
|
深度解析 Google JAX 全栈:带你上手开发,从零构建神经网络
Google凭借JAX AI栈实现AI全栈垂直整合,覆盖模型、应用、云与硬件。JAX结合XLA编译器,Flax构建网络,Optax优化训练,Orbax管理 checkpoint,已在Google及Anthropic、Apple等广泛应用,助力高效大规模AI训练。
|
12天前
|
PyTorch推理扩展实战:用Ray Data轻松实现多机多卡并行
单机PyTorch推理难以应对海量数据,内存、GPU利用率、I/O成瓶颈。Ray Data提供轻量方案,仅需微调代码,即可将原有推理逻辑无缝扩展至分布式,支持自动批处理、多机并行、容错与云存储集成,大幅提升吞吐效率,轻松应对百万级图像处理。
|
13天前
|
JAX核心设计解析:函数式编程让代码更可控
JAX采用函数式编程,参数与模型分离,随机数需显式传递key,确保无隐藏状态。这使函数行为可预测,便于自动微分、编译优化与分布式训练,虽初学略显繁琐,但在科研、高精度仿真等场景下更具可控性与可复现优势。
机器学习:模型训练术语大扫盲——别再混淆Step、Epoch和Iter等
本文用通俗类比讲清机器学习核心术语:Epoch是完整训练一轮,Batch Size是每次训练的数据量,Step/Iter是每批数据处理及参数更新的最小单位。结合学习率、损失值、过拟合等概念,帮你快速掌握训练过程关键要点,打通术语任督二脉。(238字)
|
14天前
|
openEuler操作系统环境:研发人脸识别软件与系统性能评估
openEuler 24.03 LTS是首个AI原生操作系统,集成PyTorch、TensorFlow等框架,支持主流AI模型高效部署。依托容器化技术与内核级优化,实现人脸识别等场景高性能运行,结合边缘计算与软硬协同设计,显著提升AI应用开发与部署效率,助力构建开放、高效的AI生态。
|
14天前
|
openEuler操作系统环境:目标检测软件开发实操与性能评估
本文系统研究了在openEuler 22.03 LTS SP3上基于YOLOv8实现鸟类目标检测的全流程,涵盖环境搭建、模型训练、性能优化与容器化部署。实验表明,openEuler凭借内核优化与异构计算支持,在GPU加速下推理速度达142 FPS,资源占用降低18%以上,展现出卓越的AI任务处理能力。
免费试用