Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区1019

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1485篇文章
343条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2025年09月

  • 09.22 19:48:36
    发表了文章 2025-09-22 19:48:36

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

    嵌入是RAG系统的核心,直接影响检索质量。本文详解嵌入原理,解析稠密/稀疏、长上下文、多向量等类型,梳理选型关键:领域匹配、上下文长度、维度与成本,并结合MTEB基准给出实用建议,助你为业务挑选高效稳健的嵌入方案。
  • 09.21 19:56:34
    发表了文章 2025-09-21 19:56:34

    从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南

    推理型大语言模型兴起,通过先思考再作答提升性能。本文介绍GRPO等强化学习算法,详解其原理并动手用Qwen2.5-3B训练推理模型,展示训练前后效果对比,揭示思维链生成的实现路径。
  • 09.20 20:39:47
    发表了文章 2025-09-20 20:39:47

    MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构

    MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
  • 09.19 20:28:22
    发表了文章 2025-09-19 20:28:22

    SAPO去中心化训练:多节点协作让LLM训练效率提升94%

    SAPO(Swarm Sampling Policy Optimization)提出去中心化异步强化学习框架,通过节点间共享rollouts提升大模型后训练效率。实验显示,在数千节点上可实现94%回报提升,尤其助力中等规模模型突破性能瓶颈。
  • 09.18 20:58:46
    发表了文章 2025-09-18 20:58:46

    为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南

    面对真实数据不知该用哪种分布?本文精炼总结8个实战必备概率分布,涵盖使用场景、避坑指南与代码实现。从二元事件到计数、等待时间、概率建模,再到小样本处理,教你快速选择并验证合适分布,用对模型显著提升分析准确性。
  • 09.17 20:46:43
    发表了文章 2025-09-17 20:46:43

    AI智能体开发实战:从提示工程转向上下文工程的完整指南

    曾被热捧的提示工程正逐渐退潮,本文揭示其局限性,并提出“上下文工程”新范式:通过结构化提示、精准上下文管理、工具调用与统一状态,构建可扩展、可恢复、生产级的智能体工作流,推动AI系统迈向工程化与可控化。
  • 09.16 21:37:47
    发表了文章 2025-09-16 21:37:47

    用Context Offloading解决AI Agent上下文污染,提升推理准确性

    上下文工程是将AI所需信息(如指令、数据、工具等)动态整合到模型输入中,以提升其表现。本文探讨了“上下文污染”问题,并提出“上下文卸载”策略,通过LangGraph实现,有效缓解长文本处理中的信息干扰与模型幻觉,提升AI代理的决策准确性与稳定性。
  • 09.15 18:24:46
    发表了文章 2025-09-15 18:24:46

    从零搭建RAG应用:跳过LangChain,掌握文本分块、向量检索、指代消解等核心技术实现

    本文详解如何从零搭建RAG(检索增强生成)应用,跳过LangChain等框架,深入掌握文本解析、分块、向量检索、对话记忆、指代消解等核心技术,提升系统可控性与优化能力。
  • 09.14 20:34:01
    发表了文章 2025-09-14 20:34:01

    机器人逆运动学进阶:李代数、矩阵指数与旋转流形计算

    本文深入讲解机器人逆运动学中旋转计算的核心数学工具,包括矩阵指数与对数、SO(3)李群与李代数、流形和切空间等概念,帮助理解三维旋转误差计算原理,并提供基于矩阵指数的精确旋转更新方法及代码实现。
  • 09.13 20:37:14
    发表了文章 2025-09-13 20:37:14

    Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节

    Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
  • 09.12 20:39:55
    发表了文章 2025-09-12 20:39:55

    AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性

    本文介绍了五种AI Agent结构化工作流模式,帮助解决传统提示词方式在生产环境中输出不稳定、质量不可控的问题。通过串行链式处理、智能路由、并行处理、编排器-工作器架构和评估器-优化器循环,可提升任务执行效率、资源利用和输出质量,适用于复杂、高要求的AI应用。
  • 09.11 20:55:52
    发表了文章 2025-09-11 20:55:52

    解决推理能力瓶颈,用因果推理提升LLM智能决策

    从ChatGPT到AI智能体,标志着AI从对话走向自主执行复杂任务的能力跃迁。AI智能体可完成销售、旅行规划、外卖点餐等多场景任务,但其发展受限于大语言模型(LLM)的推理能力。LLM依赖统计相关性,缺乏对因果关系的理解,导致在非确定性任务中表现不佳。结合因果推理与内省机制,有望突破当前AI智能体的推理瓶颈,提升其决策准确性与自主性。
  • 09.10 20:27:20
    发表了文章 2025-09-10 20:27:20

    量子机器学习入门:三种数据编码方法对比与应用

    在量子机器学习中,数据编码方式决定了量子模型如何理解和处理信息。本文详解角度编码、振幅编码与基础编码三种方法,分析其原理、实现及适用场景,帮助读者选择最适合的编码策略,提升量子模型性能。
  • 09.09 19:44:52
    发表了文章 2025-09-09 19:44:52

    深度学习调参新思路:Hyperband早停机制提升搜索效率

    Hyperband是一种高效的超参数调优算法,通过逐次减半策略在探索与利用间取得平衡。它先为大量配置分配少量资源,快速淘汰表现差的模型,将剩余资源集中用于有潜力的配置,从而加快优化过程。相比贝叶斯优化、随机搜索和遗传算法,Hyperband在处理大规模搜索空间时效率更高,尤其适合资源有限的场景。文章通过LSTM模型预测股价的实验展示了其工作机制与实际效果。
  • 09.08 21:07:44
    发表了文章 2025-09-08 21:07:44

    Proximal SFT:用PPO强化学习机制优化SFT,让大模型训练更稳定

    本文介绍了一种改进的监督微调方法——Proximal Supervised Fine-Tuning (PSFT),旨在解决传统SFT易过拟合、泛化能力差及导致“熵坍塌”的问题。受PPO强化学习算法启发,PSFT通过引入参数更新的稳定性机制,防止模型在训练中变得过于确定,从而提升探索能力与后续强化学习阶段的表现。实验表明,PSFT在数学推理、模型对齐及泛化能力方面均优于传统SFT。
  • 09.07 19:46:30
    发表了文章 2025-09-07 19:46:30

    从零开始构建图注意力网络:GAT算法原理与数值实现详解

    本文详细解析了图注意力网络(GAT)的算法原理和实现过程。GAT通过引入注意力机制解决了图卷积网络(GCN)中所有邻居节点贡献相等的局限性,让模型能够自动学习不同邻居的重要性权重。
  • 09.06 20:46:07
    发表了文章 2025-09-06 20:46:07

    LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作

    如今的量化交易已远超传统技术指标,迈向多智能体协作的新时代。本文介绍了一个基于 **LangGraph** 构建的多智能体交易系统,模拟真实投资机构的运作流程:数据分析师收集市场情报,研究员展开多空辩论,交易员制定策略,风险团队多角度评估,最终由投资组合经理做出决策。系统具备记忆学习能力,通过每次交易积累经验,持续优化决策质量。
  • 09.05 20:25:26
    发表了文章 2025-09-05 20:25:26

    GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析

    Ray Serve与Celery对比:Ray Serve适用于低延迟、高并发的GPU推理服务,支持资源感知调度;Celery适合CPU密集型的离线批处理,具备成熟的任务队列机制。两者设计理念不同,适用场景各异,可根据任务类型灵活选型。
  • 09.04 20:51:01
    发表了文章 2025-09-04 20:51:01

    DINOv3上手指南:改变视觉模型使用方式,一个模型搞定分割、检测、深度估计

    DINOv3是Meta推出的自监督视觉模型,支持冻结主干、仅训练轻量任务头即可在分割、深度估计等任务上达到SOTA,极大降低训练成本。其密集特征质量优异,适用于遥感、工业检测等多领域,真正实现“一个模型走天下”。
  • 09.03 20:25:34
    发表了文章 2025-09-03 20:25:34

    微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型

    Microsoft Research最新推出的rStar2-Agent在AIME24数学基准测试中以80.6%的准确率超越超大规模模型DeepSeek-R1,展现“思考更聪明”而非“更长”的AI推理新方向。
  • 09.02 19:51:42
    发表了文章 2025-09-02 19:51:42

    Memento:基于记忆无需微调即可让大语言模型智能体持续学习的框架

    Memento是一种创新的LLM智能体框架,通过基于记忆的在线强化学习实现低成本持续适应,无需微调模型参数。其核心理念借鉴人类学习机制,利用情景记忆库中的历史轨迹指导决策,结合案例推理与工具调用,构建了适用于动态环境的自适应智能体系统。
  • 09.01 19:58:06
    发表了文章 2025-09-01 19:58:06

    AI推理方法演进:Chain-of-Thought、Tree-of-Thought与Graph-of-Thought技术对比分析

    大语言模型推理能力不断提升,从早期的规模扩展转向方法创新。2022年Google提出Chain-of-Thought(CoT),通过展示推理过程显著提升模型表现。随后,Tree-of-Thought(ToT)和Graph-of-Thought(GoT)相继出现,推理结构由线性链条演进为树状分支,最终发展为支持多节点连接的图网络。CoT成本低但易错传,ToT支持多路径探索与回溯,GoT则实现非线性、多维推理,适合复杂任务。三者在计算成本与推理能力上形成递进关系,推动AI推理向更接近人类思维的方向发展。

2025年08月

  • 08.31 20:10:18
    发表了文章 2025-08-31 20:10:18

    多智能体系统设计:5种编排模式解决复杂AI任务

    本文探讨了多AI智能体协作中的关键问题——编排。文章指出,随着系统从单体模型向多智能体架构演进,如何设计智能体之间的通信协议、工作流程和决策机制,成为实现高效协作的核心。文章详细分析了五种主流的智能体编排模式:顺序编排、MapReduce、共识模式、分层编排和制作者-检查者模式,并分别介绍了它们的应用场景、优势与挑战。最后指出,尽管大模型如GPT-5提升了单体能力,但在复杂任务中,合理的智能体编排仍不可或缺。选择适合的编排方式,有助于在系统复杂度与实际效果之间取得平衡。
  • 08.30 21:49:41
    发表了文章 2025-08-30 21:49:41

    神经架构搜索NAS详解:三种核心算法原理与Python实战代码

    神经架构搜索(NAS)正被广泛应用于大模型及语言/视觉模型设计,如LangVision-LoRA-NAS、Jet-Nemotron等。本文回顾NAS核心技术,解析其自动化设计原理,探讨强化学习、进化算法与梯度方法的应用与差异,揭示NAS在大模型时代的潜力与挑战。
  • 08.29 21:36:26
    发表了文章 2025-08-29 21:36:26

    多智能体协作为什么这么难:系统频繁失败的原因分析与解决思路

    在AI智能体架构设计中,单智能体与多智能体路径之争愈演愈烈。实践表明,多智能体系统虽看似强大,却因协调复杂、容错差、信息丢失等问题而表现脆弱。相比之下,具备完整上下文的单智能体在一致性、稳定性与可维护性上更具优势。本文深入分析多智能体系统的失败案例与技术局限,提出优先发展高性能单智能体、聚焦上下文工程的实践路径,为AI系统设计提供清晰方向。
  • 08.28 21:10:55
    发表了文章 2025-08-28 21:10:55

    NVFP4量化技术深度解析:4位精度下实现2.3倍推理加速

    本文深入解析NVIDIA推出的NVFP4量化技术,探讨其在Blackwell GPU架构下的性能优势。通过对比主流4位量化方法,分析NVFP4在精度、内存和推理吞吐量方面的表现,结合LLM-Compressor与vLLM框架展示量化与部署实践,验证其在消费级与企业级应用中的高效性与实用性。
  • 08.27 20:33:58
    发表了文章 2025-08-27 20:33:58

    R-Zero:通过自博弈机制让大语言模型无需外部数据实现自我进化训练

    R-Zero框架实现了大语言模型在无外部训练数据条件下的自主进化与推理能力提升。
  • 08.26 19:37:12
    发表了文章 2025-08-26 19:37:12

    数据分布平滑化技术:核密度估计KDE解决直方图不连续问题

    核密度估计(KDE)通过平滑处理解决直方图密度估计中的不连续问题,提供连续密度函数。其核心在于使用核函数对数据点进行加权,避免区间划分带来的信息丢失。带宽参数h影响估计效果,过小导致波动大,过大则过度平滑。常用核函数包括高斯核与Epanechnikov核,实际应用中可借助Statsmodels或Seaborn库快速实现。
  • 08.25 22:04:54
    发表了文章 2025-08-25 22:04:54

    匹配网络处理不平衡数据集的6种优化策略:有效提升分类准确率

    匹配网络是一种基于度量的元学习方法,通过计算查询样本与支持集样本的相似性实现分类。其核心依赖距离度量函数(如余弦相似度),并引入注意力机制对特征维度加权,提升对关键特征的关注能力,尤其在处理复杂或噪声数据时表现出更强的泛化性。
  • 08.24 20:10:27
    发表了文章 2025-08-24 20:10:27

    HiRAG:用分层知识图解决复杂推理问题

    HiRAG是一种分层检索增强生成系统,专为复杂知识图的多层推理设计。它通过构建从具体实体到抽象概念的多层次结构,提升知识推理深度与连贯性,有效减少大模型幻觉,适用于天体物理、理论物理等专业领域。
  • 08.22 19:49:12
    发表了文章 2025-08-22 19:49:12

    PyTorch 2.0性能优化实战:4种常见代码错误严重拖慢模型

    我们将深入探讨图中断(graph breaks)和多图问题对性能的负面影响,并分析PyTorch模型开发中应当避免的常见错误模式。
  • 08.21 21:42:15
    发表了文章 2025-08-21 21:42:15

    近端策略优化算法PPO的核心概念和PyTorch实现详解

    本文深入解析了近端策略优化(PPO)算法的核心原理,并基于PyTorch框架实现了完整的强化学习训练流程。通过Lunar Lander环境展示了算法的全过程,涵盖环境交互、优势函数计算、策略更新等关键模块。内容理论与实践结合,适合希望掌握PPO算法及其实现的读者。
  • 08.20 20:38:52
    发表了文章 2025-08-20 20:38:52

    RAG系统文本检索优化:Cross-Encoder与Bi-Encoder架构技术对比与选择指南

    本文将深入分析这两种编码架构的技术原理、数学基础、实现流程以及各自的优势与局限性,并探讨混合架构的应用策略。
  • 08.19 19:06:04
    发表了文章 2025-08-19 19:06:04

    让模型不再忽视少数类:MixUp、CutMix、Focal Loss三种技术解决数据不平衡问题

    在机器学习应用中,数据集规模有限且类别分布不均(如医学影像中正类仅占5%)常导致模型偏向多数类,虽准确率高,但少数类识别效果差。本文探讨MixUp、CutMix和Focal Loss三种技术,分别从数据增强与损失函数角度提升小规模不平衡数据集上的模型表现。
  • 08.18 22:05:05
    发表了文章 2025-08-18 22:05:05

    构建时序感知的智能RAG系统:让AI自动处理动态数据并实时更新知识库

    本文系统构建了一个基于时序管理的智能体架构,旨在应对动态知识库(如财务报告、技术文档)在问答任务中的演进与不确定性。通过六层设计(语义分块、原子事实提取、实体解析、时序失效处理、知识图构建、优化知识库),实现了从原始文档到结构化、时间感知知识库的转化。该架构支持RAG和多智能体系统,提升了推理逻辑性与准确性,并通过LangGraph实现自动化工作流,强化了对持续更新信息的处理能力。
  • 08.17 21:20:14
    发表了文章 2025-08-17 21:20:14

    MXFP4量化:如何在80GB GPU上运行1200亿参数的GPT-OSS模型

    GPT-OSS通过MXFP4量化技术实现1200亿参数模型在单个80GB GPU上的高效运行,将权重压缩至每参数4.25位,大幅降低内存需求,同时保持高精度和竞争力的基准性能,为大规模模型部署提供了新思路。
  • 08.16 20:20:28
    发表了文章 2025-08-16 20:20:28

    AMD Ryzen AI Max+ 395四机并联:大语言模型集群推理深度测试

    本文介绍了使用四块Framework主板构建AI推理集群的过程,并基于AMD Ryzen AI Max+ 395处理器进行大语言模型推理性能测试,重点评估其并行推理能力及集群表现。
  • 08.15 20:08:38
    发表了文章 2025-08-15 20:08:38

    ReasonRank:从关键词匹配到逻辑推理,排序准确性大幅超越传统方法

    ReasonRank是一种创新段落重排系统,采用自动化数据合成与两阶段训练(监督微调+强化学习),在BRIGHT等测试中超越更大模型,显著提升信息检索中的推理能力。
  • 08.14 20:27:50
    发表了文章 2025-08-14 20:27:50

    MARS算法理论和Python代码实现:用分段回归解决非线性时间序列预测问题

    本文将深入探讨MARS算法的核心原理,并详细阐述其在时间序列预测任务中的应用策略与技术实现。
  • 08.13 20:51:20
    发表了文章 2025-08-13 20:51:20

    Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22

    Dots.ocr 是一款仅1.7B参数的视觉语言模型,正在重塑文档处理技术。它将布局检测、文本识别、阅读顺序理解和数学公式解析等任务统一于单一架构,突破传统OCR多模块流水线的限制。在多项基准测试中,其表现超越大参数模型,展现出“小而精”的实用价值,标志着OCR技术向高效、统一、灵活方向演进。
  • 08.12 20:38:40
    发表了文章 2025-08-12 20:38:40

    JAX快速上手:从NumPy到GPU加速的Python高性能计算库入门教程

    JAX是Google开发的高性能数值计算库,旨在解决NumPy在现代计算需求下的局限性。它不仅兼容NumPy的API,还引入了自动微分、GPU/TPU加速和即时编译(JIT)等关键功能,显著提升了计算效率。JAX适用于机器学习、科学模拟等需要大规模计算和梯度优化的场景,为Python在高性能计算领域开辟了新路径。
  • 08.11 21:16:19
    发表了文章 2025-08-11 21:16:19

    提升LangChain开发效率:10个被忽视的高效组件,让AI应用性能翻倍

    LangChain作为主流大语言模型应用框架,其高级组件常被忽视。本文详解10个高价值但低使用率的核心组件,如语义检索、多模板路由、智能查询转换等,结合技术原理与实践案例,助开发者构建更高效、智能、适应性强的AI系统,提升应用性能与业务价值。
  • 08.10 20:10:44
    发表了文章 2025-08-10 20:10:44

    大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案

    大型动作模型(LAMs)作为人工智能新架构,融合神经网络与符号逻辑,实现企业重复任务的自动化处理。通过神经符号集成、动作执行管道、模式学习、任务分解等核心技术,系统可高效解析用户意图并执行复杂操作,显著提升企业运营效率并降低人工成本。其自适应学习能力与上下文感知机制,使自动化流程更智能、灵活,为企业数字化转型提供坚实支撑。
  • 08.09 18:33:19
    发表了文章 2025-08-09 18:33:19

    使用LangGraph从零构建多智能体AI系统:实现智能协作的完整指南

    本文将通过构建AI研究助手的完整案例,展示如何使用LangGraph框架实现这种架构转变,从理论基础到具体实现,帮助你掌握下一代AI系统的构建方法。
  • 08.08 20:15:00
    发表了文章 2025-08-08 20:15:00

    PCA多变量离群点检测:Hotelling's T2与SPE方法原理及应用指南

    主成分分析(PCA)是一种经典的无监督降维方法,广泛应用于多变量异常值检测。它通过压缩数据维度并保留主要信息,提升检测效率,同时支持可视化与可解释性分析。本文系统讲解基于PCA的异常检测原理,重点介绍霍特林T²统计量与SPE/DmodX方法,并结合葡萄酒与学生成绩数据集,演示连续变量与分类变量的实际建模过程。通过Python实现,展示如何识别并可视化异常样本,提升异常检测的准确性与理解深度。
  • 08.07 20:44:44
    发表了文章 2025-08-07 20:44:44

    论文解读:单个标点符号如何欺骗LLM,攻破AI评判系统

    可验证奖励强化学习(RLVR)通过规则函数或LLM评判器提供奖励信号,训练策略模型生成与参考答案一致的响应。研究发现,某些无意义模式(如标点或推理引导语)可误导评判器产生误判,称为“万能钥匙”攻击。为此,提出Master-RM模型,结合对抗训练有效抵御此类攻击,显著降低误报率,同时保持高性能与通用性。
  • 08.06 20:21:20
    发表了文章 2025-08-06 20:21:20

    普通电脑也能跑AI:10个8GB内存的小型本地LLM模型推荐

    随着模型量化技术的发展,大语言模型(LLM)如今可在低配置设备上高效运行。本文介绍本地部署LLM的核心技术、主流工具及十大轻量级模型,探讨如何在8GB内存环境下实现高性能AI推理,涵盖数据隐私、成本控制与部署灵活性等优势。
  • 08.05 19:37:55
    发表了文章 2025-08-05 19:37:55

    使用 BAML 模糊解析改进 LangChain 知识图谱提取:成功率从25%提升到99%

    在构建基于知识图谱的检索增强生成(RAG)系统时,从非结构化数据中准确提取节点和关系是一大挑战,尤其在使用小型本地量化模型时表现更差。本文对比了传统 LangChain 提取框架的严格 JSON 解析限制,提出采用 BAML 的模糊解析策略,显著提升知识图谱提取成功率。实验表明,在相同条件下,BAML 将成功率从约 25% 提升至 99% 以上,为构建高效、稳定的 RAG 系统提供了有效解决方案。
  • 08.04 19:28:01
    发表了文章 2025-08-04 19:28:01

    TorchDynamo源码解析:从字节码拦截到性能优化的设计与实践

    本文深入解析PyTorch中TorchDynamo的核心架构与实现机制,结合源码分析,为开发者提供基于Dynamo扩展开发的技术指导。内容涵盖帧拦截、字节码分析、FX图构建、守卫机制、控制流处理等关键技术,揭示其动态编译优化原理与挑战。
  • 发表了文章 2025-09-22

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

  • 发表了文章 2025-09-21

    从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南

  • 发表了文章 2025-09-20

    MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构

  • 发表了文章 2025-09-19

    SAPO去中心化训练:多节点协作让LLM训练效率提升94%

  • 发表了文章 2025-09-18

    为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南

  • 发表了文章 2025-09-17

    AI智能体开发实战:从提示工程转向上下文工程的完整指南

  • 发表了文章 2025-09-17

    用Context Offloading解决AI Agent上下文污染,提升推理准确性

  • 发表了文章 2025-09-17

    Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节

  • 发表了文章 2025-09-17

    从零搭建RAG应用:跳过LangChain,掌握文本分块、向量检索、指代消解等核心技术实现

  • 发表了文章 2025-09-17

    机器人逆运动学进阶:李代数、矩阵指数与旋转流形计算

  • 发表了文章 2025-09-17

    AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性

  • 发表了文章 2025-09-11

    解决推理能力瓶颈,用因果推理提升LLM智能决策

  • 发表了文章 2025-09-10

    量子机器学习入门:三种数据编码方法对比与应用

  • 发表了文章 2025-09-09

    深度学习调参新思路:Hyperband早停机制提升搜索效率

  • 发表了文章 2025-09-08

    Proximal SFT:用PPO强化学习机制优化SFT,让大模型训练更稳定

  • 发表了文章 2025-09-07

    从零开始构建图注意力网络:GAT算法原理与数值实现详解

  • 发表了文章 2025-09-06

    LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作

  • 发表了文章 2025-09-05

    GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析

  • 发表了文章 2025-09-04

    DINOv3上手指南:改变视觉模型使用方式,一个模型搞定分割、检测、深度估计

  • 发表了文章 2025-09-03

    微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息