Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区1040

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1485篇文章
351条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2025年10月

  • 10.12 19:00:53
    发表了文章 2025-10-12 19:00:53

    氛围编程陷阱:为什么AI生成代码正在制造大量"伪开发者"

    AI兴起催生“氛围编程”——用自然语言生成代码,看似高效实则陷阱。它让人跳过编程基本功,沦为只会提示、不懂原理的“中间商”。真实案例显示,此类项目易崩溃、难维护,安全漏洞频出。AI是技能倍增器,非替代品;真正强大的开发者,永远是那些基础扎实、能独立解决问题的人。
  • 10.11 21:14:46
    发表了文章 2025-10-11 21:14:46

    12 种 Pandas 测试技巧,让数据处理少踩坑

    本文介绍12种实用的Pandas测试技巧,涵盖数据工厂、模式校验、属性测试、快照比对、边界用例、随机控制、NA处理、索引验证、双实现对照、性能监控、I/O往返和Join检查,帮助开发者提前发现隐藏bug,提升数据处理代码的可靠性与可维护性。
  • 10.10 21:31:19
    发表了文章 2025-10-10 21:31:19

    mmBERT:307M参数覆盖1800+语言,3万亿tokens训练

    mmBERT是基于ModernBERT架构的多语言编码器,在1800多种语言、3万亿token上预训练,创新性地采用逆掩码调度与级联退火语言学习(ALL),动态引入低资源语言并优化采样策略。使用Gemma 2 tokenizer,支持最长8192上下文,结合Flash Attention 2实现高效推理。在GLUE、XTREME、MTEB等基准上超越XLM-R、mGTE等模型,尤其在低资源语言和代码检索任务中表现突出,兼具高性能与高效率。
  • 10.09 20:59:48
    发表了文章 2025-10-09 20:59:48

    vLLM 吞吐量优化实战:10个KV-Cache调优方法让tokens/sec翻倍

    十个经过实战检验的 vLLM KV-cache 优化方法 —— 量化、分块预填充、前缀重用、滑动窗口、ROPE 缩放、后端选择等等 —— 提升 tokens/sec。
  • 10.08 21:27:15
    发表了文章 2025-10-08 21:27:15

    vLLM推理加速指南:7个技巧让QPS提升30-60%

    GPU资源有限,提升推理效率需多管齐下。本文分享vLLM实战调优七招:请求塑形、KV缓存复用、推测解码、量化、并行策略、准入控制与预热监控。结合代码与数据,助你最大化吞吐、降低延迟,实现高QPS稳定服务。
  • 10.06 21:04:10
    发表了文章 2025-10-06 21:04:10

    向量存储vs知识图谱:LLM记忆系统技术选型

    本文探讨LLM长期记忆系统的构建难点与解决方案,对比向量检索与知识图谱架构优劣,分析Zep、Mem0、Letta等开源框架,并提供成本优化策略,助力开发者实现高效、可扩展的AI记忆系统。
  • 10.05 21:07:45
    发表了文章 2025-10-05 21:07:45

    NumPy广播:12个技巧替代循环,让数组计算快40倍

    摆脱Python数据处理中的低效for循环!掌握NumPy广播机制,实现向量化计算,让代码更简洁、运行更快。从数据标准化到距离矩阵、独热编码,12个实战案例教你用形状思维替代循环思维,显著降低CPU负载,提升程序性能。
  • 10.04 20:38:29
    发表了文章 2025-10-04 20:38:29

    Google开源Tunix:JAX生态的LLM微调方案来了

    Tunix是Google推出的基于JAX的LLM后训练库,支持微调、强化学习与知识蒸馏,集成Flax NNX,主打TPU优化与模块化设计,支持QLoRA等高效训练方法,适用于高性能分布式训练场景。
  • 10.03 21:49:28
    发表了文章 2025-10-03 21:49:28

    从DQN到Double DQN:分离动作选择与价值评估,解决强化学习中的Q值过估计问题

    2015年DQN在Atari游戏中突破,但Q值过估计问题浮现。因max操作放大噪声,智能体盲目自信“黄金动作”。根源在于动作选择与价值评估由同一网络完成,导致最大化偏差。
  • 10.02 21:31:57
    发表了文章 2025-10-02 21:31:57

    PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题

    PINNs训练难因多目标优化易失衡。通过设计硬约束网络架构,将初始与边界条件内嵌于模型输出,可自动满足约束,仅需优化方程残差,简化训练过程,提升稳定性与精度,适用于气候、生物医学等高要求仿真场景。
  • 10.01 20:47:18
    发表了文章 2025-10-01 20:47:18

    Python离群值检测实战:使用distfit库实现基于分布拟合的异常检测

    本文解析异常(anomaly)与新颖性(novelty)检测的本质差异,结合distfit库演示基于概率密度拟合的单变量无监督异常检测方法,涵盖全局、上下文与集体离群值识别,助力构建高可解释性模型。

2025年09月

  • 09.30 21:01:00
    发表了文章 2025-09-30 21:01:00

    Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性

    大语言模型通过预测下一个词生成文本,采样策略决定其创造力与连贯性。Min-p采样根据模型置信度动态调整选择阈值,在高不确定性时扩大候选范围,低不确定性时聚焦高概率词,相较Top-k、Top-p等方法,更好平衡了多样性与质量,尤其在高温下仍保持输出稳定,提升生成文本的流畅性与创新性。
  • 09.29 20:46:25
    发表了文章 2025-09-29 20:46:25

    从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现

    AI能否从错误中学习?Reflection与Reflexion Agent通过生成-反思-改进循环,实现自我优化。前者侧重内容精炼,后者结合外部研究提升准确性,二者分别适用于创意优化与知识密集型任务。
  • 09.28 21:05:14
    发表了文章 2025-09-28 21:05:14

    从零构建短视频推荐系统:双塔算法架构解析与代码实现

    短视频推荐看似“读心”,实则依赖双塔推荐系统:用户塔与物品塔分别将行为与内容编码为向量,通过相似度匹配实现精准推送。本文解析其架构原理、技术实现与工程挑战,揭秘抖音等平台如何用AI抓住你的注意力。
  • 09.27 21:05:33
    发表了文章 2025-09-27 21:05:33

    AI智能体框架怎么选?7个主流工具详细对比解析

    大语言模型需借助AI智能体实现“理解”到“行动”的跨越。本文解析主流智能体框架,从RelevanceAI、smolagents到LangGraph,涵盖技术门槛、任务复杂度、社区生态等选型关键因素,助你根据项目需求选择最合适的开发工具,构建高效、可扩展的智能系统。
  • 09.26 20:54:48
    发表了文章 2025-09-26 20:54:48

    AI智能体开发实战:17种核心架构模式详解与Python代码实现

    本文系统解析了17种AI智能体设计模式,涵盖反思、工具调用、多智能体协作、思维树、规划执行、集成决策等核心架构,结合LangGraph实现与代码演示,揭示如何通过模式组合构建高效、可靠的大规模AI系统。
  • 09.25 19:59:33
    发表了文章 2025-09-25 19:59:33

    Transformer自回归关键技术:掩码注意力原理与PyTorch完整实现

    掩码注意力是生成模型的核心,通过上三角掩码限制模型仅关注当前及之前token,确保自回归因果性。相比BERT的双向注意力,它实现单向生成,是GPT等模型逐词预测的关键机制,核心仅需一步`masked_fill_`操作。
  • 09.24 20:34:16
    发表了文章 2025-09-24 20:34:16

    从另一个视角看Transformer:注意力机制就是可微分的k-NN算法

    注意力机制可理解为一种“软k-NN”:查询向量通过缩放点积计算与各键的相似度,softmax归一化为权重,对值向量加权平均。1/√d缩放防止高维饱和,掩码控制信息流动(如因果、填充)。不同相似度函数(点积、余弦、RBF)对应不同归纳偏置,多头则在多个子空间并行该过程。
  • 09.23 19:12:41
    发表了文章 2025-09-23 19:12:41

    Optuna v4.5新特性深度解析:GPSampler实现约束多目标优化

    Optuna v4.5发布,新增GPSampler对约束多目标优化的支持,结合高斯过程与log EHVI获取函数,显著提升在材料科学、机器学习等领域的黑盒优化效率,减少无效评估,加速收敛。
  • 09.22 19:48:36
    发表了文章 2025-09-22 19:48:36

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

    嵌入是RAG系统的核心,直接影响检索质量。本文详解嵌入原理,解析稠密/稀疏、长上下文、多向量等类型,梳理选型关键:领域匹配、上下文长度、维度与成本,并结合MTEB基准给出实用建议,助你为业务挑选高效稳健的嵌入方案。
  • 09.21 19:56:34
    发表了文章 2025-09-21 19:56:34

    从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南

    推理型大语言模型兴起,通过先思考再作答提升性能。本文介绍GRPO等强化学习算法,详解其原理并动手用Qwen2.5-3B训练推理模型,展示训练前后效果对比,揭示思维链生成的实现路径。
  • 09.20 20:39:47
    发表了文章 2025-09-20 20:39:47

    MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构

    MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
  • 09.19 20:28:22
    发表了文章 2025-09-19 20:28:22

    SAPO去中心化训练:多节点协作让LLM训练效率提升94%

    SAPO(Swarm Sampling Policy Optimization)提出去中心化异步强化学习框架,通过节点间共享rollouts提升大模型后训练效率。实验显示,在数千节点上可实现94%回报提升,尤其助力中等规模模型突破性能瓶颈。
  • 09.18 20:58:46
    发表了文章 2025-09-18 20:58:46

    为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南

    面对真实数据不知该用哪种分布?本文精炼总结8个实战必备概率分布,涵盖使用场景、避坑指南与代码实现。从二元事件到计数、等待时间、概率建模,再到小样本处理,教你快速选择并验证合适分布,用对模型显著提升分析准确性。
  • 09.17 20:46:43
    发表了文章 2025-09-17 20:46:43

    AI智能体开发实战:从提示工程转向上下文工程的完整指南

    曾被热捧的提示工程正逐渐退潮,本文揭示其局限性,并提出“上下文工程”新范式:通过结构化提示、精准上下文管理、工具调用与统一状态,构建可扩展、可恢复、生产级的智能体工作流,推动AI系统迈向工程化与可控化。
  • 09.16 21:37:47
    发表了文章 2025-09-16 21:37:47

    用Context Offloading解决AI Agent上下文污染,提升推理准确性

    上下文工程是将AI所需信息(如指令、数据、工具等)动态整合到模型输入中,以提升其表现。本文探讨了“上下文污染”问题,并提出“上下文卸载”策略,通过LangGraph实现,有效缓解长文本处理中的信息干扰与模型幻觉,提升AI代理的决策准确性与稳定性。
  • 09.15 18:24:46
    发表了文章 2025-09-15 18:24:46

    从零搭建RAG应用:跳过LangChain,掌握文本分块、向量检索、指代消解等核心技术实现

    本文详解如何从零搭建RAG(检索增强生成)应用,跳过LangChain等框架,深入掌握文本解析、分块、向量检索、对话记忆、指代消解等核心技术,提升系统可控性与优化能力。
  • 09.14 20:34:01
    发表了文章 2025-09-14 20:34:01

    机器人逆运动学进阶:李代数、矩阵指数与旋转流形计算

    本文深入讲解机器人逆运动学中旋转计算的核心数学工具,包括矩阵指数与对数、SO(3)李群与李代数、流形和切空间等概念,帮助理解三维旋转误差计算原理,并提供基于矩阵指数的精确旋转更新方法及代码实现。
  • 09.13 20:37:14
    发表了文章 2025-09-13 20:37:14

    Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节

    Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
  • 09.12 20:39:55
    发表了文章 2025-09-12 20:39:55

    AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性

    本文介绍了五种AI Agent结构化工作流模式,帮助解决传统提示词方式在生产环境中输出不稳定、质量不可控的问题。通过串行链式处理、智能路由、并行处理、编排器-工作器架构和评估器-优化器循环,可提升任务执行效率、资源利用和输出质量,适用于复杂、高要求的AI应用。
  • 09.11 20:55:52
    发表了文章 2025-09-11 20:55:52

    解决推理能力瓶颈,用因果推理提升LLM智能决策

    从ChatGPT到AI智能体,标志着AI从对话走向自主执行复杂任务的能力跃迁。AI智能体可完成销售、旅行规划、外卖点餐等多场景任务,但其发展受限于大语言模型(LLM)的推理能力。LLM依赖统计相关性,缺乏对因果关系的理解,导致在非确定性任务中表现不佳。结合因果推理与内省机制,有望突破当前AI智能体的推理瓶颈,提升其决策准确性与自主性。
  • 09.10 20:27:20
    发表了文章 2025-09-10 20:27:20

    量子机器学习入门:三种数据编码方法对比与应用

    在量子机器学习中,数据编码方式决定了量子模型如何理解和处理信息。本文详解角度编码、振幅编码与基础编码三种方法,分析其原理、实现及适用场景,帮助读者选择最适合的编码策略,提升量子模型性能。
  • 09.09 19:44:52
    发表了文章 2025-09-09 19:44:52

    深度学习调参新思路:Hyperband早停机制提升搜索效率

    Hyperband是一种高效的超参数调优算法,通过逐次减半策略在探索与利用间取得平衡。它先为大量配置分配少量资源,快速淘汰表现差的模型,将剩余资源集中用于有潜力的配置,从而加快优化过程。相比贝叶斯优化、随机搜索和遗传算法,Hyperband在处理大规模搜索空间时效率更高,尤其适合资源有限的场景。文章通过LSTM模型预测股价的实验展示了其工作机制与实际效果。
  • 09.08 21:07:44
    发表了文章 2025-09-08 21:07:44

    Proximal SFT:用PPO强化学习机制优化SFT,让大模型训练更稳定

    本文介绍了一种改进的监督微调方法——Proximal Supervised Fine-Tuning (PSFT),旨在解决传统SFT易过拟合、泛化能力差及导致“熵坍塌”的问题。受PPO强化学习算法启发,PSFT通过引入参数更新的稳定性机制,防止模型在训练中变得过于确定,从而提升探索能力与后续强化学习阶段的表现。实验表明,PSFT在数学推理、模型对齐及泛化能力方面均优于传统SFT。
  • 09.07 19:46:30
    发表了文章 2025-09-07 19:46:30

    从零开始构建图注意力网络:GAT算法原理与数值实现详解

    本文详细解析了图注意力网络(GAT)的算法原理和实现过程。GAT通过引入注意力机制解决了图卷积网络(GCN)中所有邻居节点贡献相等的局限性,让模型能够自动学习不同邻居的重要性权重。
  • 09.06 20:46:07
    发表了文章 2025-09-06 20:46:07

    LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作

    如今的量化交易已远超传统技术指标,迈向多智能体协作的新时代。本文介绍了一个基于 **LangGraph** 构建的多智能体交易系统,模拟真实投资机构的运作流程:数据分析师收集市场情报,研究员展开多空辩论,交易员制定策略,风险团队多角度评估,最终由投资组合经理做出决策。系统具备记忆学习能力,通过每次交易积累经验,持续优化决策质量。
  • 09.05 20:25:26
    发表了文章 2025-09-05 20:25:26

    GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析

    Ray Serve与Celery对比:Ray Serve适用于低延迟、高并发的GPU推理服务,支持资源感知调度;Celery适合CPU密集型的离线批处理,具备成熟的任务队列机制。两者设计理念不同,适用场景各异,可根据任务类型灵活选型。
  • 09.04 20:51:01
    发表了文章 2025-09-04 20:51:01

    DINOv3上手指南:改变视觉模型使用方式,一个模型搞定分割、检测、深度估计

    DINOv3是Meta推出的自监督视觉模型,支持冻结主干、仅训练轻量任务头即可在分割、深度估计等任务上达到SOTA,极大降低训练成本。其密集特征质量优异,适用于遥感、工业检测等多领域,真正实现“一个模型走天下”。
  • 09.03 20:25:34
    发表了文章 2025-09-03 20:25:34

    微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型

    Microsoft Research最新推出的rStar2-Agent在AIME24数学基准测试中以80.6%的准确率超越超大规模模型DeepSeek-R1,展现“思考更聪明”而非“更长”的AI推理新方向。
  • 09.02 19:51:42
    发表了文章 2025-09-02 19:51:42

    Memento:基于记忆无需微调即可让大语言模型智能体持续学习的框架

    Memento是一种创新的LLM智能体框架,通过基于记忆的在线强化学习实现低成本持续适应,无需微调模型参数。其核心理念借鉴人类学习机制,利用情景记忆库中的历史轨迹指导决策,结合案例推理与工具调用,构建了适用于动态环境的自适应智能体系统。
  • 09.01 19:58:06
    发表了文章 2025-09-01 19:58:06

    AI推理方法演进:Chain-of-Thought、Tree-of-Thought与Graph-of-Thought技术对比分析

    大语言模型推理能力不断提升,从早期的规模扩展转向方法创新。2022年Google提出Chain-of-Thought(CoT),通过展示推理过程显著提升模型表现。随后,Tree-of-Thought(ToT)和Graph-of-Thought(GoT)相继出现,推理结构由线性链条演进为树状分支,最终发展为支持多节点连接的图网络。CoT成本低但易错传,ToT支持多路径探索与回溯,GoT则实现非线性、多维推理,适合复杂任务。三者在计算成本与推理能力上形成递进关系,推动AI推理向更接近人类思维的方向发展。

2025年08月

  • 08.31 20:10:18
    发表了文章 2025-08-31 20:10:18

    多智能体系统设计:5种编排模式解决复杂AI任务

    本文探讨了多AI智能体协作中的关键问题——编排。文章指出,随着系统从单体模型向多智能体架构演进,如何设计智能体之间的通信协议、工作流程和决策机制,成为实现高效协作的核心。文章详细分析了五种主流的智能体编排模式:顺序编排、MapReduce、共识模式、分层编排和制作者-检查者模式,并分别介绍了它们的应用场景、优势与挑战。最后指出,尽管大模型如GPT-5提升了单体能力,但在复杂任务中,合理的智能体编排仍不可或缺。选择适合的编排方式,有助于在系统复杂度与实际效果之间取得平衡。
  • 08.30 21:49:41
    发表了文章 2025-08-30 21:49:41

    神经架构搜索NAS详解:三种核心算法原理与Python实战代码

    神经架构搜索(NAS)正被广泛应用于大模型及语言/视觉模型设计,如LangVision-LoRA-NAS、Jet-Nemotron等。本文回顾NAS核心技术,解析其自动化设计原理,探讨强化学习、进化算法与梯度方法的应用与差异,揭示NAS在大模型时代的潜力与挑战。
  • 08.29 21:36:26
    发表了文章 2025-08-29 21:36:26

    多智能体协作为什么这么难:系统频繁失败的原因分析与解决思路

    在AI智能体架构设计中,单智能体与多智能体路径之争愈演愈烈。实践表明,多智能体系统虽看似强大,却因协调复杂、容错差、信息丢失等问题而表现脆弱。相比之下,具备完整上下文的单智能体在一致性、稳定性与可维护性上更具优势。本文深入分析多智能体系统的失败案例与技术局限,提出优先发展高性能单智能体、聚焦上下文工程的实践路径,为AI系统设计提供清晰方向。
  • 08.28 21:10:55
    发表了文章 2025-08-28 21:10:55

    NVFP4量化技术深度解析:4位精度下实现2.3倍推理加速

    本文深入解析NVIDIA推出的NVFP4量化技术,探讨其在Blackwell GPU架构下的性能优势。通过对比主流4位量化方法,分析NVFP4在精度、内存和推理吞吐量方面的表现,结合LLM-Compressor与vLLM框架展示量化与部署实践,验证其在消费级与企业级应用中的高效性与实用性。
  • 08.27 20:33:58
    发表了文章 2025-08-27 20:33:58

    R-Zero:通过自博弈机制让大语言模型无需外部数据实现自我进化训练

    R-Zero框架实现了大语言模型在无外部训练数据条件下的自主进化与推理能力提升。
  • 08.26 19:37:12
    发表了文章 2025-08-26 19:37:12

    数据分布平滑化技术:核密度估计KDE解决直方图不连续问题

    核密度估计(KDE)通过平滑处理解决直方图密度估计中的不连续问题,提供连续密度函数。其核心在于使用核函数对数据点进行加权,避免区间划分带来的信息丢失。带宽参数h影响估计效果,过小导致波动大,过大则过度平滑。常用核函数包括高斯核与Epanechnikov核,实际应用中可借助Statsmodels或Seaborn库快速实现。
  • 08.25 22:04:54
    发表了文章 2025-08-25 22:04:54

    匹配网络处理不平衡数据集的6种优化策略:有效提升分类准确率

    匹配网络是一种基于度量的元学习方法,通过计算查询样本与支持集样本的相似性实现分类。其核心依赖距离度量函数(如余弦相似度),并引入注意力机制对特征维度加权,提升对关键特征的关注能力,尤其在处理复杂或噪声数据时表现出更强的泛化性。
  • 08.24 20:10:27
    发表了文章 2025-08-24 20:10:27

    HiRAG:用分层知识图解决复杂推理问题

    HiRAG是一种分层检索增强生成系统,专为复杂知识图的多层推理设计。它通过构建从具体实体到抽象概念的多层次结构,提升知识推理深度与连贯性,有效减少大模型幻觉,适用于天体物理、理论物理等专业领域。
  • 发表了文章 2025-10-12

    氛围编程陷阱:为什么AI生成代码正在制造大量"伪开发者"

  • 发表了文章 2025-10-11

    12 种 Pandas 测试技巧,让数据处理少踩坑

  • 发表了文章 2025-10-10

    mmBERT:307M参数覆盖1800+语言,3万亿tokens训练

  • 发表了文章 2025-10-09

    vLLM 吞吐量优化实战:10个KV-Cache调优方法让tokens/sec翻倍

  • 发表了文章 2025-10-08

    vLLM推理加速指南:7个技巧让QPS提升30-60%

  • 发表了文章 2025-10-06

    向量存储vs知识图谱:LLM记忆系统技术选型

  • 发表了文章 2025-10-05

    NumPy广播:12个技巧替代循环,让数组计算快40倍

  • 发表了文章 2025-10-04

    Google开源Tunix:JAX生态的LLM微调方案来了

  • 发表了文章 2025-10-03

    从DQN到Double DQN:分离动作选择与价值评估,解决强化学习中的Q值过估计问题

  • 发表了文章 2025-10-02

    PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题

  • 发表了文章 2025-10-01

    Python离群值检测实战:使用distfit库实现基于分布拟合的异常检测

  • 发表了文章 2025-09-30

    Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性

  • 发表了文章 2025-09-29

    从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现

  • 发表了文章 2025-09-28

    从零构建短视频推荐系统:双塔算法架构解析与代码实现

  • 发表了文章 2025-09-27

    AI智能体框架怎么选?7个主流工具详细对比解析

  • 发表了文章 2025-09-26

    AI智能体开发实战:17种核心架构模式详解与Python代码实现

  • 发表了文章 2025-09-25

    Transformer自回归关键技术:掩码注意力原理与PyTorch完整实现

  • 发表了文章 2025-09-24

    从另一个视角看Transformer:注意力机制就是可微分的k-NN算法

  • 发表了文章 2025-09-23

    Optuna v4.5新特性深度解析:GPSampler实现约束多目标优化

  • 发表了文章 2025-09-22

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息