Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区1065

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1534篇文章
357条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2025年09月

  • 09.17 20:46:43
    发表了文章 2025-09-17 20:46:43

    AI智能体开发实战:从提示工程转向上下文工程的完整指南

    曾被热捧的提示工程正逐渐退潮,本文揭示其局限性,并提出“上下文工程”新范式:通过结构化提示、精准上下文管理、工具调用与统一状态,构建可扩展、可恢复、生产级的智能体工作流,推动AI系统迈向工程化与可控化。
  • 09.16 21:37:47
    发表了文章 2025-09-16 21:37:47

    用Context Offloading解决AI Agent上下文污染,提升推理准确性

    上下文工程是将AI所需信息(如指令、数据、工具等)动态整合到模型输入中,以提升其表现。本文探讨了“上下文污染”问题,并提出“上下文卸载”策略,通过LangGraph实现,有效缓解长文本处理中的信息干扰与模型幻觉,提升AI代理的决策准确性与稳定性。
  • 09.15 18:24:46
    发表了文章 2025-09-15 18:24:46

    从零搭建RAG应用:跳过LangChain,掌握文本分块、向量检索、指代消解等核心技术实现

    本文详解如何从零搭建RAG(检索增强生成)应用,跳过LangChain等框架,深入掌握文本解析、分块、向量检索、对话记忆、指代消解等核心技术,提升系统可控性与优化能力。
  • 09.14 20:34:01
    发表了文章 2025-09-14 20:34:01

    机器人逆运动学进阶:李代数、矩阵指数与旋转流形计算

    本文深入讲解机器人逆运动学中旋转计算的核心数学工具,包括矩阵指数与对数、SO(3)李群与李代数、流形和切空间等概念,帮助理解三维旋转误差计算原理,并提供基于矩阵指数的精确旋转更新方法及代码实现。
  • 09.13 20:37:14
    发表了文章 2025-09-13 20:37:14

    Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节

    Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
  • 09.12 20:39:55
    发表了文章 2025-09-12 20:39:55

    AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性

    本文介绍了五种AI Agent结构化工作流模式,帮助解决传统提示词方式在生产环境中输出不稳定、质量不可控的问题。通过串行链式处理、智能路由、并行处理、编排器-工作器架构和评估器-优化器循环,可提升任务执行效率、资源利用和输出质量,适用于复杂、高要求的AI应用。
  • 09.11 20:55:52
    发表了文章 2025-09-11 20:55:52

    解决推理能力瓶颈,用因果推理提升LLM智能决策

    从ChatGPT到AI智能体,标志着AI从对话走向自主执行复杂任务的能力跃迁。AI智能体可完成销售、旅行规划、外卖点餐等多场景任务,但其发展受限于大语言模型(LLM)的推理能力。LLM依赖统计相关性,缺乏对因果关系的理解,导致在非确定性任务中表现不佳。结合因果推理与内省机制,有望突破当前AI智能体的推理瓶颈,提升其决策准确性与自主性。
  • 09.10 20:27:20
    发表了文章 2025-09-10 20:27:20

    量子机器学习入门:三种数据编码方法对比与应用

    在量子机器学习中,数据编码方式决定了量子模型如何理解和处理信息。本文详解角度编码、振幅编码与基础编码三种方法,分析其原理、实现及适用场景,帮助读者选择最适合的编码策略,提升量子模型性能。
  • 09.09 19:44:52
    发表了文章 2025-09-09 19:44:52

    深度学习调参新思路:Hyperband早停机制提升搜索效率

    Hyperband是一种高效的超参数调优算法,通过逐次减半策略在探索与利用间取得平衡。它先为大量配置分配少量资源,快速淘汰表现差的模型,将剩余资源集中用于有潜力的配置,从而加快优化过程。相比贝叶斯优化、随机搜索和遗传算法,Hyperband在处理大规模搜索空间时效率更高,尤其适合资源有限的场景。文章通过LSTM模型预测股价的实验展示了其工作机制与实际效果。
  • 09.08 21:07:44
    发表了文章 2025-09-08 21:07:44

    Proximal SFT:用PPO强化学习机制优化SFT,让大模型训练更稳定

    本文介绍了一种改进的监督微调方法——Proximal Supervised Fine-Tuning (PSFT),旨在解决传统SFT易过拟合、泛化能力差及导致“熵坍塌”的问题。受PPO强化学习算法启发,PSFT通过引入参数更新的稳定性机制,防止模型在训练中变得过于确定,从而提升探索能力与后续强化学习阶段的表现。实验表明,PSFT在数学推理、模型对齐及泛化能力方面均优于传统SFT。
  • 09.07 19:46:30
    发表了文章 2025-09-07 19:46:30

    从零开始构建图注意力网络:GAT算法原理与数值实现详解

    本文详细解析了图注意力网络(GAT)的算法原理和实现过程。GAT通过引入注意力机制解决了图卷积网络(GCN)中所有邻居节点贡献相等的局限性,让模型能够自动学习不同邻居的重要性权重。
  • 09.06 20:46:07
    发表了文章 2025-09-06 20:46:07

    LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作

    如今的量化交易已远超传统技术指标,迈向多智能体协作的新时代。本文介绍了一个基于 **LangGraph** 构建的多智能体交易系统,模拟真实投资机构的运作流程:数据分析师收集市场情报,研究员展开多空辩论,交易员制定策略,风险团队多角度评估,最终由投资组合经理做出决策。系统具备记忆学习能力,通过每次交易积累经验,持续优化决策质量。
  • 09.05 20:25:26
    发表了文章 2025-09-05 20:25:26

    GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析

    Ray Serve与Celery对比:Ray Serve适用于低延迟、高并发的GPU推理服务,支持资源感知调度;Celery适合CPU密集型的离线批处理,具备成熟的任务队列机制。两者设计理念不同,适用场景各异,可根据任务类型灵活选型。
  • 09.04 20:51:01
    发表了文章 2025-09-04 20:51:01

    DINOv3上手指南:改变视觉模型使用方式,一个模型搞定分割、检测、深度估计

    DINOv3是Meta推出的自监督视觉模型,支持冻结主干、仅训练轻量任务头即可在分割、深度估计等任务上达到SOTA,极大降低训练成本。其密集特征质量优异,适用于遥感、工业检测等多领域,真正实现“一个模型走天下”。
  • 09.03 20:25:34
    发表了文章 2025-09-03 20:25:34

    微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型

    Microsoft Research最新推出的rStar2-Agent在AIME24数学基准测试中以80.6%的准确率超越超大规模模型DeepSeek-R1,展现“思考更聪明”而非“更长”的AI推理新方向。
  • 09.02 19:51:42
    发表了文章 2025-09-02 19:51:42

    Memento:基于记忆无需微调即可让大语言模型智能体持续学习的框架

    Memento是一种创新的LLM智能体框架,通过基于记忆的在线强化学习实现低成本持续适应,无需微调模型参数。其核心理念借鉴人类学习机制,利用情景记忆库中的历史轨迹指导决策,结合案例推理与工具调用,构建了适用于动态环境的自适应智能体系统。
  • 09.01 19:58:06
    发表了文章 2025-09-01 19:58:06

    AI推理方法演进:Chain-of-Thought、Tree-of-Thought与Graph-of-Thought技术对比分析

    大语言模型推理能力不断提升,从早期的规模扩展转向方法创新。2022年Google提出Chain-of-Thought(CoT),通过展示推理过程显著提升模型表现。随后,Tree-of-Thought(ToT)和Graph-of-Thought(GoT)相继出现,推理结构由线性链条演进为树状分支,最终发展为支持多节点连接的图网络。CoT成本低但易错传,ToT支持多路径探索与回溯,GoT则实现非线性、多维推理,适合复杂任务。三者在计算成本与推理能力上形成递进关系,推动AI推理向更接近人类思维的方向发展。

2025年08月

  • 08.31 20:10:18
    发表了文章 2025-08-31 20:10:18

    多智能体系统设计:5种编排模式解决复杂AI任务

    本文探讨了多AI智能体协作中的关键问题——编排。文章指出,随着系统从单体模型向多智能体架构演进,如何设计智能体之间的通信协议、工作流程和决策机制,成为实现高效协作的核心。文章详细分析了五种主流的智能体编排模式:顺序编排、MapReduce、共识模式、分层编排和制作者-检查者模式,并分别介绍了它们的应用场景、优势与挑战。最后指出,尽管大模型如GPT-5提升了单体能力,但在复杂任务中,合理的智能体编排仍不可或缺。选择适合的编排方式,有助于在系统复杂度与实际效果之间取得平衡。
  • 08.30 21:49:41
    发表了文章 2025-08-30 21:49:41

    神经架构搜索NAS详解:三种核心算法原理与Python实战代码

    神经架构搜索(NAS)正被广泛应用于大模型及语言/视觉模型设计,如LangVision-LoRA-NAS、Jet-Nemotron等。本文回顾NAS核心技术,解析其自动化设计原理,探讨强化学习、进化算法与梯度方法的应用与差异,揭示NAS在大模型时代的潜力与挑战。
  • 08.29 21:36:26
    发表了文章 2025-08-29 21:36:26

    多智能体协作为什么这么难:系统频繁失败的原因分析与解决思路

    在AI智能体架构设计中,单智能体与多智能体路径之争愈演愈烈。实践表明,多智能体系统虽看似强大,却因协调复杂、容错差、信息丢失等问题而表现脆弱。相比之下,具备完整上下文的单智能体在一致性、稳定性与可维护性上更具优势。本文深入分析多智能体系统的失败案例与技术局限,提出优先发展高性能单智能体、聚焦上下文工程的实践路径,为AI系统设计提供清晰方向。
  • 08.28 21:10:55
    发表了文章 2025-08-28 21:10:55

    NVFP4量化技术深度解析:4位精度下实现2.3倍推理加速

    本文深入解析NVIDIA推出的NVFP4量化技术,探讨其在Blackwell GPU架构下的性能优势。通过对比主流4位量化方法,分析NVFP4在精度、内存和推理吞吐量方面的表现,结合LLM-Compressor与vLLM框架展示量化与部署实践,验证其在消费级与企业级应用中的高效性与实用性。
  • 08.27 20:33:58
    发表了文章 2025-08-27 20:33:58

    R-Zero:通过自博弈机制让大语言模型无需外部数据实现自我进化训练

    R-Zero框架实现了大语言模型在无外部训练数据条件下的自主进化与推理能力提升。
  • 08.26 19:37:12
    发表了文章 2025-08-26 19:37:12

    数据分布平滑化技术:核密度估计KDE解决直方图不连续问题

    核密度估计(KDE)通过平滑处理解决直方图密度估计中的不连续问题,提供连续密度函数。其核心在于使用核函数对数据点进行加权,避免区间划分带来的信息丢失。带宽参数h影响估计效果,过小导致波动大,过大则过度平滑。常用核函数包括高斯核与Epanechnikov核,实际应用中可借助Statsmodels或Seaborn库快速实现。
  • 08.25 22:04:54
    发表了文章 2025-08-25 22:04:54

    匹配网络处理不平衡数据集的6种优化策略:有效提升分类准确率

    匹配网络是一种基于度量的元学习方法,通过计算查询样本与支持集样本的相似性实现分类。其核心依赖距离度量函数(如余弦相似度),并引入注意力机制对特征维度加权,提升对关键特征的关注能力,尤其在处理复杂或噪声数据时表现出更强的泛化性。
  • 08.24 20:10:27
    发表了文章 2025-08-24 20:10:27

    HiRAG:用分层知识图解决复杂推理问题

    HiRAG是一种分层检索增强生成系统,专为复杂知识图的多层推理设计。它通过构建从具体实体到抽象概念的多层次结构,提升知识推理深度与连贯性,有效减少大模型幻觉,适用于天体物理、理论物理等专业领域。
  • 08.22 19:49:12
    发表了文章 2025-08-22 19:49:12

    PyTorch 2.0性能优化实战:4种常见代码错误严重拖慢模型

    我们将深入探讨图中断(graph breaks)和多图问题对性能的负面影响,并分析PyTorch模型开发中应当避免的常见错误模式。
  • 08.21 21:42:15
    发表了文章 2025-08-21 21:42:15

    近端策略优化算法PPO的核心概念和PyTorch实现详解

    本文深入解析了近端策略优化(PPO)算法的核心原理,并基于PyTorch框架实现了完整的强化学习训练流程。通过Lunar Lander环境展示了算法的全过程,涵盖环境交互、优势函数计算、策略更新等关键模块。内容理论与实践结合,适合希望掌握PPO算法及其实现的读者。
  • 08.20 20:38:52
    发表了文章 2025-08-20 20:38:52

    RAG系统文本检索优化:Cross-Encoder与Bi-Encoder架构技术对比与选择指南

    本文将深入分析这两种编码架构的技术原理、数学基础、实现流程以及各自的优势与局限性,并探讨混合架构的应用策略。
  • 08.19 19:06:04
    发表了文章 2025-08-19 19:06:04

    让模型不再忽视少数类:MixUp、CutMix、Focal Loss三种技术解决数据不平衡问题

    在机器学习应用中,数据集规模有限且类别分布不均(如医学影像中正类仅占5%)常导致模型偏向多数类,虽准确率高,但少数类识别效果差。本文探讨MixUp、CutMix和Focal Loss三种技术,分别从数据增强与损失函数角度提升小规模不平衡数据集上的模型表现。
  • 08.18 22:05:05
    发表了文章 2025-08-18 22:05:05

    构建时序感知的智能RAG系统:让AI自动处理动态数据并实时更新知识库

    本文系统构建了一个基于时序管理的智能体架构,旨在应对动态知识库(如财务报告、技术文档)在问答任务中的演进与不确定性。通过六层设计(语义分块、原子事实提取、实体解析、时序失效处理、知识图构建、优化知识库),实现了从原始文档到结构化、时间感知知识库的转化。该架构支持RAG和多智能体系统,提升了推理逻辑性与准确性,并通过LangGraph实现自动化工作流,强化了对持续更新信息的处理能力。
  • 08.17 21:20:14
    发表了文章 2025-08-17 21:20:14

    MXFP4量化:如何在80GB GPU上运行1200亿参数的GPT-OSS模型

    GPT-OSS通过MXFP4量化技术实现1200亿参数模型在单个80GB GPU上的高效运行,将权重压缩至每参数4.25位,大幅降低内存需求,同时保持高精度和竞争力的基准性能,为大规模模型部署提供了新思路。
  • 08.16 20:20:28
    发表了文章 2025-08-16 20:20:28

    AMD Ryzen AI Max+ 395四机并联:大语言模型集群推理深度测试

    本文介绍了使用四块Framework主板构建AI推理集群的过程,并基于AMD Ryzen AI Max+ 395处理器进行大语言模型推理性能测试,重点评估其并行推理能力及集群表现。
  • 08.15 20:08:38
    发表了文章 2025-08-15 20:08:38

    ReasonRank:从关键词匹配到逻辑推理,排序准确性大幅超越传统方法

    ReasonRank是一种创新段落重排系统,采用自动化数据合成与两阶段训练(监督微调+强化学习),在BRIGHT等测试中超越更大模型,显著提升信息检索中的推理能力。
  • 08.14 20:27:50
    发表了文章 2025-08-14 20:27:50

    MARS算法理论和Python代码实现:用分段回归解决非线性时间序列预测问题

    本文将深入探讨MARS算法的核心原理,并详细阐述其在时间序列预测任务中的应用策略与技术实现。
  • 08.13 20:51:20
    发表了文章 2025-08-13 20:51:20

    Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22

    Dots.ocr 是一款仅1.7B参数的视觉语言模型,正在重塑文档处理技术。它将布局检测、文本识别、阅读顺序理解和数学公式解析等任务统一于单一架构,突破传统OCR多模块流水线的限制。在多项基准测试中,其表现超越大参数模型,展现出“小而精”的实用价值,标志着OCR技术向高效、统一、灵活方向演进。
  • 08.12 20:38:40
    发表了文章 2025-08-12 20:38:40

    JAX快速上手:从NumPy到GPU加速的Python高性能计算库入门教程

    JAX是Google开发的高性能数值计算库,旨在解决NumPy在现代计算需求下的局限性。它不仅兼容NumPy的API,还引入了自动微分、GPU/TPU加速和即时编译(JIT)等关键功能,显著提升了计算效率。JAX适用于机器学习、科学模拟等需要大规模计算和梯度优化的场景,为Python在高性能计算领域开辟了新路径。
  • 08.11 21:16:19
    发表了文章 2025-08-11 21:16:19

    提升LangChain开发效率:10个被忽视的高效组件,让AI应用性能翻倍

    LangChain作为主流大语言模型应用框架,其高级组件常被忽视。本文详解10个高价值但低使用率的核心组件,如语义检索、多模板路由、智能查询转换等,结合技术原理与实践案例,助开发者构建更高效、智能、适应性强的AI系统,提升应用性能与业务价值。
  • 08.10 20:10:44
    发表了文章 2025-08-10 20:10:44

    大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案

    大型动作模型(LAMs)作为人工智能新架构,融合神经网络与符号逻辑,实现企业重复任务的自动化处理。通过神经符号集成、动作执行管道、模式学习、任务分解等核心技术,系统可高效解析用户意图并执行复杂操作,显著提升企业运营效率并降低人工成本。其自适应学习能力与上下文感知机制,使自动化流程更智能、灵活,为企业数字化转型提供坚实支撑。
  • 08.09 18:33:19
    发表了文章 2025-08-09 18:33:19

    使用LangGraph从零构建多智能体AI系统:实现智能协作的完整指南

    本文将通过构建AI研究助手的完整案例,展示如何使用LangGraph框架实现这种架构转变,从理论基础到具体实现,帮助你掌握下一代AI系统的构建方法。
  • 08.08 20:15:00
    发表了文章 2025-08-08 20:15:00

    PCA多变量离群点检测:Hotelling's T2与SPE方法原理及应用指南

    主成分分析(PCA)是一种经典的无监督降维方法,广泛应用于多变量异常值检测。它通过压缩数据维度并保留主要信息,提升检测效率,同时支持可视化与可解释性分析。本文系统讲解基于PCA的异常检测原理,重点介绍霍特林T²统计量与SPE/DmodX方法,并结合葡萄酒与学生成绩数据集,演示连续变量与分类变量的实际建模过程。通过Python实现,展示如何识别并可视化异常样本,提升异常检测的准确性与理解深度。
  • 08.07 20:44:44
    发表了文章 2025-08-07 20:44:44

    论文解读:单个标点符号如何欺骗LLM,攻破AI评判系统

    可验证奖励强化学习(RLVR)通过规则函数或LLM评判器提供奖励信号,训练策略模型生成与参考答案一致的响应。研究发现,某些无意义模式(如标点或推理引导语)可误导评判器产生误判,称为“万能钥匙”攻击。为此,提出Master-RM模型,结合对抗训练有效抵御此类攻击,显著降低误报率,同时保持高性能与通用性。
  • 08.06 20:21:20
    发表了文章 2025-08-06 20:21:20

    普通电脑也能跑AI:10个8GB内存的小型本地LLM模型推荐

    随着模型量化技术的发展,大语言模型(LLM)如今可在低配置设备上高效运行。本文介绍本地部署LLM的核心技术、主流工具及十大轻量级模型,探讨如何在8GB内存环境下实现高性能AI推理,涵盖数据隐私、成本控制与部署灵活性等优势。
  • 08.05 19:37:55
    发表了文章 2025-08-05 19:37:55

    使用 BAML 模糊解析改进 LangChain 知识图谱提取:成功率从25%提升到99%

    在构建基于知识图谱的检索增强生成(RAG)系统时,从非结构化数据中准确提取节点和关系是一大挑战,尤其在使用小型本地量化模型时表现更差。本文对比了传统 LangChain 提取框架的严格 JSON 解析限制,提出采用 BAML 的模糊解析策略,显著提升知识图谱提取成功率。实验表明,在相同条件下,BAML 将成功率从约 25% 提升至 99% 以上,为构建高效、稳定的 RAG 系统提供了有效解决方案。
  • 08.04 19:28:01
    发表了文章 2025-08-04 19:28:01

    TorchDynamo源码解析:从字节码拦截到性能优化的设计与实践

    本文深入解析PyTorch中TorchDynamo的核心架构与实现机制,结合源码分析,为开发者提供基于Dynamo扩展开发的技术指导。内容涵盖帧拦截、字节码分析、FX图构建、守卫机制、控制流处理等关键技术,揭示其动态编译优化原理与挑战。
  • 08.03 19:35:21
    发表了文章 2025-08-03 19:35:21

    NSA稀疏注意力深度解析:DeepSeek如何将Transformer复杂度从O(N²)降至线性,实现9倍训练加速

    本文将深入分析NSA的架构设计,通过详细的示例、可视化展示和数学推导,构建对其工作机制的全面理解,从高层策略到底层硬件实现均有涉及。
  • 08.02 20:08:33
    发表了文章 2025-08-02 20:08:33

    从零开始构建AI Agent评估体系:12种LangSmith评估方法详解

    AI Agent的评估需覆盖其整个生命周期,从开发到部署,综合考量事实准确性、推理路径、工具选择、结构化输出、多轮对话及实时性能等维度。LangSmith作为主流评估平台,提供了一套全面的评估框架,支持12种评估技术,包括基于标准答案、程序性分析及观察性评估。这些技术可有效监控Agent各组件表现,确保其在真实场景中的稳定性和可靠性。
  • 08.01 18:33:48
    发表了文章 2025-08-01 18:33:48

    GSPO:Qwen让大模型强化学习训练告别崩溃,解决序列级强化学习中的稳定性问题

    这是7月份的一篇论文,Qwen团队提出的群组序列策略优化算法及其在大规模语言模型强化学习训练中的技术突破

2025年07月

  • 07.31 19:24:42
    发表了文章 2025-07-31 19:24:42

    解决提示词痛点:用AI智能体自动检测矛盾、优化格式的完整方案

    本文介绍了一种基于用户意图的提示词优化系统,利用多智能体架构实现自动化优化,提升少样本学习场景下的提示词质量与模型匹配度。系统通过专用智能体协同工作,识别并修复逻辑矛盾、格式不清及示例不一致等问题,结合Pydantic结构化数据模型与OpenAI评估框架,实现高效、可扩展的提示词优化流程。该方案显著减少了人工干预,增强了系统效率与输出一致性,适用于复杂研究任务与深度AI应用。
  • 07.30 19:51:47
    发表了文章 2025-07-30 19:51:47

    从训练到推理:Intel Extension for PyTorch混合精度优化完整指南

    PyTorch作为主流深度学习框架,凭借动态计算图和异构计算支持,广泛应用于视觉与自然语言处理。Intel Extension for PyTorch针对Intel硬件深度优化,尤其在GPU上通过自动混合精度(AMP)提升训练与推理性能。本文以ResNet-50在CIFAR-10上的实验为例,详解如何利用该扩展实现高效深度学习优化。
  • 发表了文章 2025-11-06

    Python因果分析选哪个?六个贝叶斯推断库实测对比(含代码示例)

  • 发表了文章 2025-11-05

    提升回归模型可信度:4种神经网络不确定性估计方法对比与代码实现

  • 发表了文章 2025-11-04

    从零实现3D Gaussian Splatting:完整渲染流程的PyTorch代码详解

  • 发表了文章 2025-11-03

    FastMCP 入门:用 Python 快速搭建 MCP 服务器接入 LLM

  • 发表了文章 2025-11-02

    LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制

  • 发表了文章 2025-11-01

    解决GRPO优势归因错误,Chunk-GRPO让文生图模型更懂"节奏"

  • 发表了文章 2025-10-31

    打造自己的 Claude Code:LangGraph + MCP 搭建一个极简的 AI 编码助手

  • 发表了文章 2025-10-30

    sklearn 特征选择实战:用 RFE 找到最优特征组合

  • 发表了文章 2025-10-29

    Optuna  AutoSampler 更新:让多目标和约束优化不再需要手动选算法

  • 发表了文章 2025-10-28

    构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例

  • 发表了文章 2025-10-27

    Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题

  • 发表了文章 2025-10-26

    大模型强化学习的熵控制:CE-GPPO、EPO与AsyPPO技术方案对比详解

  • 发表了文章 2025-10-25

    LLM安全新威胁:为什么几百个毒样本就能破坏整个模型

  • 发表了文章 2025-10-24

    vLLM 性能优化实战:批处理、量化与缓存配置方案

  • 发表了文章 2025-10-23

    HNSW算法实战:用分层图索引替换k-NN暴力搜索

  • 发表了文章 2025-10-22

    AutoGen框架入门:5个核心概念搭建智能体协作系统

  • 发表了文章 2025-10-21

    深入BERT内核:用数学解密掩码语言模型的工作原理

  • 发表了文章 2025-10-20

    LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

  • 发表了文章 2025-10-19

    如何生成逼真的合成表格数据:独立采样与关联建模方法对比

  • 发表了文章 2025-10-18

    开源嵌入模型对比:让你的RAG检索又快又准

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息