Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区1183

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1651篇文章
371条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2026年03月

  • 03.05 20:49:43
    发表了文章 2026-03-05 20:49:43

    大模型训练的硬件基础:GPU内存层级、分块与并行策略

    本文深入解析GPU加速大模型训练的核心原理与五大优化技巧:低精度计算、算子融合、重计算、内存合并访问与分块,进而详解FlashAttention的在线softmax实现;并系统对比数据并行(含ZeRO各阶段)、流水线并行与张量并行等多级并行策略,揭示如何突破内存与带宽瓶颈,高效扩展至万卡规模。
  • 03.04 19:37:44
    发表了文章 2026-03-04 19:37:44

    贝叶斯公式推导:从联合概率的对称性看条件反转

    本文以双盒取球为例,直观讲解概率基础:从简单概率(P(A)=1/2)出发,引入条件概率(P(R|A)=3/4),再自然导出贝叶斯定理(P(A|R)=P(R|A)P(A)/P(R))。全程避免复杂数学,强调“全集切分—视角转换”这一核心思想,让逆向推理清晰可感。
  • 03.03 21:06:48
    发表了文章 2026-03-03 21:06:48

    KV Cache管理架构演进:从连续分配到统一混合内存架构

    本文系统梳理KV Cache管理演进的5个时代(从无到统一内存架构),剖析vLLM、SGLang、TensorRT-LLM等框架在各阶段的技术取舍与实践效果,涵盖连续缓存、PagedAttention、异构/分布式/统一混合架构等关键突破,助你为不同场景(文本、多模态、长上下文、混合模型)选择最优方案。
  • 03.02 21:17:49
    发表了文章 2026-03-02 21:17:49

    PhysioDSP:一个面向可穿戴设备的 Python 信号处理库

    PhysioDSP 是一个开源Python库,旨在统一可穿戴设备生理信号处理流程。它提供类型安全、可复现的算法框架,支持ECG、HRV及加速度计等多模态数据,内置活动分析、QRS检测与HRV评分模块,接口标准化,易于扩展与集成。
  • 03.01 21:47:31
    发表了文章 2026-03-01 21:47:31

    VAE 原理拆解:从概率编码到潜在空间正则化

    本文深入浅出拆解VAE构建全流程,聚焦实现、训练、调试与部署,而非纯数学推导。逐行解读PyTorch最小实现,详解编码器、重参数化、解码器三大组件及损失设计,并系统介绍训练后五大推理模式:异常检测、生成合成数据、条件生成、潜在空间分析与数据填补。

2026年02月

  • 02.28 20:44:00
    发表了文章 2026-02-28 20:44:00

    基于能量的模型(EBM):用能量函数替代概率分布的建模框架

    Yann LeCun指出,当前LLM逐Token预测的路径难达人类级AI;其团队力推基于能量的模型(EBM)——不依赖Softmax归一化,以“能量”度量兼容性,支持多峰建模、连续优化与世界模型构建,为通用智能提供新范式。
  • 02.27 21:20:32
    发表了文章 2026-02-27 21:20:32

    时间序列异常检测的5种方法:从统计阈值到深度学习

    时间序列异常检测旨在识别偏离正常规律的数据点,如凌晨流量突增、传感器骤降等。因数据含趋势、季节性与噪声,需结合统计法(Z-Score)、移动平均、季节分解、Isolation Forest或自编码器等方法,多策略融合可有效降低误报。
  • 02.26 21:24:28
    发表了文章 2026-02-26 21:24:28

    从提示工程转向 上下文工程,6种让LLM在生产环境中稳定输出的技术

    本文系统阐述“上下文工程”(Context Engineering)——生产级AI系统的核心能力。它不依赖提示词优化,而是通过选择性检索、上下文压缩、层次化布局、动态查询重构、记忆注入与工具感知六大技术,精准控制模型在运行时“看到什么、何时看、如何看”,从而根治幻觉、提升准确率、降低Token消耗,让小模型也能稳定输出高质量结果。
  • 02.25 19:53:22
    发表了文章 2026-02-25 19:53:22

    向量搜索系统的三个核心优化维度:速度、精度与规模

    本文探讨大规模向量搜索的三大核心优化:性能调优(ANN、IVF、HNSW、量化压缩、GPU加速)、混合搜索(关键词+语义加权融合)与可扩展架构(分片、分布式、缓存),解决亿级向量下“又快又准”的工程难题。
  • 02.24 20:58:37
    发表了文章 2026-02-24 20:58:37

    手把手搭建 Adaptive RAG 系统:从向量检索到 Streamlit 前端全流程

    本文带你从零构建端到端AI技术支持助手POC:基于Adaptive RAG动态调整检索深度,LangGraph编排有状态多步推理,FastAPI提供高性能API,Streamlit实现交互式前端——理论落地,开箱即用。
  • 02.23 20:49:44
    发表了文章 2026-02-23 20:49:44

    深入理解三种PEFT方法:LoRA的低秩更新、QLoRA的4位量化与DoRA的幅度-方向分解

    大模型全量微调显存开销巨大(65B模型需130GB),参数高效微调(PEFT)应运而生。LoRA通过低秩矩阵增量更新,节省99%+参数;QLoRA结合4-bit量化(NF4)与LoRA,单卡48GB即可微调65B模型;DoRA进一步解耦权重的幅度与方向,精度显著超越LoRA。三者协同构建高效、低成本、高性能的微调新范式。
  • 02.22 21:47:01
    发表了文章 2026-02-22 21:47:01

    并行多智能体系统的协调测试实战:从轨迹捕获到CI/CD的六个步骤

    本文探讨并行多智能体系统的协调测试难题:当多个LLM驱动的智能体协同决策时,单个正确≠集体安全。传统单元测试失效,需构建以轨迹捕获、行为不变量、回放回归、黄金数据集和CI/CD集成为核心的新型测试框架,专治容量超限、状态陈旧、 reducer 冲突等典型协调故障。
  • 02.21 21:02:40
    发表了文章 2026-02-21 21:02:40

    RAG 中分块重叠的 8 个隐性开销与权衡策略

    本文深入剖析RAG中分块重叠的8大隐藏成本:索引膨胀、Embedding重复收费、检索多样性下降、重排序负载激增、LLM上下文冗余、缓存失效、评估结果漂移及运维风险上升。揭示重叠并非“免费午餐”,而是贯穿全链路的隐性开销。
  • 02.20 21:03:38
    发表了文章 2026-02-20 21:03:38

    深入RAG架构:分块策略、混合检索与重排序的工程实现

    本文详解RAG系统从Demo迈向生产需攻克的5个关键层级:基础向量检索(Level 1)、智能分块与元数据增强(Level 2)、混合搜索(语义+关键词,Level 3)、交叉编码器重排序(Level 4),以及生产级护栏、评估与兜底机制(Level 5)。强调“不编造、可验证、易诊断”,聚焦真实故障场景与可落地优化。
  • 02.19 22:19:51
    发表了文章 2026-02-19 22:19:51

    AI Agent技术栈:10个构建生产级Agent的核心概念

    本文揭示Agentic AI稳定运行的核心不在大模型或提示词,而在于系统设计。文章精炼总结10个关键基础概念:MCP插件协议、推理循环、记忆机制、安全护栏、工具发现、错误恢复、人机协同、上下文工程、状态管理与运行时编排,直击Agent工程化落地痛点。
  • 02.18 21:58:58
    发表了文章 2026-02-18 21:58:58

    长上下文"记忆"的舒适陷阱:为什么更多记忆不等于更可靠

    本文警示长上下文的隐性风险:它虽提升交互顺手度,却严重损害可靠性、可测试性与可重复性;共享账户导致意图混杂,“我是谁”故障频发;向量平均无法调和对立目标;上下文膨胀引发注意力稀释、幻觉加剧与约束遗忘。生产中须以预算制、会话隔离、结构化记忆和可控重置进行主动治理。
  • 02.16 22:01:52
    发表了文章 2026-02-16 22:01:52

    超越上下文窗口:CodeAct与RLM,两种代码驱动的LLM扩展方案

    本文介绍CodeAct与RLM两大前沿范式:CodeAct让模型用可执行代码调用工具,缓解Context Rot,提升多工具任务成功率;RLM则通过递归分解超长上下文,将推理转化为编程式搜索。二者分别重构“动作空间”与“推理结构”,共同推动LLM从黑箱生成器迈向可编程智能体。
  • 02.15 22:46:42
    发表了文章 2026-02-15 22:46:42

    15 分钟用 FastMCP 搭建你的第一个 MCP Server(附完整代码)

    Model Context Protocol(MCP)是一个轻量开放标准,让LLM能统一、可靠地调用外部工具。无需手写解析逻辑或维护胶水代码。核心仅三概念:Server(暴露工具)、Tool(带装饰器的函数)、Client(调用方)。FastMCP框架15分钟即可上手,支持stdio快速测试、HTTP生产部署,真正实现“写一次,随处调用”。
  • 02.14 20:26:55
    发表了文章 2026-02-14 20:26:55

    Prompt 缓存的四种策略:从精确匹配到语义检索

    本文详解Prompt缓存四大策略(精确匹配、规范化、语义相似、分层架构),直击LLM应用成本痛点——重复调用导致API费用飙升。代码示例+架构图,助你低成本提升命中率,降本30%–90%,延迟同步优化。
  • 02.13 21:33:50
    发表了文章 2026-02-13 21:33:50

    RAG 文本分块:七种主流策略的原理与适用场景

    分块是RAG系统的基石,直接影响检索质量与LLM推理效果。行业共识:“分块决定RAG质量的70%”。从固定大小、句子/段落级,到语义、递归、滑动窗口及层次化分块,策略需匹配文档类型与任务需求。劣质分块导致上下文断裂、噪声激增、幻觉频发——燃料不行,再强的引擎也徒劳。
  • 02.12 20:52:57
    发表了文章 2026-02-12 20:52:57

    LLM创造力可以被度量吗?一个基于提示词变更的探索性实验

    本文探讨提示词工程为何仍是“玄学”,并通过实验证明:加入明确指令(如“Be as creative as possible”)可显著、可量化地提升LLM输出多样性,效果甚至超过调高温度。研究以embedding距离为代理指标,覆盖13个主流模型,揭示提示词迭代可度量、可预测,为LLM应用从经验走向工程化提供新路径。
  • 02.11 21:39:52
    发表了文章 2026-02-11 21:39:52

    Agent Lightning:微软开源的框架无关 Agent 训练方案,LangChain/AutoGen 都能用

    Agent Lightning 是微软推出的开源工具,专攻AI Agent“训练鸿沟”——无需修改代码,即可为LangChain、AutoGen等任意框架注入强化学习、Prompt优化与微调能力,让Agent在真实交互中持续进化。
  • 02.10 21:35:07
    发表了文章 2026-02-10 21:35:07

    软件工程原则在多智能体系统中的应用:分层与解耦

    本文探讨多智能体系统的工程化架构设计,以YouTube视频信息提取项目为例,提出分层架构(呈现层、智能体层、工具层、服务层、模型层、基础设施层),强调工具(LLM适配器)与服务(业务逻辑)的严格分离,并引入领域驱动设计思想,实现可维护、可测试、可扩展的智能体系统。
  • 02.09 20:38:09
    发表了文章 2026-02-09 20:38:09

    一分钟训练搞懂 DPPO:把扩散过程建模为 MDP 的强化学习方法

    本文以二维环形环境为简化平台,探究DPPO(扩散策略策略优化)算法的训练机制:将扩散去噪过程建模为MDP,用PPO微调单条轨迹,分析KL约束、微调步数、eps clip与学习率等对行为分布与收敛性的影响,揭示RL+扩散在机器人策略优化中的关键挑战与设计权衡。
  • 02.08 21:05:15
    发表了文章 2026-02-08 21:05:15

    从零开始用自定义 Triton 内核编写 FlashAttention-2

    本文实现了FlashAttention-2前向传播:通过分块Q/K/V、流式处理K/V避免物化大矩阵,采用在线softmax保障数值稳定,支持因果/非因果模式,并用Triton autotuner调优、PyTorch验证。核心是IO感知设计,将内存复杂度从O(N²)降至O(N),显著提升长序列吞吐量。
  • 02.07 21:25:11
    发表了文章 2026-02-07 21:25:11

    机器学习特征工程:分类变量的数值化处理方法

    分类特征编码是机器学习关键却常被低估的环节。Ordinal Encoding适用于有序类别(如学历),One-Hot Encoding消除顺序假象但易致维度爆炸,Target Encoding则通过目标均值处理高基数特征,需配合平滑与交叉验证防过拟合与数据泄露。
  • 02.06 20:42:38
    发表了文章 2026-02-06 20:42:38

    LLM推理时计算技术详解:四种提升大模型推理能力的方法

    2025年LLM发展新趋势:不卷训练,专攻推理!本文详解四大推理时计算技术——Chain-of-Thought(深度)、Self-Consistency(宽度)、Tree-of-Thoughts(搜索)、Reflexion/Self-Refine(迭代),配可运行代码与实战对比,助你在不重训模型前提下显著提升性能。
  • 02.05 22:51:26
    发表了文章 2026-02-05 22:51:26

    分类数据 EDA 实战:如何发现隐藏的层次结构

    本文揭示EDA核心:分类变量(如city、category)表面扁平,实则藏有收入层级、价值模式、时空分布等隐藏层次结构。通过频率vs价值分析、嵌套交叉、时间拆解与交互可视化,教你用Python挖掘真实结构,避免被数据表象欺骗,提升分析深度与建模质量。
  • 02.04 20:45:16
    发表了文章 2026-02-04 20:45:16

    Daggr:介于 Gradio 和 ComfyUI 之间的 AI 工作流可视化方案

    Daggr 是一款代码优先的 Python 库,专为调试复杂 AI 工作流而生。它将 Python 定义的 Gradio/模型调用等节点自动转为可交互可视化图,支持实时查看中间状态、单独重跑节点、追溯历史输入输出,告别 print 调试与状态迷失。
  • 02.03 22:18:08
    发表了文章 2026-02-03 22:18:08

    torch.compile 加速原理:kernel 融合与缓冲区复用

    PyTorch即时执行模式因频繁kernel启动和重复显存搬运导致内存带宽瓶颈,GPU算力利用率低。`torch.compile`通过TorchDynamo捕获FX图、TorchInductor实现操作融合、缓冲区复用与Triton自动调优,显著降低VRAM访问次数。官方测试显示平均加速20%–36%,一行代码即可启用,大幅提升推理吞吐与能效。
  • 02.02 21:05:24
    发表了文章 2026-02-02 21:05:24

    LangGraph 入门:用图结构构建你的第一个多智能体工作流

    LangGraph 是面向多智能体系统的图编排框架,以有向状态图替代线性链式调用。通过节点(智能体)、边(条件/静态跳转)和类型化共享状态三者解耦,天然支持分支、循环、并行与汇合;内置检查点、原子状态更新与Reducer机制,保障一致性、可调试性与容错恢复能力。
  • 02.01 21:06:56
    发表了文章 2026-02-01 21:06:56

    让 AI 智能体学会自我进化:Agent Lightning 实战入门

    Agent Lightning 是一个框架无关的强化学习包装层,赋能现有AI智能体实现在线持续学习。它解耦执行与训练,支持LangChain/AutoGen等任意框架,通过VERL算法解决稀疏奖励难题,让智能体从运行反馈中自动优化提示词与策略。

2026年01月

  • 01.31 21:31:09
    发表了文章 2026-01-31 21:31:09

    用 PyTorch 实现 LLM-JEPA:不预测 token,预测嵌入

    本文从零实现LLM-JEPA:将大语言模型与联合嵌入预测架构(JEPA)结合。通过span遮蔽构造context/target双视图,用可训练编码器预测目标编码器在遮蔽位置的归一化嵌入,以余弦距离为对齐损失,并通过EMA稳定训练。代码简洁清晰,逐行注释,助你深入理解JEPA核心思想。
  • 01.30 22:25:08
    发表了文章 2026-01-30 22:25:08

    大模型如何训练百万 Token 上下文:上下文并行与 Ring Attention

    上下文窗口暴增至千万级,但硬件难承其重:405B模型单精度权重就需6.5TB内存。为突破显存瓶颈,上下文并行与Ring Attention应运而生——将长序列切分至多卡,边传边算;Zig-Zag分配更实现因果注意力下的负载均衡。高速互连(NVLink/InfiniBand)已成刚需。
  • 01.29 21:18:45
    发表了文章 2026-01-29 21:18:45

    让 Q 值估计更准确:从 DQN 到 Double DQN 的改进方案

    本文深入剖析DQN的过估计偏差根源,系统讲解Double DQN(解耦动作选择与评估)、Dueling DQN(分离状态值与动作优势)、优先经验回放(按TD误差智能采样)三大核心改进,并用PyTorch从零实现,最后对比CleanRL专业实现,助你扎实掌握强化学习进阶技巧。
  • 01.28 21:42:23
    发表了文章 2026-01-28 21:42:23

    Claude Code子代理实战:10个即用模板分享

    Claude Code单次泛化指令易失效?作者提出“子代理”理念:为AI分配专属角色(如重构专家、测试员、安全审查员),每代理专注一事、规则明确、输出可控。10个实战模板覆盖开发全链路,让AI协作更接近真实工程团队——专注比全能更可靠。
  • 01.27 21:53:08
    发表了文章 2026-01-27 21:53:08

    pandas 3.0 内存调试指南:学会区分真假内存泄漏

    本文揭秘pandas“内存不释放”的常见误解:非泄漏,实为CoW共享、Arrow缓冲池、视图隐式引用及分配器延迟归还OS内存所致。RSS≠真实占用,排查需结合tracemalloc、objgraph与原生指标,核心是管控引用生命周期。
  • 01.26 21:40:35
    发表了文章 2026-01-26 21:40:35

    用 PydanticAI 让 LLM 输出变成可信赖的 Python 对象

    本文介绍PydanticAI——专治LLM输出“差不多但不对”的类型安全方案。它将AI响应直接转为经验证的Python对象,杜绝字段错、类型乱、key多等顽疾;与CrewAI深度协同,前者保障数据契约,后者专注任务编排,显著提升Agent系统稳定性与可维护性。
  • 01.25 20:50:59
    发表了文章 2026-01-25 20:50:59

    为什么标准化要用均值0和方差1?

    标准化将均值设为0,使数据居中于原点,提升梯度下降收敛速度;方差设为1,则统一各特征量纲,避免数值大的特征主导模型。二者协同确保算法训练更高效、公平。
  • 01.24 22:37:01
    发表了文章 2026-01-24 22:37:01

    知识图谱的可验证性:断言图谱的设计原理

    本文剖析大语言模型在知识图谱构建中的根本局限:生成式架构与结构化提取存在本质错位,导致实体消歧难、幻觉频发、上下文割裂。提出以判别式模型构建可验证的“断言知识图谱”为基石,再按需融合分类学扩展、规则推理、链接预测等增强策略,实现高质、可信、可解释的生产级知识图谱。
  • 01.23 20:10:00
    发表了文章 2026-01-23 20:10:00

    OPIK:一个开源的自动提示词优化框架

    本文介绍如何用OPIK的MetaPromptOptimizer实现自动提示词优化,通过几轮迭代将大模型在复杂推理任务上的准确率从34%提升至97%。详解环境搭建、代码实现及优缺点,展示如何让LLM自我改进提示词,大幅提升效率与性能,推动提示工程迈向自动化。
  • 01.22 22:45:57
    发表了文章 2026-01-22 22:45:57

    RAG 检索模型如何学习:三种损失函数的机制解析

    本文探讨Agent时代下检索模型的持续重要性,聚焦RAG中核心组件——检索嵌入模型的三种训练方法:Pairwise Cosine Embedding Loss、Triplet Margin Loss与InfoNCE Loss,并基于实验对比其适用场景与效果。(239字)
  • 01.21 21:54:03
    发表了文章 2026-01-21 21:54:03

    对抗样本:20行Python代码让95%准确率的图像分类器彻底失效

    本文揭示深度学习模型在高准确率背后隐藏的脆弱性:通过FGSM等方法生成的微小对抗扰动,可令VGG、ResNet等模型将法斗误判为足球。Grad-CAM显示模型注意力被补丁劫持,暴露出其依赖统计捷径而非语义理解的本质。
  • 01.20 20:57:22
    发表了文章 2026-01-20 20:57:22

    使用 tsfresh 和 AutoML 进行时间序列特征工程

    时间序列无处不在,从心跳到股价再到文本。本文探讨如何结合AutoML与tsfresh自动化提取时序特征,提升多步预测与文本分类性能,并分享实用工作流程与案例研究。
  • 01.19 22:06:43
    发表了文章 2026-01-19 22:06:43

    用提示工程让大模型自己检查自己:CoVe方法有效减少幻觉

    Chain-of-Verification(CoVe)通过“起草-验证-修复”四步流程,让大模型自我纠错幻觉。关键在于隔离验证:隐去初稿,迫使模型独立核查事实,避免自我强化错误。适用于模型应知但易错的场景,与RAG互补。虽增加延迟与成本,却为高可靠性任务提供保障,是迈向“系统2思维”的重要一步。
  • 01.18 20:20:28
    发表了文章 2026-01-18 20:20:28

    为什么所有主流LLM都使用SwiGLU?

    本文解析现代大语言模型为何用SwiGLU替代ReLU。SwiGLU结合Swish与门控机制,通过乘法交互实现特征组合,增强表达能力;其平滑性与非饱和梯度利于优化,相较ReLU更具优势。
  • 01.17 22:19:42
    发表了文章 2026-01-17 22:19:42

    多智能体强化学习(MARL)核心概念与算法概览

    多智能体强化学习(MARL)研究多个智能体在共享环境中协同或竞争的决策问题。每个智能体拥有局部观测、独立策略,且环境因其他智能体的学习而动态变化,导致非平稳性、信用分配难、协调复杂等挑战。广泛应用包括交通控制、机器人协作、广告竞价等。常用方法如IQL、VDN、QMIX、MADDPG、MAPPO等,结合集中训练分布式执行(CTDE)提升稳定性。通过简单协调游戏可窥见MARL核心机制:智能体需在探索与协调间平衡,以涌现合作行为。
  • 01.16 20:37:22
    发表了文章 2026-01-16 20:37:22

    LLM多跳推理深度测试:四项指标精准定位模型的推理极限

    本文探讨大模型在多步推理中的表现,通过四项压力测试对比Llama 3.2与Qwen 3的逻辑极限。分析揭示:Llama 3.2依赖预训练内化的直觉推理,稳定高效;Qwen 3则靠“自我对话”推进复杂任务,虽具思考深度但易受算术错误影响,深层推理易崩溃。两者适用于不同场景——速度优先选Llama,探索性任务可试Qwen。
  • 01.15 22:45:23
    发表了文章 2026-01-15 22:45:23

    Agentic Memory 实践:用 agents.md 实现 LLM 持续学习

    利用 agents.md 文件实现LLM持续学习,让AI Agent记住你的编程习惯、偏好和常用信息,避免重复指令,显著提升效率。每次交互后自动归纳经验,减少冷启动成本,跨工具通用,是高效工程师的必备技能。
  • 01.14 21:15:37
    发表了文章 2026-01-14 21:15:37

    CALM模型的黑盒采样:用碰撞方法实现温度调节

    本文提出一种无需显式概率的温度控制方法,解决连续自回归语言模型(CALM)因缺乏logits而无法传统调温的问题。通过碰撞采样、指数分解与批量近似技术,仅用样本即可实现对生成分布的尖锐或发散调控,补全了CALM可控生成的最后一块拼图,并适用于各类隐式生成模型。
  • 发表了文章 2026-03-05

    大模型训练的硬件基础:GPU内存层级、分块与并行策略

  • 发表了文章 2026-03-04

    贝叶斯公式推导:从联合概率的对称性看条件反转

  • 发表了文章 2026-03-03

    KV Cache管理架构演进:从连续分配到统一混合内存架构

  • 发表了文章 2026-03-02

    PhysioDSP:一个面向可穿戴设备的 Python 信号处理库

  • 发表了文章 2026-03-01

    VAE 原理拆解:从概率编码到潜在空间正则化

  • 发表了文章 2026-02-28

    基于能量的模型(EBM):用能量函数替代概率分布的建模框架

  • 发表了文章 2026-02-27

    时间序列异常检测的5种方法:从统计阈值到深度学习

  • 发表了文章 2026-02-26

    从提示工程转向 上下文工程,6种让LLM在生产环境中稳定输出的技术

  • 发表了文章 2026-02-25

    向量搜索系统的三个核心优化维度:速度、精度与规模

  • 发表了文章 2026-02-24

    手把手搭建 Adaptive RAG 系统:从向量检索到 Streamlit 前端全流程

  • 发表了文章 2026-02-24

    深入理解三种PEFT方法:LoRA的低秩更新、QLoRA的4位量化与DoRA的幅度-方向分解

  • 发表了文章 2026-02-23

    并行多智能体系统的协调测试实战:从轨迹捕获到CI/CD的六个步骤

  • 发表了文章 2026-02-22

    RAG 中分块重叠的 8 个隐性开销与权衡策略

  • 发表了文章 2026-02-21

    深入RAG架构:分块策略、混合检索与重排序的工程实现

  • 发表了文章 2026-02-20

    AI Agent技术栈:10个构建生产级Agent的核心概念

  • 发表了文章 2026-02-19

    长上下文"记忆"的舒适陷阱:为什么更多记忆不等于更可靠

  • 发表了文章 2026-02-17

    超越上下文窗口:CodeAct与RLM,两种代码驱动的LLM扩展方案

  • 发表了文章 2026-02-16

    15 分钟用 FastMCP 搭建你的第一个 MCP Server(附完整代码)

  • 发表了文章 2026-02-14

    Prompt 缓存的四种策略:从精确匹配到语义检索

  • 发表了文章 2026-02-13

    RAG 文本分块:七种主流策略的原理与适用场景

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息