Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区1064

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1533篇文章
357条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2025年11月

  • 11.05 19:37:38
    发表了文章 2025-11-05 19:37:38

    提升回归模型可信度:4种神经网络不确定性估计方法对比与代码实现

    回归任务中,模型常只输出预测值而忽略不确定性,带来潜在风险。本文对比四种神经网络不确定性估计方法:均值+对数标准差、均值+对数方差、MC Dropout与简化PPO。实验表明,前两者在混凝土强度数据上表现最佳,能有效识别可靠预测,而PPO效果不佳。准确评估不确定性对医疗、自动驾驶等高风险领域至关重要。
  • 11.04 20:53:54
    发表了文章 2025-11-04 20:53:54

    从零实现3D Gaussian Splatting:完整渲染流程的PyTorch代码详解

    3D高斯溅射(3DGS)正成为3D视觉新标准,广泛应用于AR/VR与实时渲染。本文用PyTorch在几百行代码内实现其核心渲染流程,涵盖投影、排序、分块与合成分步,效果媲美SOTA,助力快速理解与落地。
  • 11.03 19:57:24
    发表了文章 2025-11-03 19:57:24

    FastMCP 入门:用 Python 快速搭建 MCP 服务器接入 LLM

    MCP协议为大语言模型连接外部工具与数据提供标准化方案,FastMCP是其Python最佳实践框架。本文详解MCP核心概念,演示如何用FastMCP快速搭建支持工具调用、资源访问与身份认证的MCP服务器,并集成至LLM应用,实现AI智能体与真实世界的高效交互。
  • 11.02 18:28:16
    发表了文章 2025-11-02 18:28:16

    LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制

    LangChain v1.0 引入中间件机制,系统化解决上下文管理难题。通过模块化中间件,实现输入预处理、敏感信息过滤、工具权限控制等,提升Agent在生产环境的稳定性与可维护性。
  • 11.01 18:52:38
    发表了文章 2025-11-01 18:52:38

    解决GRPO优势归因错误,Chunk-GRPO让文生图模型更懂"节奏"

    文本到图像模型飞速发展,但如何精准对齐人类偏好仍是难题。清华与快手提出Chunk-GRPO,通过“分块优化”替代逐步行更新,结合时间动态划分生成阶段,有效缓解优势归因错误,提升图像质量与训练稳定性,推动AI更懂审美与构图。

2025年10月

  • 10.31 18:22:06
    发表了文章 2025-10-31 18:22:06

    打造自己的 Claude Code:LangGraph + MCP 搭建一个极简的 AI 编码助手

    本文通过构建一个极简CLI编码代理,探索LangGraph与MCP服务器的底层机制。摒弃商业代理的复杂封装,验证“裸机”LLM代理在无限循环中调用工具的可行性。集成文件操作、网络搜索、GitHub交互等MCP工具,结合Pytest自动化测试与SQLite状态持久化,实现可观察、可调试的智能编码工作流,揭示模型上下文协议的核心价值与实践挑战。
  • 10.30 18:41:05
    发表了文章 2025-10-30 18:41:05

    sklearn 特征选择实战:用 RFE 找到最优特征组合

    特征越多模型未必越好,过多特征易导致过拟合、训练慢、难解释。递归特征消除(RFE)通过反复训练与特征评分,逐步剔除不重要特征,提升模型泛化能力与效率。本文详解RFE原理,并用scikit-learn实战葡萄酒数据集,展示如何结合逻辑回归与随机森林进行特征选择,比较不同模型的筛选差异,并通过RFECV自动确定最优特征数量,辅以可视化分析,帮助构建更简洁、高效、可解释的模型。
  • 10.29 18:42:20
    发表了文章 2025-10-29 18:42:20

    Optuna  AutoSampler 更新:让多目标和约束优化不再需要手动选算法

    AutoSampler 是 OptunaHub 热门智能采样器,下载量超 3 万/周。新版支持多目标与约束优化,自动选择 TPE、GPSampler、NSGA-II/III 等算法。基于搜索空间、目标数等特征动态切换,性能优于默认采样器。适配 Optuna v4.6,安装便捷,助力高效自动化调参。
  • 10.28 19:05:22
    发表了文章 2025-10-28 19:05:22

    构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例

    本文介绍如何为AI Agent构建记忆系统,通过SQLite存储交互历史、向量数据库实现语义检索,结合LLM反思与总结,赋予Agent跨会话记忆、自我反思和目标追踪能力,使其从被动应答工具进化为可长期协作的智能伙伴。
  • 10.27 19:33:31
    发表了文章 2025-10-27 19:33:31

    Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题

    Pandas可空数据类型(如Int64、boolean、string)解决NaN导致的类型退化与逻辑混乱问题,统一用pd.NA表示缺失,支持三值逻辑,提升数据清洗可靠性与代码可读性。
  • 10.26 19:08:15
    发表了文章 2025-10-26 19:08:15

    大模型强化学习的熵控制:CE-GPPO、EPO与AsyPPO技术方案对比详解

    近期LLM强化学习进展迅速,CE-GPPO、EPO与AsyPPO三篇论文从梯度恢复、时序平滑与非对称critic集成等角度,分别解决熵控难题,共同推动大规模推理模型训练方法革新。
  • 10.25 19:01:33
    发表了文章 2025-10-25 19:01:33

    LLM安全新威胁:为什么几百个毒样本就能破坏整个模型

    数据投毒通过在训练数据中植入恶意样本,将后门永久嵌入大模型,仅需数百份毒样本即可触发数据泄露、越狱等行为,防御需结合溯源、聚类分析与自动化检测。
  • 10.24 13:43:57
    发表了文章 2025-10-24 13:43:57

    vLLM 性能优化实战:批处理、量化与缓存配置方案

    本文深入解析vLLM高性能部署实践,揭秘如何通过continuous batching、PagedAttention与前缀缓存提升吞吐;详解批处理、量化、并发参数调优,助力实现高TPS与低延迟平衡,真正发挥vLLM生产级潜力。
  • 10.23 21:05:04
    发表了文章 2025-10-23 21:05:04

    HNSW算法实战:用分层图索引替换k-NN暴力搜索

    HNSW是一种高效向量检索算法,通过分层图结构实现近似最近邻的对数时间搜索,显著降低查询延迟。相比暴力搜索,它在保持高召回率的同时,将性能提升数十倍,广泛应用于大规模RAG系统。
  • 10.22 20:57:39
    发表了文章 2025-10-22 20:57:39

    AutoGen框架入门:5个核心概念搭建智能体协作系统

    AutoGen是微软开源的多智能体AI框架,支持多个AI智能体与人类协作,通过对话完成复杂任务。各智能体具备不同角色与能力,可调用工具、执行代码,并在群聊中辩论、推理、纠错,实现无需人工干预的自动化协作,适用于复杂问题求解与团队化AI应用开发。
  • 10.21 20:17:22
    发表了文章 2025-10-21 20:17:22

    深入BERT内核:用数学解密掩码语言模型的工作原理

    BERT通过掩码语言建模(MLM)实现双向语言理解,随机遮蔽15%的词并预测,结合Transformer的自注意力与多头机制,利用上下文信息生成深层语义表示。其数学设计如√d_k缩放、80-10-10掩码策略和交叉熵优化,显著提升模型性能,奠定现代NLP基础。
  • 10.20 21:30:00
    发表了文章 2025-10-20 21:30:00

    LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

    本文介绍基于LangGraph构建的双层记忆系统,通过短期与长期记忆协同,实现AI代理的持续学习。短期记忆管理会话内上下文,长期记忆跨会话存储用户偏好与决策,结合人机协作反馈循环,动态更新提示词,使代理具备个性化响应与行为进化能力。
  • 10.19 18:53:00
    发表了文章 2025-10-19 18:53:00

    如何生成逼真的合成表格数据:独立采样与关联建模方法对比

    本文介绍两种生成合成数据的实用方法:基于随机森林的逐列生成和高斯混合模型(GMM),旨在保持数据分布与列间关系的真实性,兼顾隐私与多样性,适用于测试、训练及敏感数据替代场景。
  • 10.18 21:31:03
    发表了文章 2025-10-18 21:31:03

    开源嵌入模型对比:让你的RAG检索又快又准

    嵌入是RAG系统的核心,将文本转化为语义向量,实现基于含义的检索。本文详解嵌入原理、关键参数及主流开源模型,助你根据分块大小、语言需求和性能约束,选择最合适的嵌入方案,提升RAG效果。
  • 10.17 17:35:11
    发表了文章 2025-10-17 17:35:11

    REFRAG技术详解:如何通过压缩让RAG处理速度提升30倍

    REFRAG提出用轻量编码器将检索文本块压缩为单向量,再投影至LLM嵌入空间,结合强化学习策略选择性展开关键块。相比传统RAG,输入序列大幅缩短,首token速度提升达30倍,准确率几乎无损,显著降低计算开销。
  • 10.16 18:14:19
    发表了文章 2025-10-16 18:14:19

    RAG检索质量差?这5种分块策略帮你解决70%的问题

    RAG效果关键在于文档分块:固定、递归、语义、结构化与延迟分块各有优劣。合理选择能显著提升检索质量,减少幻觉,增强上下文理解,是构建高效RAG系统的核心环节。
  • 10.15 20:42:46
    发表了文章 2025-10-15 20:42:46

    别再用均值填充了!MICE算法教你正确处理缺失数据

    MICE是一种基于迭代链式方程的缺失值插补方法,通过构建后验分布并生成多个完整数据集,有效量化不确定性。相比简单填补,MICE利用变量间复杂关系,提升插补准确性,适用于多变量关联、缺失率高的场景。本文结合PMM与线性回归,详解其机制并对比效果,验证其在统计推断中的优势。
  • 10.14 19:19:24
    发表了文章 2025-10-14 19:19:24

    LlamaIndex检索调优实战:分块、HyDE、压缩等8个提效方法快速改善答案质量

    本文总结提升RAG检索质量的八大实用技巧:语义分块、混合检索、重排序、HyDE查询生成、上下文压缩、元数据过滤、自适应k值等,结合LlamaIndex实践,有效解决幻觉、上下文错位等问题,显著提升准确率与可引用性。
  • 10.12 19:00:53
    发表了文章 2025-10-12 19:00:53

    氛围编程陷阱:为什么AI生成代码正在制造大量"伪开发者"

    AI兴起催生“氛围编程”——用自然语言生成代码,看似高效实则陷阱。它让人跳过编程基本功,沦为只会提示、不懂原理的“中间商”。真实案例显示,此类项目易崩溃、难维护,安全漏洞频出。AI是技能倍增器,非替代品;真正强大的开发者,永远是那些基础扎实、能独立解决问题的人。
  • 10.11 21:14:46
    发表了文章 2025-10-11 21:14:46

    12 种 Pandas 测试技巧,让数据处理少踩坑

    本文介绍12种实用的Pandas测试技巧,涵盖数据工厂、模式校验、属性测试、快照比对、边界用例、随机控制、NA处理、索引验证、双实现对照、性能监控、I/O往返和Join检查,帮助开发者提前发现隐藏bug,提升数据处理代码的可靠性与可维护性。
  • 10.10 21:31:19
    发表了文章 2025-10-10 21:31:19

    mmBERT:307M参数覆盖1800+语言,3万亿tokens训练

    mmBERT是基于ModernBERT架构的多语言编码器,在1800多种语言、3万亿token上预训练,创新性地采用逆掩码调度与级联退火语言学习(ALL),动态引入低资源语言并优化采样策略。使用Gemma 2 tokenizer,支持最长8192上下文,结合Flash Attention 2实现高效推理。在GLUE、XTREME、MTEB等基准上超越XLM-R、mGTE等模型,尤其在低资源语言和代码检索任务中表现突出,兼具高性能与高效率。
  • 10.09 20:59:48
    发表了文章 2025-10-09 20:59:48

    vLLM 吞吐量优化实战:10个KV-Cache调优方法让tokens/sec翻倍

    十个经过实战检验的 vLLM KV-cache 优化方法 —— 量化、分块预填充、前缀重用、滑动窗口、ROPE 缩放、后端选择等等 —— 提升 tokens/sec。
  • 10.08 21:27:15
    发表了文章 2025-10-08 21:27:15

    vLLM推理加速指南:7个技巧让QPS提升30-60%

    GPU资源有限,提升推理效率需多管齐下。本文分享vLLM实战调优七招:请求塑形、KV缓存复用、推测解码、量化、并行策略、准入控制与预热监控。结合代码与数据,助你最大化吞吐、降低延迟,实现高QPS稳定服务。
  • 10.06 21:04:10
    发表了文章 2025-10-06 21:04:10

    向量存储vs知识图谱:LLM记忆系统技术选型

    本文探讨LLM长期记忆系统的构建难点与解决方案,对比向量检索与知识图谱架构优劣,分析Zep、Mem0、Letta等开源框架,并提供成本优化策略,助力开发者实现高效、可扩展的AI记忆系统。
  • 10.05 21:07:45
    发表了文章 2025-10-05 21:07:45

    NumPy广播:12个技巧替代循环,让数组计算快40倍

    摆脱Python数据处理中的低效for循环!掌握NumPy广播机制,实现向量化计算,让代码更简洁、运行更快。从数据标准化到距离矩阵、独热编码,12个实战案例教你用形状思维替代循环思维,显著降低CPU负载,提升程序性能。
  • 10.04 20:38:29
    发表了文章 2025-10-04 20:38:29

    Google开源Tunix:JAX生态的LLM微调方案来了

    Tunix是Google推出的基于JAX的LLM后训练库,支持微调、强化学习与知识蒸馏,集成Flax NNX,主打TPU优化与模块化设计,支持QLoRA等高效训练方法,适用于高性能分布式训练场景。
  • 10.03 21:49:28
    发表了文章 2025-10-03 21:49:28

    从DQN到Double DQN:分离动作选择与价值评估,解决强化学习中的Q值过估计问题

    2015年DQN在Atari游戏中突破,但Q值过估计问题浮现。因max操作放大噪声,智能体盲目自信“黄金动作”。根源在于动作选择与价值评估由同一网络完成,导致最大化偏差。
  • 10.02 21:31:57
    发表了文章 2025-10-02 21:31:57

    PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题

    PINNs训练难因多目标优化易失衡。通过设计硬约束网络架构,将初始与边界条件内嵌于模型输出,可自动满足约束,仅需优化方程残差,简化训练过程,提升稳定性与精度,适用于气候、生物医学等高要求仿真场景。
  • 10.01 20:47:18
    发表了文章 2025-10-01 20:47:18

    Python离群值检测实战:使用distfit库实现基于分布拟合的异常检测

    本文解析异常(anomaly)与新颖性(novelty)检测的本质差异,结合distfit库演示基于概率密度拟合的单变量无监督异常检测方法,涵盖全局、上下文与集体离群值识别,助力构建高可解释性模型。

2025年09月

  • 09.30 21:01:00
    发表了文章 2025-09-30 21:01:00

    Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性

    大语言模型通过预测下一个词生成文本,采样策略决定其创造力与连贯性。Min-p采样根据模型置信度动态调整选择阈值,在高不确定性时扩大候选范围,低不确定性时聚焦高概率词,相较Top-k、Top-p等方法,更好平衡了多样性与质量,尤其在高温下仍保持输出稳定,提升生成文本的流畅性与创新性。
  • 09.29 20:46:25
    发表了文章 2025-09-29 20:46:25

    从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现

    AI能否从错误中学习?Reflection与Reflexion Agent通过生成-反思-改进循环,实现自我优化。前者侧重内容精炼,后者结合外部研究提升准确性,二者分别适用于创意优化与知识密集型任务。
  • 09.28 21:05:14
    发表了文章 2025-09-28 21:05:14

    从零构建短视频推荐系统:双塔算法架构解析与代码实现

    短视频推荐看似“读心”,实则依赖双塔推荐系统:用户塔与物品塔分别将行为与内容编码为向量,通过相似度匹配实现精准推送。本文解析其架构原理、技术实现与工程挑战,揭秘抖音等平台如何用AI抓住你的注意力。
  • 09.27 21:05:33
    发表了文章 2025-09-27 21:05:33

    AI智能体框架怎么选?7个主流工具详细对比解析

    大语言模型需借助AI智能体实现“理解”到“行动”的跨越。本文解析主流智能体框架,从RelevanceAI、smolagents到LangGraph,涵盖技术门槛、任务复杂度、社区生态等选型关键因素,助你根据项目需求选择最合适的开发工具,构建高效、可扩展的智能系统。
  • 09.26 20:54:48
    发表了文章 2025-09-26 20:54:48

    AI智能体开发实战:17种核心架构模式详解与Python代码实现

    本文系统解析了17种AI智能体设计模式,涵盖反思、工具调用、多智能体协作、思维树、规划执行、集成决策等核心架构,结合LangGraph实现与代码演示,揭示如何通过模式组合构建高效、可靠的大规模AI系统。
  • 09.25 19:59:33
    发表了文章 2025-09-25 19:59:33

    Transformer自回归关键技术:掩码注意力原理与PyTorch完整实现

    掩码注意力是生成模型的核心,通过上三角掩码限制模型仅关注当前及之前token,确保自回归因果性。相比BERT的双向注意力,它实现单向生成,是GPT等模型逐词预测的关键机制,核心仅需一步`masked_fill_`操作。
  • 09.24 20:34:16
    发表了文章 2025-09-24 20:34:16

    从另一个视角看Transformer:注意力机制就是可微分的k-NN算法

    注意力机制可理解为一种“软k-NN”:查询向量通过缩放点积计算与各键的相似度,softmax归一化为权重,对值向量加权平均。1/√d缩放防止高维饱和,掩码控制信息流动(如因果、填充)。不同相似度函数(点积、余弦、RBF)对应不同归纳偏置,多头则在多个子空间并行该过程。
  • 09.23 19:12:41
    发表了文章 2025-09-23 19:12:41

    Optuna v4.5新特性深度解析:GPSampler实现约束多目标优化

    Optuna v4.5发布,新增GPSampler对约束多目标优化的支持,结合高斯过程与log EHVI获取函数,显著提升在材料科学、机器学习等领域的黑盒优化效率,减少无效评估,加速收敛。
  • 09.22 19:48:36
    发表了文章 2025-09-22 19:48:36

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

    嵌入是RAG系统的核心,直接影响检索质量。本文详解嵌入原理,解析稠密/稀疏、长上下文、多向量等类型,梳理选型关键:领域匹配、上下文长度、维度与成本,并结合MTEB基准给出实用建议,助你为业务挑选高效稳健的嵌入方案。
  • 09.21 19:56:34
    发表了文章 2025-09-21 19:56:34

    从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南

    推理型大语言模型兴起,通过先思考再作答提升性能。本文介绍GRPO等强化学习算法,详解其原理并动手用Qwen2.5-3B训练推理模型,展示训练前后效果对比,揭示思维链生成的实现路径。
  • 09.20 20:39:47
    发表了文章 2025-09-20 20:39:47

    MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构

    MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
  • 09.19 20:28:22
    发表了文章 2025-09-19 20:28:22

    SAPO去中心化训练:多节点协作让LLM训练效率提升94%

    SAPO(Swarm Sampling Policy Optimization)提出去中心化异步强化学习框架,通过节点间共享rollouts提升大模型后训练效率。实验显示,在数千节点上可实现94%回报提升,尤其助力中等规模模型突破性能瓶颈。
  • 09.18 20:58:46
    发表了文章 2025-09-18 20:58:46

    为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南

    面对真实数据不知该用哪种分布?本文精炼总结8个实战必备概率分布,涵盖使用场景、避坑指南与代码实现。从二元事件到计数、等待时间、概率建模,再到小样本处理,教你快速选择并验证合适分布,用对模型显著提升分析准确性。
  • 09.17 20:46:43
    发表了文章 2025-09-17 20:46:43

    AI智能体开发实战:从提示工程转向上下文工程的完整指南

    曾被热捧的提示工程正逐渐退潮,本文揭示其局限性,并提出“上下文工程”新范式:通过结构化提示、精准上下文管理、工具调用与统一状态,构建可扩展、可恢复、生产级的智能体工作流,推动AI系统迈向工程化与可控化。
  • 发表了文章 2025-11-05

    提升回归模型可信度:4种神经网络不确定性估计方法对比与代码实现

  • 发表了文章 2025-11-04

    从零实现3D Gaussian Splatting:完整渲染流程的PyTorch代码详解

  • 发表了文章 2025-11-03

    FastMCP 入门:用 Python 快速搭建 MCP 服务器接入 LLM

  • 发表了文章 2025-11-02

    LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制

  • 发表了文章 2025-11-01

    解决GRPO优势归因错误,Chunk-GRPO让文生图模型更懂"节奏"

  • 发表了文章 2025-10-31

    打造自己的 Claude Code:LangGraph + MCP 搭建一个极简的 AI 编码助手

  • 发表了文章 2025-10-30

    sklearn 特征选择实战:用 RFE 找到最优特征组合

  • 发表了文章 2025-10-29

    Optuna  AutoSampler 更新:让多目标和约束优化不再需要手动选算法

  • 发表了文章 2025-10-28

    构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例

  • 发表了文章 2025-10-27

    Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题

  • 发表了文章 2025-10-26

    大模型强化学习的熵控制:CE-GPPO、EPO与AsyPPO技术方案对比详解

  • 发表了文章 2025-10-25

    LLM安全新威胁:为什么几百个毒样本就能破坏整个模型

  • 发表了文章 2025-10-24

    vLLM 性能优化实战:批处理、量化与缓存配置方案

  • 发表了文章 2025-10-23

    HNSW算法实战:用分层图索引替换k-NN暴力搜索

  • 发表了文章 2025-10-22

    AutoGen框架入门:5个核心概念搭建智能体协作系统

  • 发表了文章 2025-10-21

    深入BERT内核:用数学解密掩码语言模型的工作原理

  • 发表了文章 2025-10-20

    LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

  • 发表了文章 2025-10-19

    如何生成逼真的合成表格数据:独立采样与关联建模方法对比

  • 发表了文章 2025-10-18

    开源嵌入模型对比:让你的RAG检索又快又准

  • 发表了文章 2025-10-17

    REFRAG技术详解:如何通过压缩让RAG处理速度提升30倍

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息