AI未闻花名_社区达人页

个人头像照片
AI未闻花名
已加入开发者社区2523

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
门派掌门
门派掌门

成就

已发布145篇文章
117条评论
已回答0个问题
0条评论
已发布0个视频
github地址

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

暂无个人介绍

暂无精选文章
暂无更多信息

2026年04月

  • 04.25 14:18:49
    发表了文章 2026-04-25 14:18:49

    大模型应用:从手动调参到智能寻优:PSO 驱动的大模型参数自动化优化.94

    本文介绍PSO(粒子群优化)与大模型结合的自动化调参方法:将高维、非凸、难量化的调参问题转化为智能寻优工程,利用PSO全局搜索能力+大模型效果评估能力,实现推理、检索、生成等参数的高效、自动、最优配置。
  • 04.24 07:57:54
    发表了文章 2026-04-24 07:57:54

    大模型应用:从语义理解到最优匹配:大模型赋能的二分图匈牙利算法全解析.93

    本文详解“大模型+匈牙利算法(KM)”融合的智能匹配技术:大模型负责语义理解与对齐,将非结构化文本(如岗位描述、简历)转化为0–100分量化权重;KM算法在此基础上求解带权二分图的全局最优匹配。该方案突破人工规则局限,实现精准、自适应、跨场景的智能配对,广泛适用于人岗匹配、题库组卷、客服问答等核心业务。
  • 04.23 06:53:22
    发表了文章 2026-04-23 06:53:22

    大模型应用:情感分析:用Stacking堆叠集成+大模型实现1+1>2的AI决策.92

    本文详解Stacking集成学习:通过多层协作提升模型性能。第一层用互补小模型(如朴素贝叶斯、SVM、轻量BERT)并行预测;第二层引入大模型作为元模型,融合原始文本与各小模型输出,动态加权、纠错推理,实现“1+1>2”。附完整代码与情感分析实测(准确率从87.3%提升至94.0%)。
  • 04.22 08:04:07
    发表了文章 2026-04-22 08:04:07

    大模型应用:最优路径规划实践:A*算法找最优解,大模型做自然语言解释.91

    本文探讨A*算法与大模型的协同融合:A*确保路径数学最优,大模型将其转化为自然语言导航指令。二者互补——算法精于计算却拙于表达,模型善解人意却难保精确。结合后既具严谨性,又富人文温度,真正实现“算得准、说得清、用得好”。
  • 04.21 08:00:19
    发表了文章 2026-04-21 08:00:19

    大模型应用:RETE 算法高效规则匹配:智能决策系统中的核心模式匹配技术.90

    RETE算法是高效规则匹配的核心技术,通过构建共享判别网络实现“空间换时间”,将匹配复杂度从O(M×N)降至接近O(N),广泛应用于金融风控、电商营销等低延迟场景。本文系统解析其原理、网络结构(Alpha/Beta节点)、增量匹配机制,并结合大模型展示“AI建议+规则兜底”的合规落地范式。
  • 04.20 07:52:00
    发表了文章 2026-04-20 07:52:00

    大模型应用:规则引擎 + 千问大模型:确定性骨架与智慧大脑的新融合实践.89

    本文探讨“规则引擎+大模型”协同架构:规则引擎(如Drools、rule-engine)作为确定性骨架,保障合规、可解释、零幻觉;大模型则充当柔性大脑,提升自然语言理解、推理与交互能力。二者互补而非替代,是智能系统落地的最佳实践路径。
  • 04.19 09:12:37
    发表了文章 2026-04-19 09:12:37

    大模型应用:Drools+Qwen大模型:企业级智能决策的“规则+底线”双引擎.88

    本文介绍Drools规则引擎与大模型融合的“双引擎智能决策”架构:规则引擎严守合规底线,确保刚性风控;大模型负责柔性处理,优化文本、解释原因、识别长尾风险。二者分层协同,实现“合规不失温度、体验不越红线”,为企业数字化转型提供务实高效的智能决策方案。
  • 04.18 14:27:47
    发表了文章 2026-04-18 14:27:47

    大模型应用:轻量化视觉语言模型(VLM):基于Qwen2-VL多模态模型实践.87

    超紧凑视觉语言模型(如Qwen2-VL-2B)以仅20亿参数、约4GB体积,实现本地化图文理解与生成,支持CPU/入门GPU实时推理,兼顾精度与轻量部署,推动多模态AI走向终端、离线与普惠应用。
  • 04.17 08:03:43
    发表了文章 2026-04-17 08:03:43

    大模型应用:基于安诊儿AntAngelMed模型+FastAPI构建慢病管理AI助手.86

    本项目基于安诊儿AntAngelMed医疗大模型(临床一致率达88.9%),结合FastAPI后端与轻量前端,构建7×24小时慢病AI助手。支持糖尿病、高血压等居家咨询,提供专业、可读、结构化建议,并实时统计Token消耗,兼顾实用性与成本可控性。
  • 04.16 08:20:52
    发表了文章 2026-04-16 08:20:52

    大模型应用:K-Means/LDA + 千问大模型:无监督文本自动打标完整方案.85

    本文介绍“聚类算法+大模型”无监督自动打标方案:先用K-Means/LDA对海量无标签文本(如电商评论、客服工单)自动分组,再由大模型为每簇生成可理解的业务标签与语义解释,实现从“类1/类2”到“物流慢”“价格争议”等高价值洞察的跃迁,显著降本增效。
  • 04.15 08:39:10
    发表了文章 2026-04-15 08:39:10

    大模型应用:小样本学习的高性价比:轻量算法做基底,大模型做精修.84

    本文提出“轻量算法+大模型”协同的小样本分类新范式:轻量模型(如逻辑回归)快速初筛高置信样本,大模型仅精修低置信疑难样本,实现成本降75%、准确率不损、可解释性增强,破解小样本落地难题。
  • 04.14 08:26:26
    发表了文章 2026-04-14 08:26:26

    大模型应用:基于千问大模型 + 图算法:可追溯知识图谱问答系统构建.83

    本文介绍“图算法+大模型”双引擎智能问答方案:用PageRank、最短路径等图算法处理关系推理与知识验证,由千问大模型负责自然语言理解与生成,实现可信、可溯源、强推理的高可靠问答,破解幻觉、推理弱、不可溯三大难题。
  • 04.13 08:03:31
    发表了文章 2026-04-13 08:03:31

    大模型应用:销量预测升级:Qwen大模型让时序分析从算数值到给建议.82

    本文提出“会说话的时序分析系统”,融合ARIMA、Prophet等专业预测算法与大模型,实现从冰冷数值到自然语言洞察的跃迁:算法精准算未来,大模型解读原因、生成可落地建议,让时序数据真正成为懂业务、会决策的智能助手。
  • 04.12 09:03:26
    发表了文章 2026-04-12 09:03:26

    大模型应用:中文大模型本土化效果评估方案:体系化方法、评估指标.81

    本文提出中文大模型本土化评估体系,聚焦“中文理解、文化适配、场景落地、合规对齐”四大维度,构建分层(基础语言→文化深度→场景应用→合规底线)、可量化、重实效的评估框架,强调本土语料、人工与自动结合、一票否决等原则,助力模型真正扎根中文场景。
  • 04.11 07:35:57
    发表了文章 2026-04-11 07:35:57

    大模型应用:因果推理赋能大模型:从关联分析到因果决策的升级路径.80

    本文探讨大模型与因果推理的深度融合:大模型擅长发现相关性但易产生幻觉,而因果推理能识别真实因果、支持干预与反事实分析。通过因果图、do-演算、SCM等工具,二者互补升级——大模型提升因果建模能力,因果推理增强大模型的可解释性、鲁棒性与决策力,推动AI从“知其然”迈向“知其所以然”。
  • 04.10 06:53:32
    发表了文章 2026-04-10 06:53:32

    大模型应用:医疗视角看脑电图新应用:大模型让脑电波直观的表达.79

    本文介绍脑电图(EEG)与大模型融合的前沿应用:无需开刀,仅通过头皮电极采集脑电信号,即可实时解码“想喝水”“想说话”等大脑意图,并转换为自然语言文字。该技术突破传统诊断边界,已在渐冻症沟通、神经康复和脑机交互中落地,兼具无创性、实时性与临床实用性。
  • 04.09 08:18:31
    发表了文章 2026-04-09 08:18:31

    大模型应用:多模态图文精准识别:基于本地化OCR模型应用实践.78

    Qwen2-VL-OCR-2B是仅2B参数的轻量多模态OCR智能体,深度融合视觉感知与语言理解,可精准识别倾斜文字、复杂排版及多语言混合内容。支持CPU/GPU自动适配、指令式调用与全格式图片,本地部署安全高效,适用于文档、合同、海报等场景。
  • 04.08 07:51:43
    发表了文章 2026-04-08 07:51:43

    大模型应用:大模型多线程推理:并发请求的处理与资源隔离实践.77

    本文详解大模型多线程推理与资源隔离技术:通过共享模型、隔离缓存、限制线程数/生成长度/超时时间,实现高并发、低延迟、稳服务。单线程串行耗时85.7秒,多线程(3线程)降至66.5秒,显著提升吞吐量与资源利用率,是大模型规模化落地的核心工程实践。
  • 04.07 08:10:23
    发表了文章 2026-04-07 08:10:23

    ModelEngine思想落地指南:用“智能体 + 插件”构建可复用AI应用.76

    ModelEngine是一种AI应用开发范式,通过角色化智能体分工、插件化工具集成与双模式(低代码+代码)开发,解决重复造轮子、流程碎片化、技术门槛高等痛点,实现高效、灵活、可复用的AI应用构建。
  • 04.06 10:02:25
    发表了文章 2026-04-06 10:02:25

    大模型应用:快速搭建轻量级智能体:从模型下载到图文输出简单实践.75

    本文介绍如何用轻量级Qwen1.5-1.8B-Chat模型(单卡4G显存或CPU即可运行)搭建本地智能体:从高速下载缓存、文本对话交互,到解析用户指令生成绘图参数,并用Pillow绘制文字海报、几何图形、渐变/抽象艺术图,全程代码清晰、开箱即用,适合大模型入门实操。
  • 04.05 08:52:15
    发表了文章 2026-04-05 08:52:15

    大模型应用:本地数学模型:从导数求解到公式推导轻松搞定数学任务.74

    Qwen2-Math-1.5B-Instruct是一款专精数学的轻量级大模型,仅1.5B参数,纯CPU即可流畅运行。它深耕代数、几何、概率等领域,支持分步解题、公式推导与通俗解析,输出规范易复用,适用于教学备课、作业辅导与数学科普。
  • 04.04 09:25:11
    发表了文章 2026-04-04 09:25:11

    大模型应用:医疗行业大模型:从生成前校验到生成后审计的应用实践.73

    本文提出医疗大模型“生成前校验+生成后审计”全链路管控方案,通过输入完整性/合规性校验、隐私脱敏、标准化处理,及输出格式/准确性/隐私审计等闭环流程,确保病历撰写、医嘱辅助等场景安全、合规、准确落地。
  • 04.03 08:00:15
    发表了文章 2026-04-03 08:00:15

    大模型应用:算力分层治理:基于大模型算力四层匹配体系的优化方案.72

    本文剖析大模型算力困局,指出“加卡低效”的根源在于忽视计算、访存、调度三层算力的协同失衡。提出四层匹配体系(计算/存储/通信/业务层),通过精度适配、显存优化、通信算法选择及场景化调度等实操方法,实现算力精准治理,让硬件投入真正转化为落地效率。
  • 04.02 06:53:45
    发表了文章 2026-04-02 06:53:45

    大模型架构算力对比:Decoder-only、Encoder-Decoder、MoE深度解析.71

    本文深入解析三大主流大模型架构(Decoder-only、Encoder-Decoder、MoE)的算力消耗差异,聚焦注意力机制复杂度、参数量与计算密度三大维度。通过公式推导、代码模拟与可视化图表,揭示MoE稀疏激活的显著节算优势及瓶颈,剖析长文本场景下的“平方级算力黑洞”成因,并提供面向不同场景的架构选型建议。
  • 04.01 08:03:14
    发表了文章 2026-04-01 08:03:14

    大模型应用:批量文档摘要与分类实践:本地合同、报告数据处理与导出.70

    本方案基于Qwen 1.5 7B大模型,实现本地化批量文档处理:自动读取Word/PDF,经TextSplitter智能分块、Schema引导式提示,生成标准化摘要与多标签分类,最终导出CSV。全程离线运行,保障敏感数据安全,显著提升合同、报告等高频文档的处理效率与准确性。

2026年03月

  • 03.31 06:55:37
    发表了文章 2026-03-31 06:55:37

    大模型应用:大模型运行全流程解析:从初始化加载→计算→结果输出.69

    本文系统解析大模型推理全流程:从硬盘加载权重、CPU内存预处理、GPU显存计算,到自回归生成与自然语言解码。涵盖硬件协同(硬盘→内存→GPU)、软件步骤(分词、注意力、采样、后处理)及资源调度优化,揭示其软硬协同的本质。
  • 03.30 07:54:25
    发表了文章 2026-03-30 07:54:25

    大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68

    GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。
  • 03.29 09:52:07
    发表了文章 2026-03-29 09:52:07

    大模型应用:GPU的黑盒拆解:可视化看透大模型并行计算的底层逻辑.67

    本文深入解析GPU核心架构与大模型算力优化原理,涵盖SM流式多处理器、显存、显存控制器、PCIe接口等关键组件,详解线程级/指令级并行及张量核心加速机制,并通过全流程耗时分析与任务拆分可视化,揭示“数据传输是主要瓶颈”的核心结论,助力高效部署大模型。
  • 03.28 10:24:46
    发表了文章 2026-03-28 10:24:46

    大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66

    本项目面向10台RTX 4090集群,优化Qwen-14B大模型推理:通过NF4量化压缩显存、动态批处理(基于Amdahl定律)提升GPU利用率至85%+、多卡模型并行均衡负载,解决卡顿、显存溢出与调度不均问题,支撑日均10万次高并发稳定服务。
  • 03.27 06:54:43
    发表了文章 2026-03-27 06:54:43

    大模型应用:大模型算力优化方案:识别突破隐性瓶颈达到效能最大化.65

    本文深度剖析大模型落地中“算力跑不满”的隐性瓶颈,从系统(CUDA/驱动/OS)、模型(注意力冗余、激活函数、权重稀疏)、数据(加载、分词、格式)三维度拆解,并提供量化评估方法与场景化优化方案(个人开发/企业推理/边缘部署),助力榨干硬件潜力。
  • 03.26 08:00:06
    发表了文章 2026-03-26 08:00:06

    大模型应用:拆解大模型算力需求:算力是什么?怎么衡量?如何匹配?.64

    本文系统解析大模型算力核心概念:从基础定义(类比工厂效率)、核心指标(FLOPS、精度影响、显存带宽)到模型-硬件匹配公式与实战优化(量化、多卡分片、参数调优),覆盖RTX 4090/A100等主流显卡适配策略,助你精准选型、高效部署。
  • 03.25 08:00:47
    发表了文章 2026-03-25 08:00:47

    大模型应用:大模型内存与显存深度解析:我们该如何组合匹配模型与显卡.63

    本文深入解析大模型本地部署中内存与显存的核心逻辑,涵盖参数-显存精准计算公式、INT4/FP16等精度占用对比、RTX 4090/5090专属部署代码及多卡分片实践,破除“显存需等于内存”等常见误区,助你科学选型、高效落地。
  • 03.24 07:55:08
    发表了文章 2026-03-24 07:55:08

    大模型应用:联邦学习融合本地大模型:隐私合规推荐的核心流程与实践.62

    本文探讨联邦学习与本地大模型(如Qwen1.5-1.8B)融合的推荐方案:在数据不出域前提下,通过加密参数协同训练,破解隐私合规与推荐精度的矛盾,实现“数据可用不可见”,已验证可显著提升稀疏数据门店的推荐准确率。
  • 03.23 10:13:45
    发表了文章 2026-03-23 10:13:45

    大模型应用:电商智能推荐:基于本地大模型的冷启动智能推荐系统实例.61

    本文介绍基于Qwen1.5-1.8B-Chat轻量大模型的电商智能推荐系统,解决冷启动、模糊意图理解与可解释性差等痛点;通过语义特征增强、个性化意图解析及自然语言推荐理由生成,提升准确性与用户体验,代码开源、易于中小团队落地。
  • 03.22 10:29:18
    发表了文章 2026-03-22 10:29:18

    大模型应用:本地部署 vs 云端调用:成本、隐私、效率、方式的综合考量.60

    本文深入对比大模型本地部署与云端调用:前者数据自主、隐私强、长期成本低,但需高性能硬件和运维能力;后者开箱即用、免维护、算力弹性,但存在隐私风险与持续费用。结合成本、隐私、效率三维度,提供清晰选型建议及代码示例。
  • 03.21 14:12:37
    发表了文章 2026-03-21 14:12:37

    大模型应用:Mistral-7B-Instruct 中文超长文本处理实战全解析.59

    本文介绍基于Mistral-7B-Instruct-v0.3的中文超长文本处理方案:通过4/8位量化(显存低至5GB)、原生滑动窗口(4096窗口+32768上下文)、左填充分词器及中英混合Prompt,实现2万字中文本地高效推理,兼顾性能、质量与私有化部署需求。
  • 03.20 08:05:55
    发表了文章 2026-03-20 08:05:55

    大模型应用:稀疏注意力 vs 滑动窗口:大模型扩窗技术完全解析.58

    本文详解大模型“扩窗”核心技术:滑动窗口注意力(快而局部,适合中短文本)与稀疏注意力(兼顾局部+跨步+首尾,支持超长上下文)。二者均通过降低O(n²)计算复杂度至线性,解决大模型长文本处理的内存与算力瓶颈,推动其从聊天工具升级为长文档分析、代码全量理解等实用AI。
  • 03.19 07:53:18
    发表了文章 2026-03-19 07:53:18

    大模型应用:上下文理解极限:Context Window 与注意力跨度的数学边界.57

    本文深入解析大模型长文本处理的三大核心概念:上下文窗口(输入长度上限)、注意力跨度(有效关注范围)与数学边界(算力/显存制约)。三者共同决定模型真实能力,而非仅看“128K”等宣传数字。理解它们是合理选型、优化提示、评估性能的关键。
  • 03.18 08:27:01
    发表了文章 2026-03-18 08:27:01

    56.大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56

    本文深入对比大模型轻量化三大核心技术:量化(降精度,快部署)、蒸馏(知识迁移,高精度)、剪枝(删冗余,结构精简)。详解原理、分类、适用场景、代码实现及选型建议,助开发者根据硬件条件、精度要求与落地周期科学决策。
  • 03.17 08:02:02
    发表了文章 2026-03-17 08:02:02

    大模型应用:高精度量化感知训练(QAT)与低成本后训练量化(PTQ)方案优选.55

    本文深入解析大模型量化两大核心技术:后训练量化(PTQ)与量化感知训练(QAT)。涵盖原理、流程、代码实现及选型策略,对比其在精度损失、算力成本、部署效率等方面的差异,助开发者根据数据、算力与精度需求,科学选择最优量化方案。
  • 03.16 06:48:39
    发表了文章 2026-03-16 06:48:39

    大模型应用:量化校准:全局/分组 Min-Max、GPTQ、AWQ 算法最优匹配.54

    本文详解大模型INT4量化校准四大算法:全局Min-Max(效率高但精度差)、分组Min-Max(隔离极端值,精度跃升)、GPTQ(按重要性误差补偿,精度优但耗时长)及AWQ(权重均衡+分组量化,精度最高、效率媲美分组,当前生产落地最优解)。
  • 03.15 10:17:53
    发表了文章 2026-03-15 10:17:53

    大模型应用:大模型量化:INT4与INT8核心差异、选型指南及代码实现.53

    本文深入解析大模型INT4与INT8量化技术:从“缩放+映射”本质出发,对比二者在压缩率(75% vs 87.5%)、精度(256 vs 16离散值)、显存占用及适用场景的差异;详解scale/zero_point参数原理,并提供BitsAndBytes实战代码,助力高效本地部署。
  • 03.14 08:19:24
    发表了文章 2026-03-14 08:19:24

    大模型应用:中小显存适配方案:大模型微调底座选型指标与应用实现.52

    本文聚焦8G显存中小算力场景,以中文电商文案生成为例,提出大模型微调底座选型体系:围绕任务适配性、算力匹配度、生态成熟度等六大核心指标,通过“需求分析—筛选排除—打分排序—验证落地”四步流程,结合量化加载、LoRA微调与实测对比(如ChatGLM-6B vs Qwen-7B),为开发者提供可复用、可落地的精准选型方案。
  • 03.13 06:57:30
    发表了文章 2026-03-13 06:57:30

    大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51

    本文揭示大模型“参数量越大效果越好”的误区,详解边际效益递减规律:小模型(1B→7B)提升显著,中等模型(7B→13B)仍具性价比,而超大模型(70B→175B)效果几无增长却大幅增加算力与存储成本。通过控制变量、量化指标与曲线分析,指导读者科学选型——找到效果与成本平衡的最优参数阈值。
  • 03.12 10:35:03
    发表了文章 2026-03-12 10:35:03

    大模型应用:大模型数据缓存复用方案:从API请求数据累积到智能融合.50

    本文提出一种低成本、高性能的大模型应用优化方案:基于SentenceTransformer本地生成文本向量,实现语义级缓存匹配;结合通义千问大模型智能融合历史与新答案;内置缓存淘汰与异常处理机制。实测缓存命中率超50%,响应提速10倍以上,显著降本增效。
  • 03.11 06:52:31
    发表了文章 2026-03-11 06:52:31

    大模型应用:大模型权限管控设计:角色权限分配与违规 Prompt 拦截.49

    本文介绍基于FastAPI构建的本地大模型权限管控系统,支持角色权限分配(管理员/用户/访客三级权限)与违规Prompt双重拦截(关键词+语义检测),实现API调用鉴权、生成长度控制及敏感内容过滤,兼顾安全合规与轻量易用,代码开箱即用。
  • 03.10 07:50:40
    发表了文章 2026-03-10 07:50:40

    大模型应用:大模型本地部署的磁盘空间优化:模型分片存储与按需加载.48

    本文详解大模型本地部署的磁盘与显存优化方案:通过分片存储(将大模型切分为多个小文件)与按需加载(运行时动态加载所需分片),显著降低硬件门槛。以Qwen1.5-1.8B为例,完整演示分片生成、索引构建、完整性校验、加载测试及跨分区部署,确保效果不降、资源占用大减。
  • 03.09 07:58:41
    发表了文章 2026-03-09 07:58:41

    大模型应用:大模型本地化部署与API调用:打包迁移到服务器的多种方式实践.47

    本文详解大模型从本地运行到云端API服务的全链路部署:涵盖硬件要求(GPU/CPU/内存)、软件环境(Python/FastAPI/Transformers)、模型选型(Qwen/ChatGLM等),并提供脚本部署、EXE打包(PyInstaller)和Docker容器化三种方案,支持局域网调用与接口文档自动生成,助力零基础用户快速实现“开箱即用”的稳定API服务。
  • 03.08 09:45:45
    发表了文章 2026-03-08 09:45:45

    大模型应用:大模型的token频率偏见:高频词与低频词的嵌入表示差异分析.46

    本文深入解析大模型中的“Token频率偏见”:高频词嵌入精准稳定,低频词因拆分多、训练少而语义模糊。通过分词优化、LoRA微调、提示工程等方案,可有效提升医疗等专业场景的语义理解能力。
  • 发表了文章 2026-04-25

    大模型应用:从手动调参到智能寻优:PSO 驱动的大模型参数自动化优化.94

  • 发表了文章 2026-04-24

    大模型应用:从语义理解到最优匹配:大模型赋能的二分图匈牙利算法全解析.93

  • 发表了文章 2026-04-23

    大模型应用:情感分析:用Stacking堆叠集成+大模型实现1+1>2的AI决策.92

  • 发表了文章 2026-04-22

    大模型应用:最优路径规划实践:A*算法找最优解,大模型做自然语言解释.91

  • 发表了文章 2026-04-21

    大模型应用:RETE 算法高效规则匹配:智能决策系统中的核心模式匹配技术.90

  • 发表了文章 2026-04-20

    大模型应用:规则引擎 + 千问大模型:确定性骨架与智慧大脑的新融合实践.89

  • 发表了文章 2026-04-19

    大模型应用:Drools+Qwen大模型:企业级智能决策的“规则+底线”双引擎.88

  • 发表了文章 2026-04-18

    大模型应用:轻量化视觉语言模型(VLM):基于Qwen2-VL多模态模型实践.87

  • 发表了文章 2026-04-17

    大模型应用:基于安诊儿AntAngelMed模型+FastAPI构建慢病管理AI助手.86

  • 发表了文章 2026-04-16

    大模型应用:K-Means/LDA + 千问大模型:无监督文本自动打标完整方案.85

  • 发表了文章 2026-04-15

    大模型应用:小样本学习的高性价比:轻量算法做基底,大模型做精修.84

  • 发表了文章 2026-04-14

    大模型应用:基于千问大模型 + 图算法:可追溯知识图谱问答系统构建.83

  • 发表了文章 2026-04-13

    大模型应用:销量预测升级:Qwen大模型让时序分析从算数值到给建议.82

  • 发表了文章 2026-04-12

    大模型应用:中文大模型本土化效果评估方案:体系化方法、评估指标.81

  • 发表了文章 2026-04-11

    大模型应用:因果推理赋能大模型:从关联分析到因果决策的升级路径.80

  • 发表了文章 2026-04-10

    大模型应用:医疗视角看脑电图新应用:大模型让脑电波直观的表达.79

  • 发表了文章 2026-04-09

    大模型应用:多模态图文精准识别:基于本地化OCR模型应用实践.78

  • 发表了文章 2026-04-08

    大模型应用:大模型多线程推理:并发请求的处理与资源隔离实践.77

  • 发表了文章 2026-04-07

    ModelEngine思想落地指南:用“智能体 + 插件”构建可复用AI应用.76

  • 发表了文章 2026-04-06

    大模型应用:快速搭建轻量级智能体:从模型下载到图文输出简单实践.75

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息