搜索推荐

首页 标签 搜索推荐
# 搜索推荐 #
关注
33283内容
微调后模型“记住用户信息”,通常发生在什么阶段
本文揭示模型“记住用户信息”并非突发事故,而是贯穿预训练、SFT、LoRA微调、偏好对齐等七阶段的渐进式演化过程。关键在于:**不是模型学会了记忆,而是训练中持续奖励“具体化”,使用户特征被逐步绑定、放大并合法化。** 风险隐蔽且无明显红线,需在各环节警惕“身份可推断性”。
|
1月前
| |
来自: 云原生
企业建站如何选择网站建设平台或CMS建站系统
截至2026年1月,中国网站超460万个。建站首选SAAS(如阿里云/腾讯云建站)或成熟CMS(如PageAdmin、PHPCMS、Ecshop),避免使用无维护的个人开源系统。重内容、轻排名,AI时代网站是品牌知识入口,需持续更新优质内容。(239字)
京东图片搜索API深度解析:以图搜货赋能电商全场景
京东图片搜索API是京东开放平台提供的视觉搜索服务,支持上传图片或URL,精准匹配外观、功能相似商品,返回结构化信息,适用于比价、竞品分析与智能推荐等场景。(239字)
从入门到实践:不懂代码也能微调大模型,普通人AI进阶指南
本文详解大模型微调:为何需要(让AI更懂你)、原理何在(参数微调如“专项特训”)、如何实操(四步完成数据准备→云端训练→参数配置→效果评估),并指出工具平民化正使个性化AI触手可及。(239字)
告别断言阻塞!Pytest 原生神器 Subtests 实战教程
Pytest 9.0+ 原生支持 subtests,可在单个测试中运行多个独立子测试:任一失败不中断其余校验,结果聚合展示,动态创建更灵活。告别“断点即终止”,提升多字段/多条件验证效率与可维护性。
|
1月前
|
LLM推理时计算技术详解:四种提升大模型推理能力的方法
2025年LLM发展新趋势:不卷训练,专攻推理!本文详解四大推理时计算技术——Chain-of-Thought(深度)、Self-Consistency(宽度)、Tree-of-Thoughts(搜索)、Reflexion/Self-Refine(迭代),配可运行代码与实战对比,助你在不重训模型前提下显著提升性能。
零基础从0到1学GEO优化第1课:搞懂“什么是GEO”,建立底层认知
GEO=让AI推荐你:通过优化内容适配AI思维,成为AI答案的“引用源”。 GEO不是SEO升级版:是从“被找到”到“被引用”的范式转移,两者相辅相成(75%的AI引用链接来自SEO排名前12的网站)。 零基础起点:转变思维(引用>点击)+ 内容为真实问题提供解决方案(用案例/数据说话)。 马上行动:用AI搜索你的行业关键词,看看谁正在被推荐——那就是你的“对手”,也是你的“榜样”。
为什么微调会放大训练数据中的隐私残留
本文揭示一个反直觉真相:模型隐私风险多在微调后才凸显,而非预训练阶段。微调并非“创造”隐私信息,而是放大模型中已存在的隐性模式(如身份指向、行为细节),尤其LoRA等高效方法更易固化风险。关键在于警惕“过度具体化”输出——它比直接泄露更隐蔽、更危险。
一款可提高后台系统开发效率的低代码平台
本文探讨低代码平台如何破解ERP/OA/CRM等后台系统开发“成本高、周期长、响应慢”难题。通过可视化页面搭建、自定义组件、保存即发布、Vue源码导出四大核心能力,将常规需求交付从3–5天压缩至小时级,兼顾效率与灵活,助力企业高效推进数字化转型。
OoderAI BridgeCode 产品白皮书——全方位赋能企业编程升级
ooderAI BridgeCode 是面向企业的AI确定性代码框架解决方案,通过自学习能力生成专属代码、无缝衔接新旧系统、优化AI时代工作流,并提供128个开源可视化组件。开源无绑定、Web化易用,助力企业降本增效、灵活转型。(239字)
免费试用