测试技术

首页 标签 测试技术
# 测试技术 #
关注
74771内容
告别断言阻塞!Pytest 原生神器 Subtests 实战教程
Pytest 9.0+ 原生支持 subtests,可在单个测试中运行多个独立子测试:任一失败不中断其余校验,结果聚合展示,动态创建更灵活。告别“断点即终止”,提升多字段/多条件验证效率与可维护性。
Playwright扩展开发:自定义插件与工具创建
本文详解如何为Playwright开发自定义插件与工具:涵盖登录状态管理Fixture、Slack通知Reporter、POM插件及CLI命令行工具,助力解决重复代码、业务封装、第三方集成等实际痛点,提升测试复用性、可维护性与工程效能。
|
8天前
|
🦞 OpenClaw部署保姆级指南:2026年如何在OpenClaw(Clawdbot/Moltbot)配置阿里云百炼 API
OpenClaw作为2026年开源社区的现象级产品,前身为Clawdbot、Moltbot,凭借强大的任务执行能力的成为无数用户搭建专属AI助手的首选工具。它区别于普通聊天型AI,能够真正深入系统完成读写文件、浏览器自动化、邮件管理等实操任务,而这些核心智能能力的实现,离不开与大模型的对接。阿里云百炼作为一站式大模型开发与应用构建平台,集成了通义千问全系列及第三方优质模型,提供统一且兼容的API接口,可与OpenClaw无缝衔接,为其提供稳定、高效的智能推理支撑。
|
8天前
|
LLM推理时计算技术详解:四种提升大模型推理能力的方法
2025年LLM发展新趋势:不卷训练,专攻推理!本文详解四大推理时计算技术——Chain-of-Thought(深度)、Self-Consistency(宽度)、Tree-of-Thoughts(搜索)、Reflexion/Self-Refine(迭代),配可运行代码与实战对比,助你在不重训模型前提下显著提升性能。
为什么微调会放大训练数据中的隐私残留
本文揭示一个反直觉真相:模型隐私风险多在微调后才凸显,而非预训练阶段。微调并非“创造”隐私信息,而是放大模型中已存在的隐性模式(如身份指向、行为细节),尤其LoRA等高效方法更易固化风险。关键在于警惕“过度具体化”输出——它比直接泄露更隐蔽、更危险。
AI 智能体的本地化部署测试
本地AI智能体测试已升级为多维压力评估体系,涵盖任务成功率、推理逻辑与工具调用准确率、本地系统性能(TPOT/吞吐量/显存稳定性)及数据安全合规性,并依托Dify、DeepEval、Prometheus等工具实现自动化SOP测试。
|
9天前
|
别再乱用了!基础、力矩、专用模型深度对比,附保姆级力矩实操指南
AI博主双子座用通俗语言解析大模型三类形态:基础模型(博学但木讷)、微调模型(懂事圆滑的管家)、专用模型(深藏不露的扫地僧),并手把手教开发者用LoRA等低门槛技术,基于自有数据微调专属AI模型。
|
9天前
|
Python字符串拼接全攻略:从基础到进阶的6种方法
本文详解Python字符串拼接6种方法(+、join、f-string、format、%、Template及bytearray),通过性能测试对比与场景分析,揭示效率差异:join最快,f-string兼顾格式化与性能,Template最安全,+号仅适合少量拼接。附最佳实践与避坑指南。(239字)
春招真相:卷不进开发岗的同学,正在靠测开拿大厂Offer
本文为应届生揭秘测试开发(SDET)真实价值:非“低门槛备选”,而是大厂高需求的复合型技术岗。聚焦质量体系建设,需编程+工程+架构能力,竞争小、路径清、成长快。附校招三阶段实战指南与霍格沃兹学社资源支持。
免费试用