技术干货 | 应用上线前的“体检”,你知道需要检测哪些指标吗?

本文涉及的产品
mPaaS订阅基础套餐,标准版 3个月
简介: 应用上线前检测哪些项目?如何检测?检测数据指标包括哪些?

封面图0416.jpg随着越来越多的企业基于 mPaaS 搭建并上线新的 App,App 的上线质量也成为各个客户关注的重点。上线前检测哪些项目?如何检测?检测数据指标包括哪些?


借着上次去 XX 农信客户去做线上功能检测,加上之前多个 mPaaS 历史项目的经验总结,将 App 上线前 mPaaS 相关检测内容整理沉淀如下。



一、安全性

1.1 RPC 是否开启国密加密

对 App 来说,数据通信安全至关重要,mPaaS 已经支持 ECC、RSA 和国密(SM2)三种方式。其中,在金融行业 App 内建议开启加密配置为 SM2 国密加密,满足行业监管要求。配置可以参考产品文档:数据加密


1.2 离线包是否开启验签

1.png


为了保证下发到本地离线包的安全性,mPaaS 提供了离线包验签机制,保证了离线包的安全性。整体示意图如上所示,用户设置流程如下:

  1. 开发者配置好一对公私钥,私钥放在服务端用于对离线包签名,公钥放在客户端,用于对签名对验证。
  2. 在离线包发布平台,如果配置了签名私钥,平台下发的 amr 文件就会带上签名信息(通过私钥对离线包的 hash 值加密后得到的密文)。
  3. 客户端在拿到 amr 包并解压后,客户端会使用在项目中预置的公钥进行签名的验证(解密上一步的密文得到一个 hash 值,同时本地计算离线包的 hash 值,判断两者是否相同),如果相同则通过验证。
  4. 如果签名校验失败,则删除离线包走 fallback 地址。


通过离线包的验签机制,可以达到以下的目的:

  1. 保证了离线包的内容完整,解决解压异常,读取异常下的正常显示
  2. 保证了离线包的来源正确,不被本地恶意篡改


1.3 userId 信息是否设置正确

因为 userId 会被后续用到很多地方,比如推送,白名单。所以一般建议选择服务端的 userId 字段作为存储字段,方便后续和服务端做 userId 字段同步,不建议存储个人手机号或者身份证等个人信息作为 userId。


1.4 埋点信息是否包含敏感信息,比如交易单号

考虑到埋点的量级很大,所以 mPaas 的埋点默认本地是没有做数据加密的,所以埋点信息不建议包含敏感字段,防止由于埋点导致信息泄漏。敏感字段建议走 RPC 的数据通道上报,保证数据安全。如果有埋点埋敏感字段的诉求,需要主动开启埋点的本地加密配置。


1.5 隐私权限配置

由于现在监管机构对隐私权限管控比较严格,mPaas 针对权限管控做了对应的接入方案。需要需要确保上线前隐私权限相关配置已经正常接入。



二、稳定性

2.1 验证在 Android4.X 版本的是否可以正常使用

mPaaS 最低支持 Android 4.3 版本以上,所以发布前需要验证下低版本 Android 设备的可用性,遇到比较多的是在 Android 4.X 设备上由于多 dex 加载导致的类找不到导致的安装闪退问题。


2.2 iOS 符号表是否正常上传

发布前需要确保 iOS 的符号表已经上传到 mPaaS 后台,方便后台反解闪退信息。


2.3 热修复模块是否接入并且验证通过

发布前需要确保热修复模块的正常接入以及验证通过,保证上线有针对 Native 模块的热修复能力,保证异常场景下的修复能力。


2.4 离线包 Fallback 域名确认

确认 Fallback 域名是否是外网可访问的地址,遇到过发布后下发的还是内网地址的 case。


2.5 离线包模块接入 CDN

上线前做好容量评估,默认 mPaaS 的离线包是存储在 OSS 内的,但是一般建议针对离线包模块接入 CDN,通过 CDN 的缓存功能解决因为离线包下载导致带宽打满的风险,同时相对于 OSS 存储来说,CDN 的费用更低。接入示意图如下:

2.png


2.6 RPC 核心链路接口压测

上线前需要对 App 核心链路的 RPC 接口做性能压测,获取接口性能瓶颈,可以用做后续的限流值的设定参考。同时需要针对 RPC 限流场景做演练,防止上线限流后客户端出现各种异常。


2.7 发布更新功能可用

上线前需要验证发布 apk 功能可用,包括发布更新的强制更新功能,保证在极端场景下,需要强制升级使用。



三、性能体验

3.1 离线包离线功能是否正常生效

确保离线包的离线功能正常使用,防止由于离线包各种配置问题导致离线功能不生效。


3.2 UC 内核是否正常接入

确保 UC 内核正确配置接入,主要解决系统 WebView 下的各种兼容性问题。同时 UC 提供了很好的稳定性,比系统 WebView 更稳定。


3.3 核心链路离线包是否预制

在发布前,需要预制核心链路离线包,保证核心链路在极端异常场景下仍然可以打开。


作者介绍.png

动态-logo.gif

底部banner.png

点击下方“阅读原文”,了解「mPaaS」更多资讯。

目录
打赏
0
0
0
0
80
分享
相关文章
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
仅用3分钟,百炼调用满血版Deepseek-r1 API,享受百万免费Token。阿里云提供零门槛、快速部署的解决方案,支持云控制台和Cloud Shell两种方式,操作简便。Deepseek-r1满血版在推理能力上表现出色,尤其擅长数学、代码和自然语言处理任务,使用过程中无卡顿,体验丝滑。结合Chatbox工具,用户可轻松掌控模型,提升工作效率。阿里云大模型服务平台百炼不仅速度快,还确保数据安全,值得信赖。
188460 32
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
23357 37
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
零门槛,轻松体验阿里云 DeepSeek-R1 满血版:快速部署,立享超强推理能力
DeepSeek-R1 是阿里云推出的先进推理模型,专为解决复杂任务设计,尤其在数学推理、代码生成与修复、自然语言处理等领域表现出色。通过阿里云的“零门槛”解决方案,用户无需编写代码即可快速部署 DeepSeek-R1,大幅简化了部署流程并提升了使用效率。该方案提供了详尽的文档和可视化界面,使开发者能轻松上手。DeepSeek-R1 支持多种模型尺寸,适用于不同场景,如智能客服、代码自动化生成、数学问题求解和跨领域知识推理。尽管存在对高自定义需求支持有限、云端依赖性等不足,但对于希望快速验证模型效果的用户而言,阿里云的这一解决方案仍然是高效且经济的选择。
1893 29
零门槛、百万token免费用,即刻拥有DeepSeek-R1满血版,还有实践落地调用场景等你来看
DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。本文涵盖四种部署方案,可以让你快速体验云上调用 DeepSeek-R1 满血版的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可实现
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
1652 10
DeepSeek-R1满血版上线阿里云,新用户专享100万token额度,5分钟快速部署!
DeepSeek是当前AI领域的热门话题,尤其其大模型备受关注。由于网页版访问时常超时,推荐使用阿里云百炼的API调用方式快速体验。此方法仅需五分钟,提供100万免费Token,有效期至2025年7月26日。用户可通过注册阿里云账户、开通服务、创建API-Key、安装并配置ChatBox客户端等步骤轻松上手。测试结果显示,DeepSeek-R1在回答问题、解释数学概念及编写代码等方面表现优异。部署成本低、操作简便,是体验DeepSeek的理想选择。
DeepSeek-R1满血版上线阿里云,新用户专享100万token额度,5分钟快速部署!
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
3577 117
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
如何在通义灵码里用上DeepSeek-V3 和 DeepSeek-R1 满血版671B模型?
除了 AI 程序员的重磅上线外,近期通义灵码能力再升级全新上线模型选择功能,目前已经支持 Qwen2.5、DeepSeek-V3 和 R1系列模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。
1162 14
满血 DeepSeek 免费用?附联网搜索&prompt编写教程!暨第三方 API 平台全面横评
满血 DeepSeek 免费用!支持联网搜索!创作声明:真人攥写-非AI生成,Written-By-Human-Not-By-AI
1236 8
满血 DeepSeek 免费用?附联网搜索&prompt编写教程!暨第三方 API 平台全面横评

热门文章

最新文章