致前端:你们不要再打了.gif

本文涉及的产品
mPaaS订阅基础套餐,标准版 3个月
简介: CodeHub#5 | 快成物流科技:基于容器实现移动端动态化架构升级

视频 封面备份.png

“前端困境”

不论是中大型组织,还是小型初创公司,伴随业务版图的逐步拓张,大家都对于业务价值的提升,关注点都会逐渐向开发效率倾斜。


开发人员队伍日益扩张,但工作量却没有像分蛋糕一样被分解——这是在多数的技术团队里,往往会出现的一个常态化困境。


开发人员分散在各个部门里,导致了他们不能以最高效的方式工作,具体表现在以下几个方面:

  • 研发部门多,发版期待周期不一致;
  • 原生开发依赖系统框架,因为原生特性不同而导致平台差异化;
  • 开发语言不统一,不能根据任务轻重即时调配相应人手协作开发。


针对上述的问题。本期 CodeHub 为大家邀请了来自「快成物流科技」的 Android 前端工程师王斐,与大家一同分享快成物流科技基于 mPaaS 小程序容器,如何实现多部门协作、轻量化组件方式并行开发多个小程序、动态更新下发等一系列业务诉求。


基于容器实现移动端动态化架构升级

【mPaaS Coder】「快成物流科技」前端工程师 王斐

【开播时间】2021/5/12 晚上 7 点

【直播地址】https://live.bilibili.com/22746567

登陆B站关注“mPaaS”,即可预约本期直播,获取开播提醒。

长图海报.png


Be a Swag Coder

点击填写本期直播互动问卷,即有机会 mPaaS 初夏限定 T 恤一件 or 天猫精灵方糖二代一只,数量有限,先到先得。

衣服.png

3589FBC4-0818-47f7-B45D-70B34404AA04.png


关于 CodeHub

CodeHub 是以线上直播的形式输出前沿的移动端开发实践。用分享、交流的形式触达更多开发者,从而让有趣、深度的思考能够双向互动起来。


🔗上期 CodeHub 回顾:https://yqh.aliyun.com/live/detail/22447

钉钉搜索“32930171”加入「mPaaS 技术交流群」参与更多讨论。


动态-logo.gif

底部banner.png


相关文章
|
前端开发
前端使用多张图片生成 Gif 效果(支持循环、不循环、完成回调)
前端使用多张图片生成 Gif 效果(支持循环、不循环、完成回调)
339 0
|
6月前
|
前端开发
前端使用多张图片生成 Gif 效果(支持循环、不循环、完成回调)
前端使用多张图片生成 Gif 效果(支持循环、不循环、完成回调)
409 0
|
6月前
|
编解码 Rust 前端开发
纯前端也能实现在线GIF压缩
纯前端也能实现在线GIF压缩
|
6月前
|
编解码 前端开发 JavaScript
纯前端也能实现视频转GIF
纯前端也能实现视频转GIF
|
存储 Web App开发 编解码
图片:前端展示图像(img 、picture、svg、canvas )及常用图片格式(PNG、JPG、JPEG、WebP、GIF、SVG、AVIF等)
图片:前端展示图像(img 、picture、svg、canvas )及常用图片格式(PNG、JPG、JPEG、WebP、GIF、SVG、AVIF等)
872 1
|
1月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
138 2
|
1月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
43 0
|
1月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
1月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
1月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。

热门文章

最新文章

下一篇
无影云桌面