与小米前端leader的一些问答

简介: 与小米前端leader的一些问答

 与小米前端leader的一些问答

 GMTC大会从全球移动技术大会改名为全球大前端技术大会,你觉得为什么会出现大前端这个概念?

GMTC大会每年都会召开,北京站基本都在每年的6月。GMTC从18年开始将“全球移动技术大会”改为“全球大前端技术大会”,所谓“大前端”,私以为,是一种“合”的概念,“天下大事,分久必合,合久必分”,之前移动端、web前端分立,原生是原生的,web是web的,但之后的混合开发的出现,如weex、rn以及目前比较火的flutter的出现,使得移动端和web前端的界限不是那么的明晰,这才出现了“大前端”的概念(在美团那边,移动端和web前端统称为前端),这意味着前端需要懂移动端的技术,移动端也需要懂web前端的技术,不仅如此,08年后node的出现,使得前端也可以做后端的事情,似乎所有的边界都不再那么的明晰,这就意味着对web前端人员提出了更高的要求,不再是之前会切切图、做做动效那么单一的技术要求,前端需要懂“计算机网络”(传统web,老本行),需要懂编译原理(rn、小程序、原生js、vue、react等语法的转换,比如京东的taro就是利用ast转换小程序的工具),等等等......综上所述,出现大前端的概念不仅仅是商业化(千团大战后各大主流app跑马圈地,aeo等的困难,app市场的商业化利润压缩)的推手,更重要的是技术的不断演进,而推动着技术趋势发展的底层原动力还是计算机底层的本质,越原始越底层的东西,越具有奠基性和稳定性。

 你觉得移动端开发的未来发展趋势有哪些?可以结合服务端、设计、产品、业务等因素的影响来描述。

well...个人认为移动端开发的未来趋势会有以下几种可能: 1、从业务形式和商业范式来说,移动端开发的未来可能在于类小程序的应用形式,传统的app形式不论是从下载还是商业运作,都很难再达到之前千团大战的样式,用户移动端所存在的app基本已经确定(像抖音这样的异军突起的例子基本很难出现,除非撇开赛道在一个新的变异点上),从2019年的形式来看,现在各大app都在自己的领地跑马圈地,除了微信小程序,腾讯(QQ小程序)、网易(云音乐内部小程序)、抖音(小程序)、阿里(支付宝小程序)、百度(百度小程序)、京东(内部小程序)...即便是应用形式也是类似快应用(国内九大手机厂商,包括小米)这种快速下载的形式,从商业场景和业务来说,类小程序形式的应用会是未来的发展趋势,除非有新的硬件终端的出现,那基本是换了赛道,将在产品部分讨论,这里不再讨论。 2、从服务端来说,severless的概念很火,目前各大厂基本都在云方面相关布局,包括小程序等目前都采用了云函数的开发形式,个人以为传统的服务端形式应该不会再是主流,云相关的助推会是移动端的相关发展,5G的网络发展也会改变服务端的形式,这要看相关协议等的制定,比较复杂,不再讨论。 3、从设计来说,移动端用户主要是C端用户,因而传统服务于C端的设计理念,包括用户画像、用户习惯等都是比较合适的,小米擅长的社区运营、粉丝运营也很适合,短视频形式以及图像相关的C端玩法可能会是未来移动端的主流,AR/VR/MR等的混合交互在移动端会有爆发趋势,抖音、快手在这方面比较有优势。 4、从产品来说,移动端产品的新品一直都没有火起来,除了手机,很少再有类似的刚需,如眼镜、手环等产品形态,在这方面我还是不太看好其他相关衍生产品的发展,未来3年手机应该还是一个主要的承载端。

相关文章
|
存储 Kubernetes 前端开发
2023年如何成为一名优秀的大前端Leader?
2023年如何成为一名优秀的大前端Leader?
134 0
|
前端开发 JavaScript 微服务
用四个问答让你快速了解微前端
微前端这个词已经出现了很多年了,这个概念类似于后端的微服务,微前端这个概念最早是在16年提出的,微前端并不是一个框架或者工具,而是一整套的架构。
163 0
用四个问答让你快速了解微前端
|
1月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
130 2
|
1月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
38 0
|
1月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
1月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
1月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。