SegmentFault D-Day 2015 北京前端场回顾

简介: 11 月 7 日,SegmentFault D-Day 北京前端专场吸引了 200 多位开发者到场参加,我们邀请到百度EFE、去哪儿、奇虎360 及 FIR.im 的前端大牛们,携干货与大家分享前端的最新发展。

11 月 7 日,SegmentFault D-Day 北京前端专场吸引了 200 多位开发者到场参加,我们邀请到百度EFE、去哪儿、奇虎360 及 FIR.im 的前端大牛们,携干货与大家分享前端的最新发展。

image.png

主场内容

image.png

本场沙龙主持人是 SegmentFault 市场妹纸 Adele,另外高阳 Suuny 也特意来北京和现场开发者们进行互动交流。


第一位嘉宾是去哪儿网前端高级研发工程师王迎然,分享的议题为《大型管理系统的前端架构设计》,王迎然老师不仅分享了管理系统的特点以及架构,也和开发者聊聊前端开发的苦恼。另外,王老师还深入介绍了前端工程组织结构,本地开发,多环境调试以及系统发布上线等内容。

image.png

第二位分享的嘉宾是百度EFE 的宿爽,分享的议题是《数据可视化分析相关》,宿爽老师通过 demo 展示,进一步让开发者了解数据和可视编码,并分享了自己在这一方面的经验,以及可视化设计任务和可视化箴言。

image.png

第三位分享的嘉宾是来自奇虎360 好搜前端工程师李永剑,分享的议题是《好搜移动开发性能时间和探索》,老师简单介绍了好搜移动客户端之后,通过对用户需求的梳理,分享了请求,渲染,交互等不同环节的优化手段,并开放测试发布回归流程。

image.png

最后一位嘉宾是 FIR.im 前端工程师郭建,分享议题为《重新定义前端》。当界面设计到足够精美后,前端工程师作为产品经理、设计及后端的桥梁,如何更好地完成团队之间的协作,并通过不同的途径培养对产品、设计及后端的感知,此外,郭老师还推荐了一些学习案例。

image.png

圆桌环节

四位嘉宾分享过后是圆桌讨论环节,本次圆桌由去哪儿网资深前端开发工程师王迎然主持,以前端为主题做经验交流,现场开发者从各自的实际工作出发,向各位老师提问,进行交流讨论,从现场观众的提问可以看出各位开发者对于前端开发的热情。

image.png

有一位特意从上海赶过来的前端设计师妹纸,向技术大牛请教前端工作中的困惑及槽点,现场嘉宾以及高阳和她分享了自己在工作及生活中的经验,妹纸这回真是不虚此行。

image.png

SegmentFault 后续也会保持为大家带来相关领域的专场沙龙。期待大家的参与!


前端场干货整理

嘉宾 Slides:

现场速记:

另有现场活动照片,可以看 这里

相关文章
|
缓存 开发框架 监控
SegmentFault 专访 | AlloyTeam 2015 前端技术大会讲师圆桌
Web 性能主要集中体现在两个环节:加载过程和运行时间。然而一个网页给用户的印象,往往在加载过程中就能得出优劣的判断,原因是一般情况下,网页运行时并没有明显的瓶颈,只有加载时的白屏等待时间、页面各个模块逐渐呈现的过程,是有明显感知的。因此,BAT 的前端工程师们,都会在加载性能上做很多监控和优化。
193 0
SegmentFault 专访 | AlloyTeam 2015 前端技术大会讲师圆桌
|
2月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
171 2
|
2月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
46 0
|
2月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
2月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
2月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
119 1
|
2月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
|
3月前
|
SpringCloudAlibaba JavaScript 前端开发
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
分布式组件、nacos注册配置中心、openfegin远程调用、网关gateway、ES6脚本语言规范、vue、elementUI
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
|
4月前
|
存储 前端开发 JavaScript
前端语言串讲 | 青训营笔记
前端语言串讲 | 青训营笔记
48 0
|
6月前
|
JSON 前端开发 JavaScript
前端Ajax、Axios和Fetch的用法和区别笔记
前端Ajax、Axios和Fetch的用法和区别笔记
113 2