阿里云存储受邀参加北京站「源创会」,解析智能存储基于大模型的产品能力提升

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: 8 月 26 日,以 “AI 大模型与底层技术探索” 为主题的源创会北京站在北京中关村创业大街圆满举办。会上,阿里云智能高级技术专家马俊凯发表了《智能存储基于大模型的产品能力提升》主题演讲,详解了大语言模型对于智能存储的影响。

8 月 26 日,源创会北京站在北京中关村创业大街圆满举办。本期源创会以 “AI 大模型与底层技术探索” 为主题,邀请到学界、业界多位讲师分享其在 AI 方面的研究成果和经验。

北京站「源创会」合影.png

座无虚席的现场


图灵教育、机械工业出版社、阿里云存储共送出 18 本书做奖品🧧


合作伙伴

源创会传统 “披萨”(吃到披萨的小伙伴快来留个言证明下)

演讲回顾

演讲回放:

https://weixin.qq.com/sph/AXtGMa 上集(需在手机微信中打开此链接)

https://weixin.qq.com/sph/AqQKDE 下集(需在手机微信中打开此链接)

 

BentoML 软件工程师赵申阳发表《OpenLLM:开源大语言模型落地实践》主题演讲。赵申阳介绍,许多企业想要把模型部署在自己的应用中,但各种版本的大模型层出不穷,所以企业一直希望使用最新的大模型,那就需要不断更新代码,需要要投入大量的资源与精力。此外,大模型的使用也会带来 LLM 幻觉,安全性、隐私问题等等,许多企业更希望定制自己的大模型。BentoML 所做的事情便是一键 / 一行(代码)切换大模型。赵申阳详细介绍了可用于构建 AI 应用程序的开源框架 OpenLLM,OpenLLM 支持对主流 ML 框架 / 库的开箱即用、灵活且可定制、内置支持分布式部署以实现可伸缩性、支持 BentoCloud 无服务器部署。



如何让高效地利用已有文件,挖掘文件数据中的价值?这个问题在大模型时代,已经有了最新解。随着大语言模型的飞速发展,各类大语言模型展现出了出色的对话能力与任务求解能力,为各类智能应用提供了丰富的想象空间。阿里云智能高级技术专家马俊凯发表了《智能存储基于大模型的产品能力提升》主题演讲,详解了大语言模型对于智能存储的影响。以阿里云智能存储体系为例,其结合自身业务,引入 “通义千问” 大模型、多模态模型等推出了智能文档助手、语义搜索、内容生成等功能,提供了诸如文档润色、文档续写、文档摘要、语气改写、文档翻译等智能文档能力;文档、图片的跨模态搜索能力。同时结合 x-oss-process 为用户提供了更加便捷的图片处理、文档编辑方式。



通用大模型可以取代为特定任务定制训练的专属模型吗?在可能不远的未来,人机如何合作?如果会取代,那么基于大模型的以人为本的人机合作场景可能是什么样子的?


这是在 ChatGPT 公测之后,韩文娟提出的三点思考,彼时韩文娟已经加入了北京交通大学交通大数据与人工智能教育部重点实验室。在这次的源创会上,北京交通大学计算机与信息技术学院副教授韩文娟发表《利用大模型推动交通领域的智能应用》主题演讲,详解其研究成果。针对上述三个问题,韩文娟和其团队分别做了基于 ChatGPT 的信息抽取工具、人机合作的标注平台以及交通领域基于大型预训练模型的司法判决系统,证明了交通大模型和知识图谱技术结合,可以构造出一个可解释、可追溯、可控的系统。最终在今年 7 月,在交通行业大模型方面,韩文娟所带领的团队发布了国内外首款综合交通大模型 TransGPT,可以实现交通安全教育、智能出行助手、智能交通管理、智能交通规划、交通事故报告和分析、交通政策研究等。



天工大模型商业化产品总监袁梓焜发表《基于数据边界洞察 AI 应用落地与演进趋势》主题演讲。袁梓焜指出,AIGC≈泛 UGC,它不局限于视觉和语言内容,还应该包括肢体、神态、意识与逻辑。而泛 UGC 的三种形式智能涌现、逻辑推理、条件反射分别对应人的三种反应:创意脑暴、分析思考、不假思索。这三种反应也可以称为三种数据类型,对应到不同用户行为之上,则会体现不同的价值。因此,搞清楚数据边界对于大模型的落地应用有非常大的影响。而在 AI 技术可行性边界中,数据压缩度与人类对齐是目前主要卡点。袁梓焜介绍,天工大模型已经能够实现智能涌现,能够实现 20 轮次以上用户交互,最高支持 1 万字以上文本对话。7 月 14 日,公司与国内领先的互动娱乐服务提供商 “映宇宙” 就 AI 技术服务事项达成合作协议,此次合作标志着 “天工” 大模型在互联网社交行业应用的正式落地。



虽然大模型市场非常火热,但普通的创业者和工程师很难有机会直接训练大模型,那么普通人机会在哪里?LLM agent 被认为是一个优势途径。WasmEdge 社区经理夏歌发表《如何用 Serverless 的方式构建 LLM Agent》主题演讲,介绍了几种常见的 LLM agent,第一种是 AI agent,如 MetaGPT、Auto-GPT。第二种是 Co-pilot agent。夏歌也分享了一个 AI agent 框架 flows.network,可以用 Serverless 的方式部署 co-pilot Agent,从而用户无需运行自己的服务器来侦听触发器和事件,并对操作进行身份验证(例如,将结果发送到团队的私有 Slack Channel)。工程师只需要关注业务逻辑即可。在 AI 代理中,Flow 函数可以轻松访问所有领先的商业和开源 LLM(例如 GPT4、Claude2、PaLM2、llama2)和生成图像模型。你可以轻松创建利用模型的能力与世界交互的 AI Agent。



当下,大模型与向量检索技术,也已经渗入数据库运维中,提供了一种新的运维方式。爱可生向量数据库研发经理苏鹏发表《智能运维交互的创新实践》主题演讲。苏鹏介绍,基于大模型 + 向量数据库的智能运维解决方案,可以提高运维效率,通过智能化的方法,可以自动化处理常见的运维问题,大幅提高运维效率;降低运维成本,通过自动化运维,减少对人工的依赖,从而降低企业的人力成本;强化故障预防,通过大模型的预测能力,可以预测潜在的故障和问题,从而实现从被动应对向主动预防的转变。爱可生也提出了基于大模型 + 向量数据库的 SQL 开发管控解决方案,可实现数据清洗、向量转换与检索、模型微调等技术。



各位演讲嘉宾的分享也赢得了现场观众的喝彩,分享结束后,多位观众积极向讲师提问,深度交流。

北京站「源创会」现场交流.png

相关文章
|
6天前
|
缓存 Dubbo Java
Dubbo线程模型设计解析
该文章主要介绍了Dubbo线程模型的设计解析,包括Dubbo作为一个支持大量并发请求的网络框架的特点,以及其线程模型的工作原理。
|
4天前
|
机器学习/深度学习 编解码 人工智能
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
随着人工智能、大数据和深度学习等领域的快速发展,GPU服务器的需求日益增长。阿里云的GPU服务器凭借强大的计算能力和灵活的资源配置,成为众多用户的首选。很多用户比较关心gpu云服务器的收费标准与活动价格情况,目前计算型gn6v实例云服务器一周价格为2138.27元/1周起,月付价格为3830.00元/1个月起;计算型gn7i实例云服务器一周价格为1793.30元/1周起,月付价格为3213.99元/1个月起;计算型 gn6i实例云服务器一周价格为942.11元/1周起,月付价格为1694.00元/1个月起。本文为大家整理汇总了gpu云服务器的最新收费标准与活动价格情况,以供参考。
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
|
3天前
|
数据采集 人工智能 自然语言处理
全球首篇!调研近400篇文献,鹏城实验室&中大深度解析具身智能
【8月更文挑战第17天】在人工智能领域,具身智能正成为研究焦点。它强调智能体在现实世界中的感知与交互。近期,鹏城实验室与中山大学联合发布的首篇全球具身智能综述,调研近400篇文献,总结了该领域的理论和技术进展。文章探讨了具身感知、交互及仿真到现实的适应性等关键议题,并指出了面临的挑战如数据质量、模型泛化等,为通向通用人工智能铺路。论文已发表于IEEE会议记录中。
134 60
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
KDD 2024:港大黄超团队深度解析大模型在图机器学习领域的未知边界
【8月更文挑战第12天】在KDD 2024会议中,香港大学黄超团队深入探讨了大型语言模型在图机器学习的应用与前景。他们提出将LLMs与图神经网络结合可显著增强图任务性能,并归纳出四种融合模式,为领域发展提供新视角与未来路径。论文详细分析了现有方法的优势与局限,并展望了多模态数据处理等前沿课题。[论文](https://arxiv.org/abs/2405.08011)为图机器学习领域注入了新的活力。
121 61
|
4天前
|
人工智能 PyTorch 算法框架/工具
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
【8月更文挑战第6天】Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
|
6天前
|
机器学习/深度学习 弹性计算 人工智能
阿里云第八代云服务器ECSg8i实例深度解析:性能及适用场景参考
目前企业对云服务器的性能、安全性和AI能力的要求日益提高。阿里云推出的第八代云服务器ECS g8i实例,以其卓越的性能、增强的AI能力和全面的安全防护,除了适用于通用互联网应用和在线音视频应用等场景之外,也广泛应用于AI相关应用。本文将深入解析ECS g8i实例的技术特性、产品优势、适用场景及与同类产品的对比,以供参考。
阿里云第八代云服务器ECSg8i实例深度解析:性能及适用场景参考
|
11天前
|
人工智能 Oracle Java
蚂蚁 CodeFuse 代码大模型技术解析:基于全仓库上下文的代码补全
CodeFuse 代码补全插件是 CodeFuse 系列产品中用户数量最多、留存率最大,调用AI能力最多的产品~欢迎大家体验试用https://github.com/codefuse-ai/RepoFuse
74 7
蚂蚁 CodeFuse 代码大模型技术解析:基于全仓库上下文的代码补全
|
1天前
|
机器学习/深度学习 自然语言处理 负载均衡
揭秘混合专家(MoE)模型的神秘面纱:算法、系统和应用三大视角全面解析,带你领略深度学习领域的前沿技术!
【8月更文挑战第19天】在深度学习领域,混合专家(Mixture of Experts, MoE)模型通过整合多个小型专家网络的输出以实现高性能。从算法视角,MoE利用门控网络分配输入至专家网络,并通过组合机制集成输出。系统视角下,MoE需考虑并行化、通信开销及负载均衡等优化策略。在应用层面,MoE已成功应用于Google的BERT模型、Facebook的推荐系统及Microsoft的语音识别系统等多个场景。这是一种强有力的工具,能够解决复杂问题并提升效率。
|
3天前
|
存储 缓存 NoSQL
深入解析Memcached:内部机制、存储结构及在大数据中的应用
深入解析Memcached:内部机制、存储结构及在大数据中的应用
|
12天前
|
域名解析 监控 负载均衡
【域名解析DNS专栏】智能DNS解析:自动选择最快服务器的奥秘
在互联网中,智能DNS解析作为一项先进技术,根据用户的网络环境和服务器负载情况,自动挑选最优服务器进行域名解析,显著提升访问速度与体验。其工作原理包括实时监控服务器状态、分析数据以选择最佳路由。通过负载均衡算法、地理位置识别及实时性能测试等策略,确保用户能获得最快的响应。这项技术极大提高了互联网服务的稳定性和效率。
39 5

推荐镜像

更多