魔搭进校园 | AI赋能大学计划:AI大模型技术与产业趋势高校行·西安交通大学站成功举办

简介: 2024年1月10日,西安交通大学兴庆校区教2-1400丝路大礼堂,一场别开生面的AI技术交流讲座在此拉开帷幕。


2024年1月10日,西安交通大学兴庆校区教2-1400丝路大礼堂,一场别开生面的AI技术交流讲座在此拉开帷幕。由中国软件行业协会智能应用服务分会、魔搭社区以及通义千问联合主办的“AI赋能大学计划”之AI大模型技术与产业趋势高校行活动,吸引了来自西安交通大学计算机学院、人工智能学院的200余名师生通过线上、线下多渠道的方式参加。本次活动以科普讲座、研讨会、训练营等形式深入高校,旨在介绍大模型技术的原理、应用和发展趋势,分享最新进展和案例,并探讨未来发展方向和挑战。



活动现场,六位学术和产业界专家分别为同学们带来了精彩纷呈的报告。西安交通大学二级教授、博士生导师丁宁发表了题为大模型发展与产业应用的演讲,深入浅出地阐述了生成式大语言模型的核心概念、发展历程、训练技巧以及应用现状和面临的问题。丁教授指出,自然语言处理领域中,生成式大语言模型已经成为一个热门且关键的研究方向,展现出令人瞩目的能力。他通过生动的案例和深入的分析,让同学们对大模型技术有了更加深入的了解。




魔搭社区技术运营负责人成晨带来了题为“魔搭社区让大模型更普惠、更好玩”的分享,从模型开源社区的角度出发,介绍了如何通过ModelScope魔搭社区提供的一站式模型服务和普惠的云端算力,让大家轻松玩转大模型。她现场通过实际案例和操作演示,让大家对时下大模型在云端应用的前沿技术和实践有了更加直观的认识。同时,成晨还预告了魔搭社区即将在西交启动的大模型实战训练营活动,将通过一套体系化的课程帮助同学们进行大模型实践入门。



通义千问多模态算法专家白帅进行了题为通义千问:走向通用人工智能的演讲,详细介绍了通义千问通用大语言模型及多模态大模型的研究与应用。白帅围绕通义千问在语言模型、多模态、Agent方面的工作,结合丰富的案例深入浅出地展示了算法特色及能力,同时强调通义千问全面拥抱开源,展示了完备的推理、微调、工具相关生态,为观众们带来关于通义千问的全视角认知。


通义实验室资深算法专家李雅亮发表了题为“Data-Juicer:探索大语言模型的数据菜谱”的演讲,分享聚焦于大模型时代如何理解和有效处理LLM所需数据的探索,重点介绍了Data-Juicer——一站式数据处理系统,包括其架构设计、性能优化和在数据分析和处理上的强大功能。此外,还分享了如何通过ModelScope魔搭社区来使用Data-Juicer、以及在魔搭社区举办的相关赛事活动。



通义实验室技术专家刘阳的演讲主题是“AGENT在大模型时代应用开发实践分享”,他开场先介绍了Agent在大模型时代的应用开发中所扮演的关键角色,随后逐一通过介绍ModelScope-Agent开源框架技术原理、应用方法及案例等建联起同学们对Agent的切实感知,最后共同探索大模型时代下应用开发的新范式的开放命题。提到“可以用自然语言就能完成AI应用的开发“,引起了现场同学对AI Agent的浓厚兴趣和活跃讨论。


最后是中国软件行业协会智能应用服务分会秘书长邱钦伦发表题为“AI新时代人才的新定义与新要求的演讲,他从宏观的角度出发,探讨了大模型重构AI未来人才的新定义。邱钦伦秘书长指出,新一代人工智能正在重新定义技术发展方向,工业化将取代作坊式开发,码工将取代码农在这个新时代,无论是雇主还是个人,包括人才培养机构,都需要重新定义自己,以适应这个新的环境。新技术的普及必然带来一批旧岗位的消失和一批新岗位的诞生在这个AI加持下的所有岗位都要重新定义所需素质和技能的核心要求报告基于协会正在推动的岗位技能模型规范针对人工智能新时代对三种层次AI人才的诉求提出了人工智能专业设置和建设的思路和建议。



在报告环节结束后,六位嘉宾还与现场观众进行了互动交流环节。同学们纷纷就自己关心的问题如Agent应用方向、大模型训练数据集准备、训练营学习门槛等向嘉宾提问,嘉宾们也耐心地解答了大家的疑惑。通过这次交流互动环节,让同学们更加深入地了解了人工智能大模型技术的实际应用和发展前景。



本次活动的成功举办,为西安交通大学的师生提供了一个深入了解AI大模型技术的平台,也为产业界与学术界的交流合作开启了新的篇章。在不久的将来,AI大模型技术将会更加深入地渗透到各个领域中,我们期待着这些有志于投身AI领域的同学们,能够将所学所得应用于实际工作和创新实践中,为人工智能的发展注入新的活力。



此外,参与本次线下活动的同学将优先进入线上大模型实战训练营,通过14天实践操作环节,深入了解大模型的开发和应用,可以更全面地掌握大模型的原理、微调、部署、评测等全链路知识和能力。同时,为了更好地促进成果转化和应用,学习结束后,将通过多种方式将本次活动的学习成果和优秀案例进行推广和转化,以便其他用户参考和借鉴。后续,“AI赋能大学计划还将继续深入开展,覆盖更多的高校和地区,让更多的学子们受益。

(本次活动直播设置回放,欢迎大家移步“魔搭ModelScope社区 视频号观看)

相关文章
|
4月前
|
负载均衡 测试技术 调度
大模型分布式推理:张量并行与流水线并行技术
本文深入探讨大语言模型分布式推理的核心技术——张量并行与流水线并行。通过分析单GPU内存限制下的模型部署挑战,详细解析张量并行的矩阵分片策略、流水线并行的阶段划分机制,以及二者的混合并行架构。文章包含完整的分布式推理框架实现、通信优化策略和性能调优指南,为千亿参数大模型的分布式部署提供全面解决方案。
1053 4
|
4月前
|
人工智能 新制造 云栖大会
TsingtaoAI亮相云栖大会,AI大模型赋能传统制造业焕新升级
2025年9月24日,杭州云栖小镇,2025云栖大会盛大开幕。作为全球AI技术与产业融合的重要平台,本届大会以“AI驱动产业变革”为主题,集中展示大模型技术在各领域的创新应用。 其中,由西湖区商务局牵头组织的“AI大模型应用与产业融合”专场论坛成为大会亮点之一,吸引了来自政府、企业及投资机构的百余名代表参与。 在论坛上,TsingtaoAI作为制造业智能化转型的代表企业,分享了在具身智能-制造企业的AI应用实践。
202 1
|
4月前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
349 117
|
4月前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
1796 16
构建AI智能体:一、初识AI大模型与API调用
|
4月前
|
机器学习/深度学习 存储 并行计算
大模型推理加速技术:FlashAttention原理与实现
本文深入解析大语言模型推理加速的核心技术——FlashAttention。通过分析传统注意力机制的计算瓶颈,详细阐述FlashAttention的IO感知算法设计、前向反向传播实现,以及其在GPU内存层次结构中的优化策略。文章包含完整的CUDA实现示例、性能基准测试和实际部署指南,为开发者提供高效注意力计算的全套解决方案。
629 10
|
4月前
|
人工智能 文字识别 自然语言处理
从“看见”到“预见”:合合信息“多模态文本智能技术”如何引爆AI下一场革命。
近期,在第八届中国模式识别与计算机视觉学术会议(PRCV 2025)上,合合信息作为承办方举办了“多模态文本智能大模型前沿技术与应用”论坛,汇聚了学术界的顶尖智慧,更抛出了一颗重磅“炸弹”——“多模态文本智能技术”概念。
241 1
|
4月前
|
监控 算法 测试技术
大模型推理服务优化:动态批处理与连续批处理技术
本文系统阐述大语言模型推理服务中的关键技术——动态批处理与连续批处理。通过分析传统静态批处理的局限性,深入解析动态批处理的请求调度算法、内存管理策略,以及连续批处理的中断恢复机制。文章包含完整的服务架构设计、核心算法实现和性能基准测试,为构建高性能大模型推理服务提供全面解决方案。
589 3
|
4月前
|
机器学习/深度学习 存储 缓存
大模型推理加速技术:PagedAttention原理与实现
本文深入解析大语言模型推理中的革命性技术——PagedAttention,该技术是vLLM推理引擎的核心创新。通过将操作系统中的虚拟内存分页概念引入注意力机制,PagedAttention有效解决了KV缓存的内存碎片问题,实现了近乎零浪费的KV缓存管理。文章详细阐述其原理、内存管理机制、实现细节,并提供完整的代码示例和性能分析。
524 1
|
4月前
|
存储 缓存 算法
淘宝买家秀 API 深度开发:多模态内容解析与合规推荐技术拆解
本文详解淘宝买家秀接口(taobao.reviews.get)的合规调用、数据标准化与智能推荐全链路方案。涵盖权限申请、多模态数据清洗、情感分析、混合推荐模型及缓存优化,助力开发者提升审核效率60%、商品转化率增长28%,实现UGC数据高效变现。

热门文章

最新文章