民生银行与阿里云成立联合创新实验室

简介: 民生银行与阿里云成立联合创新实验室


近日,中国民生银行与阿里云在杭州签署协议,共同启动联合创新实验室合作。双方将持续推动金融级云原生技术创新与应用,联合探索通义大模型落地,以“云+AI”提升银行业数智化水平。民生银行首席信息官张斌,阿里云智能集团副总裁、新金融行业总经理张翅共同出席签约活动


民生银行始终坚持将科技融入金融业务发展实践,曾多次携手阿里云在大数据、分布式数据库、安全和云原生等领域开展合作,全面推进数字金融建设。


根据本次联合创新协议,双方将在云原生研发平台、容器计算、大模型技术和应用等多个课题结合双方优势资源和特长开展研究实践和创新探索,实现共创共赢。


近年来,民生银行全面拥抱分布式、云原生和大数据技术,积极探索大模型等新兴方向,经营管理数字化、智能化水平不断提升。阿里云持续融合云原生和AI能力,磨练新质生产力,助力企业高效落地云原生AI系统。本次联合创新将有助于民生银行充分利用金融级云原生、生成式人工智能等新兴技术为数字金融向更高水平迈进提供强劲驱动力。



/ END /

目录
相关文章
|
3月前
|
人工智能 运维 安全
|
3月前
|
人工智能 物联网 测试技术
ModelScope魔搭社区发布月报 -- 25年12月
魔搭社区12月重磅更新DeepSeek 3.2、Mistral-3等模型,Z-Image-Turbo引领文生图生态,平台全面升级加速开源模型落地。
443 8
|
9天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7673 10
|
5月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
616 0
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
数字化转型需要的技术:生成式AI时代的全栈能力图谱
本文探讨生成式AI推动下的数字化转型技术需求转变,从技术本质、实施路径、伦理规制三方面解构核心要素。技术本质从工具理性进化到能力体系,需建立模型思维、多模态交互和自主进化能力。实施路径分为认知重构、实验验证与迭代优化三个阶段。同时,文章介绍生成式人工智能认证(GAI认证)的战略价值,强调其在能力基准建立、技术合作及创新生态接入中的作用。最后,文章分析组织能力进化与未来技术前沿,如认知智能、具身智能和群体智能的演进方向,为企业提供全面的技术赋能与战略转型指导。
|
7月前
|
域名解析 人工智能 机器人
AppFlow:企业微信支持流式群聊机器人
企业微信近日更新,新增群聊机器人功能,支持与自定义大模型对话。通过@机器人,可实现流式输出,提升交互效率。只需简单配置,即可将AI能力集成至群聊,完成即时消息解析与业务联动。
1809 1
AppFlow:企业微信支持流式群聊机器人
|
4月前
|
人工智能 运维 安全
云栖专刊 | 深度解读阿里云网络全新能力升级,助力企业出海和AI创新
阿里云飞天洛神云网络在2025云栖大会发布全新升级,聚焦企业出海与AI创新,推出确定性网络、智能云网络及AI for Network三大能力,提升全球连接质量,构建高效、安全、智能的云网络底座。
592 8
云栖专刊 | 深度解读阿里云网络全新能力升级,助力企业出海和AI创新
|
8月前
|
Java Linux Docker
Docker
本文介绍了Docker的基础知识和使用方法,包括镜像打包、容器操作、Dockerfile编写及自定义构建镜像等内容。通过实际案例演示了如何将Java项目打包为JAR文件,并创建Docker镜像运行容器,最终验证服务运行状态。适合初学者快速掌握Docker核心技能。
447 2
Docker
|
6月前
|
机器学习/深度学习 人工智能 算法
大型语言模型为何产生幻觉
语言模型为何会产生幻觉?OpenAI 最新研究指出,幻觉源于模型在训练和评估中被鼓励猜测而非承认“不知道”。即使强大如 GPT-5,也无法完全避免幻觉。改进评估方式、奖励模型表达不确定性,是减少幻觉的关键。
413 10
|
监控 数据可视化 关系型数据库
Dify: 一款宝藏大模型开发平台: 部署及基础使用
Dify 是一款开源的大语言模型(LLM)应用开发平台,融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使非技术人员也能参与 AI 应用的定义和数据运营。计算巢提供了 Dify 的快速部署解决方案,包括单机版和高可用版,支持通过 Docker Compose 和阿里云 ACK 部署,适用于开发测试和生产环境。用户可以通过配置 API、WebApp 脚手架等轻松集成 Dify 到业务中,极大简化了大语言模型应用的开发流程。
6803 22
Dify: 一款宝藏大模型开发平台:  部署及基础使用

热门文章

最新文章