《百炼成金-大金融模型新篇章》––10.金融级AI原生的六大要素(2)

简介: 百炼必定成金,新质生产力会催生新质劳动力,谨以此文抛砖引玉,希望与业内的各位朋友一同探讨如何积极拥抱并运用大模型技术,以应对和驾驭不断变化的市场环境,实现科技金融持续稳定的提质增效和创新发展,携手开启金融大模型未来新篇章。

本文来源于阿里云社区电子书《百炼成金-大金融模型新篇章》


《百炼成金-大金融模型新篇章》––10.金融级AI原生的六大要素(1):https://developer.aliyun.com/article/1539487


要素 3:扩展性与多样性


大模型的扩展性与多样性是确保其在未来可持续发展和适应新需求的关键属性。这两个概念在大模型的设计、开发、部署和维护过程中扮演着重要角色。


扩展性是指为了满足业务发展的需求,需要一种弹性的伸缩架构,满足大模型应用对不断增长算力的需求。通过这种弹性的伸缩架构,来解决了前面提到的“有限算力”的问题。


对于金融客户来说,目前有三种算力资源扩展的形态可以选择:


一、直接使用金融云的公共资源池。对于数据可以上云的客户来说,企业无需自行构建复杂的算力基础设施或大模型开发平台,而是直接利用公共资源池来进行模型推理和高效微调。金融云提供了简便的应用开发平台,开发完毕的应用能够便捷地通过 API 接口进行业务集成与调用,在金融云环境中,可以按需随意进行算力资源的扩缩容,从而极大地提升了效率和灵活性。


二、金融云客户 VPC 方式。对于有数据安全管控需求的客户,建议采用 VPC 方式。大模型应用及知识库部署在金融云客户 VPC 环境中,确保推理过程中产生的数据及微调所用的数据均存储在客户 VPC 的区域内,以加强数据的隐私性和安全性。应用的开发工作在公共资源池的平台进行,同时该平台支持大模型的微调及推理等功能。一旦应用开发完成,便部署到客户 VPC 区域,并通过 API 接口无缝对接公共资源池中的大模型服务,实现高效、安全的资源调用与协同作业。在客户 VPC 方式中,同样可以根据需要对算力资源进行动态扩缩容。


三、线下 IDC 与金融云混合方式。对于私有数据不能出域的客户,可以采用线下数据中心(IDC) 与金融云混合的方式。企业在其内部的 IDC 中构建智能计算集群,部署大模型及应用开发平台。应用的开发全程在 IDC 内成,并在 IDC 环境中部署运行。在面对业务高峰或 IDC资源紧张的情况下,企业可以采取灵活策略,将大模型扩展到金融云的资源池中,实现流量的智能分配,将部分业务负载转移到金融云上进行高效的模型推理,以应对高并发需求。同时,根据实际需要,可以选择性地将微调数据迁移至金融云,利用其强大算力进行模型的微调,进一步优化性能和服务能力。


image.png

混合云解决方案支持大模型在私有云和公共云之间无缝迁移和部署,用户可以通过统一的云管理平台对分布在不同环境下的计算资源进行集中管理和调度,简化运维复杂性。在网络互联上,通过先进的混合云网络技术,实现网络的高速稳定互联。


我们来看一个实际的案例:某证券公司通过大模型将咨询、公告、年报、研报、路演、业绩通告视频等多模态信息纳入知识库,满足内部分析师和机构用户的知识问答、观点总结生成。应用大模型准确理解用户搜索意图并提供逻辑分析能力、归纳总结能力。


image.png

1、客户线下 IDC 进行大模型微调,对微调好后的模型在线下 IDC 和金融云两套环境进行模型部署;


2、业务调用时,分为两种情况:


1)业务流程正常的情况下,直接使用线下 IDC 的资源,为业务提供在线推理服务。


2)当业务流量高峰期间,如果线下 IDC 资源不足以应对业务调用,采用分流的方式,将用户请求调拨至金融云,从而实现高效的 SLA 保障。在这种调用方式下,考虑到私有数据不能出域的情况下,需要在线下 IDC 完成敏感信息处理工作,将脱敏后的内容调用金融云上的大模型。


大模型的多样性体现在多个方面,包括模型尺寸的多样性、多模态、模型部署形态的多样性、和应用场景的适配性。为顺应不同场景用户的需求,有不同参数规模横跨 5 亿到 1100 亿的多款大语言模型。在模型的部署形态上,小尺寸模型可便捷地在手机、PC 等端侧设备部署。在应用场景的适配性上,大尺寸模型如千亿能支持企业级和科研级的应用;中等尺寸如 30B 左右的在性能、效率和内存占用之间找到最具性价比的平衡点。


正是因为大模型的多样性,使得在具体的业务场景,可以采用大小模型相结合,既能充分利用大模型的优点,又能保持成本效益。

通过将任务分解,用大模型处理那些需要高准确性的复杂分析,用小模型则快速处理那些对时效性要求高的任务。


以我们在财管领域的一个客户为例,通过大模型来进行问题规划和任务分解,通过小模型来构建各种 Agent,实现了跟蚂蚁支小宝相似的效果。通过大小模型相结合的方式,既满足了需要,也降低应用成本。


智能服务机器人

image.png


要素 4:安全性与合规性


2023年8月15日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》开始正式施行,办法对大模型训练数据、数据标注、内容生成规范、内容生成标识、算法备案机制、监督和责任都提供了相应的指引和要求。


生成式人工智能的安全管理需要贯穿产品的全生命周期,包括模型训练、服务上线、内容生成、内容传播各阶段。


●  在模型训练阶段,奠定了模型的能力基础,也决定了模型自身的安全性;这个阶段会涉及到数据和模型,不会和用户发生关联。相应的风险治理工作包括:训练数据的筛选和过滤、模型安全评测、模型对齐与内生安全增强、算法机制机理审核。


●  在算法服务上线阶段,服务提供者需要选择安全有效的模型作为基座构建完整的算法服务。在这个阶段并不涉及模型的训练、使用的数据,但是会决定对模型的核验、对模型的使用方式、调用的工具集等。


●  在内容生成阶段,大模型生成的内容是用户和模型交互的结果。用户的输入,以及模型对用户之前输入的反馈,都影响到模型当前的生成。用户使用生成式人工智能服务的目的、是否主观上给出恶意输出和诱导,很大程度上决定了模型输出内容的安全性。


●  在内容传播阶段,内容的传播方式和途径、范围是风险的决定性因素之一。在传播环节出现的风险,需要建立相应的风险治理技术手段和工作机制。


image.png

在整个产品的全生命周期中,其中的模型安全和内容安全是两个最关键的点。模型安全关乎技术底层的坚固与防御能力,是支撑系统运行的根基;而内容安全则侧重于对外交互的信息质量与合法性,是保障用户体验和社会影响的表层防护。两者相辅相成,共同构建 AI 产品全生命周期的安全体系。


模型安全:通过自动发现大模型有害的行为(redteaming)和安全增强(SafetyEnhancement)来不断增强模型安全。

image.png

《百炼成金-大金融模型新篇章》––10.金融级AI原生的六大要素(3):https://developer.aliyun.com/article/1539479

相关实践学习
使用ROS创建VPC和VSwitch
本场景主要介绍如何利用阿里云资源编排服务,定义资源编排模板,实现自动化创建阿里云专有网络和交换机。
阿里云专有网络VPC使用教程
专有网络VPC可以帮助您基于阿里云构建出一个隔离的网络环境,并可以自定义IP 地址范围、网段、路由表和网关等;此外,也可以通过专线/VPN/GRE等连接方式实现云上VPC与传统IDC的互联,构建混合云业务。 产品详情:https://www.aliyun.com/product/vpc
相关文章
|
9天前
|
人工智能 数据管理 API
阿里云百炼又获大奖!阿里云百炼入选 2024 最受开发者欢迎的 AI 应用开发平台榜15强
2024年最受开发者欢迎的AI应用开发平台榜单发布,阿里云百炼入选15强。持续推动AI开发者生态建设,提供开放平台、培训支持、行业解决方案,注重数据安全与合规,致力于生态合作与共赢,加速企业数智化转型。
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
103 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
9天前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
56 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
|
11天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
52 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
11天前
|
人工智能 搜索推荐 开发者
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
Aurora是xAI为Grok AI助手推出的新图像生成模型,专注于生成高逼真度的图像,特别是在人物和风景图像方面。该模型支持文本到图像的生成,并能处理包括公共人物和版权形象在内的多种图像生成请求。Aurora的可用性因用户等级而异,免费用户每天能生成三张图像,而Premium用户则可享受无限制访问。
52 11
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
|
12天前
|
存储 人工智能 PyTorch
【AI系统】模型转换流程
本文详细介绍了AI模型在不同框架间的转换方法,包括直接转换和规范式转换两种方式。直接转换涉及从源框架直接生成目标框架的模型文件,而规范式转换则通过一个中间标准格式(如ONNX)作为桥梁,实现模型的跨框架迁移。文中还提供了具体的转换流程和技术细节,以及模型转换工具的概览,帮助用户解决训练环境与部署环境不匹配的问题。
31 5
【AI系统】模型转换流程
|
12天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型转换基本介绍
模型转换技术旨在解决深度学习模型在不同框架间的兼容性问题,通过格式转换和图优化,将训练框架生成的模型适配到推理框架中,实现高效部署。这一过程涉及模型格式转换、计算图优化、算子统一及输入输出支持等多个环节,确保模型能在特定硬件上快速、准确地运行。推理引擎作为核心组件,通过优化阶段和运行阶段,实现模型的加载、优化和高效执行。面对不同框架的模型文件格式和网络结构,推理引擎需具备高度的灵活性和兼容性,以支持多样化的应用场景。
33 4
【AI系统】模型转换基本介绍
|
12天前
|
机器学习/深度学习 人工智能 算法
【AI系统】模型压缩基本介绍
模型压缩旨在通过减少存储空间、降低计算量和提高计算效率,降低模型部署成本,同时保持模型性能。主要技术包括模型量化、参数剪枝、知识蒸馏和低秩分解,广泛应用于移动设备、物联网、在线服务系统、大模型及自动驾驶等领域。
49 4
【AI系统】模型压缩基本介绍
|
12天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型剪枝
本文概述了模型剪枝的概念、方法及流程,旨在通过移除神经网络中冗余或不重要的参数,实现模型规模的减小和效率的提升。剪枝不仅有助于降低模型的存储和计算需求,还能增强模型的泛化能力。文章详细介绍了剪枝的定义、分类、不同阶段的剪枝流程,以及多种剪枝算法,如基于参数重要性的方法、结构化剪枝、动态剪枝和基于优化算法的全局剪枝策略。通过这些方法,可以在保持模型性能的同时,显著提高模型的计算速度和部署灵活性。
27 2
【AI系统】模型剪枝
|
1天前
|
人工智能 关系型数据库 OLAP
通义百炼融合AnalyticDB,10分钟创建网站AI助手
本文介绍了如何在百炼平台上创建和配置AI助手,使其能够准确回答公司产品的相关问题。主要步骤包括:开通管理控制台、创建应用并部署示例网站、配置知识库、上传产品介绍数据、创建AnalyticDB PostgreSQL实例、导入知识文件、启用知识检索增强功能,并最终测试AI助手的回答效果。通过这些步骤,AI助手可以从提供通用信息转变为精准回答特定产品问题。实操完成后,还可以释放实例以节省费用。