前不久,OpenAI在官网宣布,推出企业版ChatGPT(ChatGPT Enterprise)。而就在此前,OpenAI又发布了针对企业的GPT-3.5 Turbo微调功能。
这引发了一场热烈的讨论——是否仍需要私有化的大模型?
如果仅为了满足用户的某些需求,而在应用程序中使用语言模型,可以使用OpenAI或Anthropic等公司的API,向 API 提交 prompt,然后获取响应,并支付相应的使用费用。
最近有几项分析指出,如果只考虑成本和性能,使用OpenAI API的优势更为明显。可以进行非常详细的成本计算,调用API最明显的成本优势是,我们只需要在使用时支付硬件使用费用。
但对于语言模型的性能评估,存在许多复杂的因素需要考虑,而市面上的各种基准测试和“排行榜” ,与在具体商业相关任务中的表现之间并不存在 1:1 的关系。
使用API意味着你只是OpenAI等公司提供的服务的使用者。模型的特性、自定义功能、价值观(包括审查机制和世界观)等都由这些公司决定,你只能构建前端页面调用这些服务。
这也意味着你无法了解模型的内部状态,因此在应用更高级别的问责技术和防护措施时(这些技术和措施可能包括应用模型的可解释性、模型监控、数据隐私保护等等)会受到限制。这些问题都可能是有益的,因为你不必担心如何处理这些问题。但这也意味着你构建的任何应用都完全依赖于这些初创公司。
随着像 LLaMa2 这样的大型语言模型颠覆了越来越多的生产领域,企业如何应用大模型、如何私有化 AI 部署成为了一个热度越来越高的话题。
为什么企业需要私有化专属大模型?
近日,资金实力比较强的央国企和行业客户正在找寻私有化大模型方案,帮助行业客户构建基于行业专用数据的专用大模型,这是大模型商业落地的另外一种方式,也具备较大的市场空间。
许多大型传统企业,由于数据安全等方面的考虑,无法使用公有云的 AI 服务。而这些企业的 AI 基础能力比较薄弱,缺少技术和人才的沉淀,但是智能化升级又是企业的刚需,甚至是迫切的需求,这时候借助 AI 技术公司在企业内部进行 AI 中台的私有化部署,是比较经济而高效的策略。
腾讯汤道生近期在一次演讲中指出:“通用大模型可以在 100 个场景中解决 70%-80% 的问题,但未必能够完全满足企业某个具体场景的需求。”通用大模型通常基于广泛的公开文献和网络信息训练,缺乏许多专业知识和行业数据的积累,因此在行业针对性和精准度方面存在不足。
然而,用户对企业提供的专业服务要求较高,容错性较低,一旦企业向公众提供了错误信息,可能会引发严重后果。通过基于行业大模型并结合自身数据进行精细调整,企业可以构建出高度可用的智能服务。
此外,与通用大模型相比,专属模型具有较少的参数,训练和推理成本更低,模型的优化也更容易。
同时,行业大模型和模型开发工具可以通过私有化部署、权限管控和数据加密等方式,防止对企业敏感数据的泄露。
基于此,任何想拥抱AI并且高质量发展的企业,毫无疑问是需要私有化专属大模型的。
企业 AI 私有化部署的必要意义如下:
1.增强数据隐私与安全性
通过在企业内部部署 AI 系统,敏感数据不必离开企业的安全边界,减少了数据泄露和安全漏洞的风险。这为企业处理涉及敏感信息的任务提供了更高的可信度和保护。
2.实现定制化和灵活性的提高
企业 AI 私有化部署允许组织根据自身需求定制 AI 应用程序。这种定制化能力使企业能够更好地适应特定业务场景,并根据需要进行灵活调整和扩展。
3.高性能和低延迟
将 AI 系统部署在企业内部基础设施上,可以实现更快的数据传输和处理速度。这对于需要实时决策和快速响应的业务非常重要,提高了整体的效率和竞争力。
4.增加成本效益
尽管企业 AI 私有化部署需要一定的初始投资,但长期来看,它可以在成本上产生积极影响。相对于长期依赖公共云平台,企业私有化部署可以降低运营成本,并且更好地控制和规划预算。
5.数据治理和合规性
企业 AI 私有化部署使企业能够更好地管理和控制数据治理,以满足监管和合规性要求。这对于在涉及个人隐私保护和数据使用合规性方面的行业尤为重要。
企业专属大模型建设的选择与挑战
未来,每个企业都会用到大模型,但并非每个企业都需要从零开始打造一个基础大模型,这既不必要,也不现实。首先,高昂的资金投入是最显而易见的挑战,基础大模型的训练需要消耗大量的算力,单次训练可能就需要成百上千万的资金投入,还需要耗费大量时间准备高质量的算料,此外还有人才培养成本等诸多因素。因此,站在巨人肩上也许才是最好的选择,甚至可能事半功倍。
开源将一如既往对大模型产业发展产生巨大推动作用。目前,业界已经有LLaMA 2、PaLM 2、Claude等众多优秀的开源预训练大模型,也吸引了众多企业的积极响应,他们结合自身的场景和私有数据进行本地化训练,让大模型在具备通用能力的基础上,叠加行业知识,形成专属大模型。
但基于开源构建专属大模型也充满挑战。首先,是企业所选择的大模型从参数规模、准确率到泛化性是否能满足业务场景需求;其次,用户需要自主选择AI算力、框架和部署模式,如果缺乏必要的软硬结合的调优能力,将难以充分发挥算力潜能;第三,大模型的开发部署是一个系统工程,开源大模型往往缺乏完善的工具链支撑,企业对模型进行二次开发和精调将非常复杂。
企业亟需商业化的专属大模型,并能通过一站式的部署,降低建设和使用门槛。
部分企业AIGC大模型私有化部署方案、实践
为实现大模型私有化交付,优刻得大模型一体机,基于一云多芯且自主可控的UCloudStack全栈私有云平台,提供虚拟化、存储、网络及MaaS模型的私有化一体交付方案,支持Alpaca-LoRA、ChatGLM、T5、MiniGPT-4、Stable Diffusion、LLaMA2及Milvus向量数据库等开源模型的部署及算力调度,用户可在本地或自有数据中心内,轻松部署针对特定场景的大模型服务。
AIGC绘画服务PICPIK.AI是UCloud私有化一体机的实践应用。PICPIK.AI提供了一种全新的方式,允许用户利用“AI绘画垂直模型”的能力进行AI艺术创作,提供AI WEB端和PhotoShop插件,赋予设计师无与伦比的创造力和精确性,创作出令人惊艳的视觉杰作。
作为一家智能文本处理领域的领军企业,达观数据也推出的私有化“曹植”大模型一体机,内置达观数据全栈自主研发的“曹植”大模型,支持三方开源模型库,可在企业内部一键部署大模型应用,能同时为多种垂直大模型业务提供文档智能审阅、智能知识管理、知识搜索与问答、文档智能写作、智能推荐等智能化服务,支持和具备安全便捷的AI训练、推理、长文档写作、机器翻译、语义分析审核、知识问答、text-to-SQL等场景功能应用。
科大讯飞携手华为发布星火一体机,可实现训练和推理一体化部署,可用于问答系统、对话生成、知识图谱构建、智能推荐等多个领域的应用,具备大模型预训练、多模态理解与生成、多任务学习和迁移等能力。
星火一体机内目前已涵盖办公、代码、运维、客服、营销、采购等10多个场景包,支持对话开发、任务编排、插件执行、知识接入、提示工程等5种定制优化模式,并将持续拓展更多专业场景和模式优化,为客户快速定制企业专属大模型。星火一体机还针对星火认知智能大模型的训练算法和推理应用进行了硬件的量身定制,可大大降低企业的使用成本