AI日报:Anthropic推出商业友好型Claude 3人工智能模型

简介: AI日报:Anthropic推出商业友好型Claude 3人工智能模型

Claude3发布

OpenAI的竞争对手Anthropic今天公布了其Claude 3系列模型,这是该初创公司的第一个多模式版本,旨在解决公司最大的生成人工智能问题:成本、性能和幻觉。

这家初创公司拥有亚马逊和谷歌数十亿美元的投资,以对抗微软的OpenAI巨头,并在其Claude 3家族中推出了三款新机型:Haiku、Sonnet和Opus。这些可以接受并生成文本和图像。

这些模型显示了Haiku、Sonnet和Opus等不断提升的功能水平以及定价。值得注意的是,Anthropic关于Claude 3的技术论文显示,这三个模型在知识、推理、数学、问题解决、编码和多语言数学方面都击败了OpenAI的GPT-3.5和Gemini 1.0 Pro。

根据Anthropic的数据,Opus甚至击败了GPT-4和Gemini Ultra——分别是OpenAI和谷歌最先进的模型。人类研究人员在一篇博客文章中写道,Opus在复杂任务上表现出“接近人类水平的理解力和流利度,引领了一般智力的前沿”。

Anthropic表示,这三种型号最初都有20万(20万)的代币窗口,但能够摄入超过100万个代币,可供选择需要额外处理能力的客户使用。

但Opus也是三种代币中价格最高的——百万分之15的代币用于输入,百万分之75的代币用于输出。相比之下,OpenAI的GPT-4 Turbo更便宜,输入为10美元/MTok,输出为30美元/MTok,但上下文窗口较小,为128k。

Sonnet击败了GPT-3.5,在几个性能指标上与GPT-4不相上下,输入成本为3/MTok,输出成本为15/MTok。Haiku是最便宜的型号,每公吨投入25美分,每公吨产出1.25美元,轻松击败了GPT-3.5和Gemini Pro,但没有击败GPT-4或Gemini Ultra。

Claude 3模型在2023年8月之前一直接受数据训练,但可以访问搜索应用程序获取最新信息。

Opus和Sonnet现已在claude.ai和claude API的159个国家推出,Haiku即将推出。尝试Sonnet通过免费版本的Claude AI聊天机器人在这里。Opus有付费的Claude Pro版本。

对于企业客户,Sonnet通常仅在亚马逊Bedrock上作为托管服务提供

实时聊天的“近即时响应”

随着语言和多模式人工智能模型之间的竞争加剧,Anthropic正在通过开发Claude 3模型来吸引企业客户,从而加强其商业游戏。

Claude 3模型可以进行分析、预测、内容创建和编码,并且是多语言的。添加图像功能将使企业能够将图表、图形和其他视觉效果上传到模型中。(OpenAI对GPT-4也做了同样的事情,推出了提供视觉的GPT-4V)。

然而,Anthropic指出,Claude 3型号可以实时提供“近乎即时的响应”,适用于实时客户聊天、自动完成和数据提取,其中时间至关重要。

例如,它说Haiku可以在不到三秒的时间内阅读一篇密集的研究论文,其中有大约1万个代币的图表,速度会更快。Sonnet的速度是Claude 2和2.1的两倍,这使得它在知识检索和销售自动化等任务中更有用。

Opus的速度与Claude 2相同

更少的幻觉

企业对生成人工智能的主要担忧之一是幻觉或错误的输出。以加拿大航空公司最近的案例为例,该公司的人工智能聊天机器人向旅行者提供了不正确的退款信息。在旅客提起诉讼后,法院命令该航空公司赔偿旅客的损失。

Anthropic说,Opus在给出正确答案和尽量减少错误答案方面是Claude 2.1的两倍。研究人员测量了三类准确性:正确答案、错误答案和回答不知道答案而不是错误答案。

至关重要的是,Anthropic表示,Claude 3模型在长上下文提示中对数据有很好的回忆能力——它表示,其他人工智能模型难以记住长提示的中间部分。这家初创公司声称Opus具有99%准确率的“近乎完美的召回”。

这意味着Claude 3车型可以更好地遵循品牌的声音和面向客户的应用指南。

然而,Claude 3模型无法记住之前聊天的提示。它也无法打开链接,并将拒绝识别图片中的人。

负责任的人工智能基金会

自两年前由前OpenAI工程师创立以来,Anthropic一直优先考虑让人工智能负责任。研究人员表示,它的模型是根据所谓的“宪法人工智能”进行训练的,即模型规则中体现的人类价值观,以避免性别歧视、种族主义和其他有害输出,并遵守联合国《世界人权宣言》等原则。

今天,Anthropic宣布了另一条规则:尊重残疾人权利,以减少任何宣扬刻板印象和偏见的产出。

至于其模型被用于邪恶原因的风险,Claude 3模型处于人工智能安全级别2,Anthropic表示,该级别确实“显示出危险能力的早期迹象,例如提供如何制造生物武器的指令的能力,但由于可靠性不足或未提供搜索引擎无法提供的信息,这些信息尚未有用。”

Claude 3模型是根据第三方的公共在线数据和私人数据进行训练的

相关文章
|
6天前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
44 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
|
8天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
48 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
8天前
|
人工智能 搜索推荐 开发者
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
Aurora是xAI为Grok AI助手推出的新图像生成模型,专注于生成高逼真度的图像,特别是在人物和风景图像方面。该模型支持文本到图像的生成,并能处理包括公共人物和版权形象在内的多种图像生成请求。Aurora的可用性因用户等级而异,免费用户每天能生成三张图像,而Premium用户则可享受无限制访问。
46 11
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
|
12天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
93 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
6天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
10天前
|
存储 人工智能 PyTorch
【AI系统】模型转换流程
本文详细介绍了AI模型在不同框架间的转换方法,包括直接转换和规范式转换两种方式。直接转换涉及从源框架直接生成目标框架的模型文件,而规范式转换则通过一个中间标准格式(如ONNX)作为桥梁,实现模型的跨框架迁移。文中还提供了具体的转换流程和技术细节,以及模型转换工具的概览,帮助用户解决训练环境与部署环境不匹配的问题。
23 5
【AI系统】模型转换流程
|
13天前
|
机器学习/深度学习 存储 人工智能
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
EfficientTAM是Meta AI推出的轻量级视频对象分割和跟踪模型,旨在解决SAM 2模型在移动设备上部署时的高计算复杂度问题。该模型采用非层次化Vision Transformer(ViT)作为图像编码器,并引入高效记忆模块,以降低计算复杂度,同时保持高质量的分割结果。EfficientTAM在多个视频分割基准测试中表现出与SAM 2相当的性能,具有更快的处理速度和更少的参数,特别适用于移动设备上的视频对象分割应用。
33 9
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型转换基本介绍
模型转换技术旨在解决深度学习模型在不同框架间的兼容性问题,通过格式转换和图优化,将训练框架生成的模型适配到推理框架中,实现高效部署。这一过程涉及模型格式转换、计算图优化、算子统一及输入输出支持等多个环节,确保模型能在特定硬件上快速、准确地运行。推理引擎作为核心组件,通过优化阶段和运行阶段,实现模型的加载、优化和高效执行。面对不同框架的模型文件格式和网络结构,推理引擎需具备高度的灵活性和兼容性,以支持多样化的应用场景。
29 4
【AI系统】模型转换基本介绍
|
10天前
|
机器学习/深度学习 人工智能 算法
【AI系统】模型压缩基本介绍
模型压缩旨在通过减少存储空间、降低计算量和提高计算效率,降低模型部署成本,同时保持模型性能。主要技术包括模型量化、参数剪枝、知识蒸馏和低秩分解,广泛应用于移动设备、物联网、在线服务系统、大模型及自动驾驶等领域。
38 4
【AI系统】模型压缩基本介绍
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型剪枝
本文概述了模型剪枝的概念、方法及流程,旨在通过移除神经网络中冗余或不重要的参数,实现模型规模的减小和效率的提升。剪枝不仅有助于降低模型的存储和计算需求,还能增强模型的泛化能力。文章详细介绍了剪枝的定义、分类、不同阶段的剪枝流程,以及多种剪枝算法,如基于参数重要性的方法、结构化剪枝、动态剪枝和基于优化算法的全局剪枝策略。通过这些方法,可以在保持模型性能的同时,显著提高模型的计算速度和部署灵活性。
21 2
【AI系统】模型剪枝