苹果发布最新人工智能系统——Apple Intelligence,重新定义AI

简介: Apple推出Apple Intelligence,集成于iOS 18等系统中,提供情境感知的个性化服务。新功能包括跨应用操作、屏幕阅读、写作辅助、图像生成及邮件管理。Siri升级,支持语言理解与生成。未来计划扩展多语言支持、集成第三方模型。与OpenAI合作将ChatGPT融入Siri。

本文首发于公众号“AntDream”,欢迎微信搜索“AntDream”或扫描文章底部二维码关注,和我一起每天进步一点点

苹果在2024年7月发布了其最新的人工智能系统——Apple Intelligence,这是一套基于人工智能的工具集,深度集成于iOS 18、iPadOS 18和macOS Sequoia中。Apple Intelligence的核心在于其强大的数据处理和情境感知能力,能够深入理解设备中的各类数据,包括照片、邮件、信息等,并据此为用户提供个性化的智能服务。

Apple Intelligence的推出,意味着苹果不愿在人工智能与大模型的浪潮中做一名“落后者”,并基于自身软硬结合,将AI能力集成于系统底层,从端侧运行。它能够理解并生成语言和图像,还可以代替用户执行操作,简化跨多个App进行操作的流程。例如,Siri通过Apple Intelligence的加持,交互变得更自然,上下文理解力更强,用户使用也将更个性化。

最新功能亮点:

  1. 跨应用操作:Apple Intelligence能够理解用户的个人情境,实现跨多个App的复杂操作,比如根据用户的日历事件和位置信息提供出行建议。
  2. 屏幕感知能力:Siri通过Apple Intelligence能够“看到”屏幕上的内容,并据此提供帮助,例如读取消息中的地址并添加到联系人。
  3. 写作辅助工具:包括文本改写、校对、摘要等,帮助用户提升写作和沟通效率。
  4. 图像和表情符号生成:用户可以要求Siri生成特定风格的图像或表情符号,增加个性化表达。
  5. 邮件和信息管理:包括优先邮件提示、全文邮件摘要、智能回复建议等,提高邮件处理效率。

未来计划:

  1. 多语言支持:虽然初期Apple Intelligence将仅支持美国英语,但苹果计划未来推出更多语言的支持。
  2. 第三方模型集成:苹果计划将更多第三方大型语言模型(LLM)集成到其系统中,提供用户更多选择。
  3. 中国市场引入:苹果正在探索将Apple Intelligence引入中国市场的方法,尽管目前还没有具体的时间表。

在隐私方面,Apple Intelligence在理解深层次个人场景的同时,也会做到对用户隐私的保护。它的一条底层逻辑就是在设备端处理任务,所用到的模型也有很多全程仅在设备端运行。但在处理更加复杂、需求更多处理能力的请求时,Private Cloud Compute会将Apple设备的隐私与安全性覆盖至云端,进一步拓展智能化能力。

此外,苹果还宣布与OpenAI达成合作,将ChatGPT整合至Siri中,使Siri能够直接调用ChatGPT的特殊功能,包括它对图像和文档的理解能力。Apple Intelligence将于今年夏天推出英语试用版,并于今年秋天在iOS 18、iPadOS 18及macOS Sequoia中落地Beta版。

对于中国市场,苹果软件工程主管Craig Federighi表示,苹果正在努力寻找将“Apple Intelligence”引入中国市场的方法,尽管目前没有具体的时间表,但这肯定是苹果想要实现的目标。


欢迎关注我的公众号AntDream查看更多精彩文章!

目录
相关文章
|
11天前
|
机器学习/深度学习 存储 人工智能
【AI系统】昇思MindSpore并行
本文介绍昇思MindSpore的并行训练技术,包括张量重排布、自动微分等,旨在简化并行策略搜索,提高大规模模型训练效率。文章探讨了大模型带来的挑战及现有框架的局限性,详细说明了MindSpore如何通过技术创新解决这些问题,实现高效的大模型训练。
60 20
【AI系统】昇思MindSpore并行
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
11天前
|
机器学习/深度学习 人工智能 分布式计算
【AI系统】混合并行
混合并行融合了数据并行、模型并行和流水线并行,旨在高效利用计算资源,尤其适合大规模深度学习模型训练。通过将模型和数据合理分配至多个设备,混合并行不仅提升了计算效率,还优化了内存使用,使得在有限的硬件条件下也能处理超大型模型。3D混合并行(DP+PP+TP)是最先进的形式,需至少8个GPU实现。此策略通过拓扑感知3D映射最大化计算效率,减少通信开销,是当前深度学习训练框架如Deepspeed和Colossal AI的核心技术之一。
56 15
【AI系统】混合并行
|
7天前
|
存储 人工智能 vr&ar
转载:【AI系统】CPU 基础
CPU,即中央处理器,是计算机的核心部件,负责执行指令和控制所有组件。本文从CPU的发展史入手,介绍了从ENIAC到现代CPU的演变,重点讲述了冯·诺依曼架构的形成及其对CPU设计的影响。文章还详细解析了CPU的基本构成,包括算术逻辑单元(ALU)、存储单元(MU)和控制单元(CU),以及它们如何协同工作完成指令的取指、解码、执行和写回过程。此外,文章探讨了CPU的局限性及并行处理架构的引入。
转载:【AI系统】CPU 基础
|
7天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
11天前
|
存储 人工智能 PyTorch
【AI系统】张量并行
在大模型训练中,单个设备难以满足需求,模型并行技术应运而生。其中,张量并行(Tensor Parallelism, TP)将模型内部的参数和计算任务拆分到不同设备上,特别适用于大规模模型。本文介绍了张量并行的基本概念、实现方法及其在矩阵乘法、Transformer、Embedding和Cross Entropy Loss等场景中的应用,以及通过PyTorch DeviceMesh实现TP的具体步骤。
45 11
【AI系统】张量并行
|
7天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
7天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】关键设计指标
本文介绍了AI芯片的关键设计指标及其与AI计算模式的关系,涵盖计算单位(如OPS、MACs、FLOPs)、关键性能指标(精度、吞吐量、时延、能耗、成本、易用性)及优化策略,通过算术强度和Roofline模型评估AI模型在芯片上的执行性能,旨在帮助理解AI芯片设计的核心考量与性能优化方法。
转载:【AI系统】关键设计指标
|
7天前
|
机器学习/深度学习 人工智能 并行计算
转载:【AI系统】AI轻量化与并行策略
本文探讨了AI计算模式对AI芯片设计的重要性,重点分析了轻量化网络模型和大模型分布式并行两大主题。轻量化网络模型通过减少模型参数量和计算量,实现在资源受限设备上的高效部署;大模型分布式并行则通过数据并行和模型并行技术,解决大模型训练中的算力和内存瓶颈,推动AI技术的进一步发展。
转载:【AI系统】AI轻量化与并行策略
|
9天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建