苹果被传秘密研发Apple GPT,基于自家大模型框架,目标明年出产品

简介: 苹果被传秘密研发Apple GPT,基于自家大模型框架,目标明年出产品

对于生成式 AI 这股技术浪潮,库克终于准备好与领先的 OpenAI、谷歌正面竞争了吗?


又来,苹果的大语言模型及 AI 聊天机器人有了最新的爆料消息。

今天,彭博社知名记者马克・古尔曼(Mark Gurman)公开透露了一些他所掌握的有关苹果大语言模型的内部消息。

根据知情人士的消息,苹果正在秘密开发自己的 AI 工具,旨在与 OpenAI ChatGPT 和谷歌 Bard 等工具展开正面竞争。

不禁好奇,苹果具体在搞的是什么?进度又怎样了呢?

据悉,苹果已经完成了其大语言模型的基础框架,叫做「Ajax」,是支持对话式 AI 技术的系统。苹果创建 Ajax 框架的部分目的是为机器学习开发奠定基础,以跟上生成式 AI 技术的快速发展

不仅如此,消息人士还透露称,苹果已经使用 Ajax 框架创建了一个类似于 ChatGPT 的 AI 聊天机器人,一些员工称作「Apple GPT」。目标是明年推出消费级产品


不过,对于爆料出来的这些消息,苹果没有置评。


有网友表示,看起来 Siri 要有老大哥了。



还有网友做出了梗图:「ChatGPT 与 Apple GPT 的强弱之势一目了然」。


图源:推特 @beast_eth


对 AI 持谨慎态度,苹果要摆脱「落后」处境


马克・古尔曼透露到,近几个月来,推动人工智能的进展是苹果的重大举措之一,多个团队在机器学习、软件工程和云服务工程等相关项目中展开合作。



苹果 CEO 库克曾在二月份的电话财报会议上表示,「我们看到了人工智能的巨大潜力,几乎能够影响我们所做的一切,包括我们拥有的每一款产品和每一项服务。」


图源:reuters


举例而言,苹果已经将人工智能集成到某些 Apple Watch 型号上的「跌倒检测」和特定苹果设备上的「碰撞检测」功能中,以此进一步确保用户的安全。库克认为这些 AI 加持的功能可以拯救用户的生命。


图源:Apple


虽然很看重人工智能在产品和服务中的应用潜力,但苹果似乎并不急于在短期内推出新的人工智能产品。不难看到,在 OpenAI、谷歌等如火如荼推出人工智能新模型、工具和产品的同时,苹果的身影似乎消失了,其进展乏善可陈。


苹果对人工智能持有非常谨慎的态度,库克曾表示,尽管人工智能的浪潮正在席卷整个科技行业,但在部署之前需要经过彻底的安全测试。在他看来,在应对人工智能进展时做到深思熟虑至关重要。


虽然苹果这种做法有其自身的理念和坚守,但一些技术专家认为苹果在人工智能领域的布局可能有点晚了。


有位科技分析师 Michael Gartenberg 认为,苹果在人工智能领域已经落后,其人工智能语音助手 Siri 的功能远不如最新的生成式 AI 聊天工具。


受爆料消息的影响,苹果股票收盘价格上涨了 0.71%。可见市场对苹果的 AI 进展还是很有信心的。



此次曝出的聊天机器人 Apple GPT 或许可以帮助苹果从落后者重新变成领先者。我们拭目以待。


参考链接:

https://www.businessinsider.com/apple-is-developing-apple-gpt-a-chatgpt-rival-report-2023-7

https://www.bloomberg.com/news/articles/2023-07-19/apple-preps-ajax-generative-ai-apple-gpt-to-rival-openai-and-google


相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
109 2
|
1月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
59 4
|
1月前
|
SQL 数据采集 自然语言处理
NL2SQL之DB-GPT-Hub<详解篇>:text2sql任务的微调框架和基准对比
NL2SQL之DB-GPT-Hub<详解篇>:text2sql任务的微调框架和基准对比
|
2月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
958 11
|
3月前
|
知识图谱
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
147 60
|
23天前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
151 6
|
1月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
47 6
|
2月前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
55 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
1月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
41 0

热门文章

最新文章