【通义】AI视界|英特尔推出新一代AI芯片挑战英伟达

简介: 今日科技热点包括:OpenAI CTO 米亚·穆拉蒂宣布离职,Meta发布多功能Llama 3.2语言模型,扎克伯格因Meta的人工智能策略使个人资产突破2000亿美元,星纪魅族展示AI生态新品如Lucky 08 AI手机及智能穿戴设备,以及英特尔发布Xeon 6 CPU和Gaudi 3 AI加速器挑战英伟达市场地位。这些动态展现了人工智能领域快速发展的趋势及其对科技巨头的影响。

本文内容均由【通义】自动生成,打开通义官网,更多能力等你体验~

✦24小时精选

  1. 重大人事变动!OpenAI CTO穆拉蒂宣布辞职
  2. 社交媒体巨头Meta发布最新大型语言模型Llama 3.2
  3. 扎克伯格净资产达到2000亿美元,将Meta的强劲表现归功于人工智能
  4. 星纪魅族举办AI生态发布会,AI手机、眼镜、汽车齐亮相
  5. 英特尔推出新一代AI芯片挑战英伟达


01 重大人事变动!OpenAI CTO穆拉蒂宣布辞职

北京时间9月26日凌晨,OpenAI CTO米亚·穆拉蒂(Mira Murati)在社交媒体X上发布推文宣布离开Open AI。米拉·穆拉蒂在离职声明中表示,她已经深思熟虑并作出了这个艰难的决定。她希望利用这段时间去探索其他机会,并确保平稳过渡。Open AI CEO 山姆·奥特曼(Sam Altman)回复推文确认了这一事实。

2018年穆拉蒂加入了OpenAI,带领团队开发了GPT-3,于2022年成为了公司的首席技术官。2023年年底,奥特曼被当时的董事会突然解雇,董事会采取了紧急措施,任命了首席技术穆拉蒂和前首席科学家伊利亚·苏茨克弗作为临时CEO。据报道,在奥特曼被解雇之前,穆拉蒂就已经与董事会的其他成员进行了接触,表达了对奥特曼管理行为的担忧。

如今,OpenAI的“四大天王”仅剩奥特曼一人。与此同时OpenAI计划将其核心业务重组为一家营利性公司,奥特曼将首次获得营利性公司的股权。在OpenAI年度开发者大会前一周发生如此大的人事变动,也引发外界对于open AI高层间管理的重重猜测。


02 社交媒体巨头Meta发布最新大型语言模型Llama 3.2

Meta(原Facebook)在 Meta Connect 2024 大会上发布了其大型语言模型 Llama 3.2。Llama 3.2 拥有 90b 和 11b 两种参数规格的视觉模型,还有能在设备端本地运行的 1b 和 3b 轻量级纯文本模型。1b 和 3b 模型支持 128k tokens 上下文,这意味着它们能够处理更长的文本输入,更好地理解文本的上下文信息,从而生成更准确、更连贯的回答。

同时,该模型还引入了图像推理功能,在图像理解任务上取得了优秀成绩,在这方面的基准评分中高于包括Claude 3 Haiku 和 GPT-4 Omini 在内的模型。模型还支持语音互动,这使得用户与模型的交互更加自然和便捷。


03 扎克伯格净资产达到2000亿美元,将Meta的强劲表现归功于人工智能

Meta CEO马克・扎克伯格近日身价超过 2000 亿美元,仅次于特斯拉CEO埃隆·马斯克、亚马逊创始人杰夫·贝索斯。根据彭博亿万富翁指数,今年扎克伯格的财富增长了722 亿美元,这惊人的上涨走势也使其总净资产达到了 2000 亿美元。

扎克伯格此前提到,Meta今年的强劲表现得益于公司对人工智能技术的关注和发展。Meta 计划在 2024 年在其数据中心部署自研的 “Artemis” AI 推理芯片,并加紧训练 Llama 3 大语言模型,该模型将具有代码生成、更先进的推理和规划能力。

马斯克、贝索斯、扎克伯格都从AI热潮中受益。特斯拉AI和自动驾驶的结合,亚马逊AI+电子商务的发展,Meta则是利用AI打造新的社交媒体和数字通信。投资者对这些公司在AI领域的前景充满信心,这也是他们市值和创始人财富增长的重要原因之一。


04 星纪魅族举办AI生态发布会,AI手机、眼镜、汽车齐亮相

星纪魅族举办AI生态发布会,一口气发布魅族Lucky 08 AI手机、AR智能眼镜StarV View、StarV Air2,智能指环StarV Ring2,以及星纪魅族与领克联合打造的Z10 STARBUFF电竞定制版车型等多款科技新品。

魅族 Lucky 08 AI手机集成了超过100种实用的AI功能,包括但不限于AI即圈即搜(允许用户通过圈选图像中的物品来搜索相关信息)、AI通话助手(可能提供自动接听、语音转文字等服务)等。StarV Air2重量仅 44 克,具备 AI 实时对话翻译、AI 闪念速记和 AI 语音助手等功能。智能指环具有健康监测功能,同时还能接收通知、控制智能家居设备等,为用户提供了额外的便利性。

总体而言,星纪魅族的此次 AI 生态发布会展示了其在 AI 技术应用和智能硬件领域的创新成果,以及在智能生态布局方面的积极探索,有望为用户带来更丰富、更智能的科技生活体验。

05 英特尔推出新一代AI芯片挑战英伟达

上周,英特尔被爆出正在与高通洽谈并购事宜,本周,英特尔发布了两款人工智能芯片——Xeon 6 CPU和 Gaudi 3 AI加速器,旨在增强英特尔在人工智能和高性能计算领域的市场竞争力。

Xeon 6 CPU采用了性能核心设计,专为处理计算密集型工作负载而设计,面向的是需要强大计算能力和高效能耗比的数据中心市场。Gaudi 3 采用 5 纳米工艺制造,相比前代产品,在FP8 AI计算性能上提高了2倍,BF16 AI计算性能提高了4倍。Gaudi 3 在性能提升的同时,还保持了较高的性价比,其预估售价为15650美元,仅为英伟达 H100 的一半。

今年以来,英特尔股价大幅下跌超过50%,其对手英伟达则因为提前布局人工智能而股价大涨超140%。本次英特尔新芯片的发布,也意味着英特尔正积极挑战英伟达在AI硬件市场的主导地位。随着AI的日益发展,AI硬件上的市场竞争也会更加精彩。

本文内容均由【通义】自动生成,打开通义官网,更多能力等你体验~

相关文章
|
2天前
|
人工智能 关系型数据库 OLAP
通义百炼融合AnalyticDB,10分钟创建网站AI助手
本文介绍了如何在百炼平台上创建和配置AI助手,使其能够准确回答公司产品的相关问题。主要步骤包括:开通管理控制台、创建应用并部署示例网站、配置知识库、上传产品介绍数据、创建AnalyticDB PostgreSQL实例、导入知识文件、启用知识检索增强功能,并最终测试AI助手的回答效果。通过这些步骤,AI助手可以从提供通用信息转变为精准回答特定产品问题。实操完成后,还可以释放实例以节省费用。
|
22天前
|
机器学习/深度学习 人工智能 语音技术
Fugatto:英伟达推出的多功能AI音频生成模型
Fugatto是由英伟达推出的多功能AI音频生成模型,能够根据文本提示生成音频或视频,并修改现有音频文件。该模型基于增强型的Transformer模型,支持复杂的组合指令,具有强大的音频生成与转换能力,广泛应用于音乐创作、声音设计、语音合成等领域。
65 1
Fugatto:英伟达推出的多功能AI音频生成模型
|
22天前
|
机器学习/深度学习 人工智能 安全
通义千问开源的QwQ模型,一个会思考的AI,百炼邀您第一时间体验
Qwen团队推出新成员QwQ-32B-Preview,专注于增强AI推理能力。通过深入探索和试验,该模型在数学和编程领域展现了卓越的理解力,但仍在学习和完善中。目前,QwQ-32B-Preview已上线阿里云百炼平台,提供免费体验。
|
15天前
|
人工智能
带上团队一起来做 AI 编程实践丨通义灵码联合TGO鲲鹏会开启 AI 大课
带上团队一起来做 AI 编程实践丨通义灵码联合TGO鲲鹏会开启 AI 大课
|
11天前
|
人工智能 搜索推荐 安全
数百名研发人员用通义灵码,33%新增代码由AI生成,信也科技研发模式焕新升级
目前,信也科技数百名研发人员正在使用通义灵码,周活跃用户占比70%,新增代码中有33%由通义灵码编写,整体研发效率提升了11%,真正实现了数百研发人员开发效能的全面提升。
|
15天前
|
人工智能 数据可视化 Java
通义灵码 AI 盲盒
基于通义灵码的 @workspace 和 @terminal 功能,可显著提升开发效率和体验。@workspace 通过文件导航、代码结构可视化、搜索和注释生成,帮助开发者快速熟悉项目结构和核心逻辑;@terminal 则支持代码片段运行、调试和 AI 代码补全,加速新需求实现和问题排查。这些工具降低了学习成本,简化了开发流程,提升了团队协作效率。
|
22天前
|
人工智能 自然语言处理 知识图谱
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
英伟达提出nGPT(Normalized Transformer),通过单位范数归一化和超球面上的表示学习,显著提升了Transformer模型的训练速度和性能。实验显示,nGPT在处理4k长度序列时,训练速度比传统Transformer快10倍,且在多个下游任务中表现出色。论文地址:https://arxiv.org/pdf/2410.01131
36 12
|
19天前
|
人工智能 并行计算 开发者
【AI系统】从 CUDA 对 AI 芯片思考
本文从技术角度探讨英伟达生态,特别是CUDA与SIMT的关系及其对AI芯片DSA架构的影响。通过分析流水编排、SIMT前端、分支预测及交互方式,指出英伟达CUDA的成功在于其硬件设计与软件易用性的结合,为未来AI芯片的设计提供了宝贵的经验和启示。
38 5
|
19天前
|
机器学习/深度学习 人工智能 编译器
【AI系统】AI 芯片的思考
为了应对数据中心算力需求,谷歌自2014年起研发TPU,专为深度学习设计的硬件加速器。TPU加速了谷歌的机器学习任务,尤其在大模型训练和推理方面表现突出。大卫·帕特森教授加入谷歌TPU团队后,分享了TPU发展历程及技术心得,强调了AI模型对内存和算力需求的快速增长、模型结构的快速演变、生产部署中的多租户需求、SRAM与DRAM的权衡、内存优化的重要性、DSA的专业与灵活性、半导体供应链选型、编译器优化及AI应用兼容性等方面的关键挑战与解决方案。
31 2
|
25天前
|
机器学习/深度学习 人工智能 算法
【AI系统】AI芯片驱动智能革命
本课程深入解析AI模型设计演进,探讨AI算法如何影响AI芯片设计,涵盖CPU、GPU、FPGA、ASIC等主流AI芯片,旨在全面理解AI系统体系,适应后摩尔定律时代的技术挑战。
41 5
下一篇
DataWorks