📣📣📣视觉智能开放平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. 美图推出“自研 AI 视觉大模型”3.0 版,号称将“全面应用于影像与设计产品”
美图公司昨日举办“15 周年生日会”, CEO 吴欣鸿在现场发布了自研 AI 视觉大模型 MiracleVision(奇想智能)3.0 版本。美图公司声称,预计三个月后美图 AI 视觉大模型 MiracleVision3.0 将全面应用于美图旗下影像与设计产品,并将助力电商、广告、游戏、动漫、影视五大行业。
吴欣鸿表示,三个月前,MiracleVision 绘画水平还停留在初级阶段,如今 3.0 版本已经能描绘出真实细腻的画面细节,目前用户可以访问 AI 视觉创作工具“WHEE”官网体验。
2. Adobe 发布新一代 AI 生成模型 Firefly Image 2,提供更高质量的图像
近日在 Adobe MAX 创意大会上,Adobe 推出了 Adobe Firefly Image 2、Adobe Firefly Vector Model 和 Adobe Firefly Design Model 三款 AI 模型,这是其 AI 创意生成模型系列的下一个主要版本。
据介绍,Firefly image 2 建立在 Firefly 图像模型的基础上,用于下一代生成式 AI 图像,在创意和质量带来了重大进步。通过改善皮肤、头发、眼睛、手和身体结构来提高人类渲染质量,提供更好的颜色和改进的动态范围,最终帮助用户更快地提供创造性的视觉效果。它支持 100 多种语言的文本提示,以及包括“快速”生成积分在内的新付费计划。
另外两款产品中,Adobe Firefly Vector 模型汇集了 Adobe 的矢量图形和生成人工智能专业知识,为下一代高质量的设计和插图提供动力。它是世界上第一个用于矢量图形的生成人工智能模型,也是第一个生成“人类品质”矢量和模式输出的生成人工模型。Adobe Firefly Design 模型通过 Adobe Express 中的文本到模板功能,使用专业布局技术,结合 Firefly 图像模型、Adobe 字体,为即时生成模板设计提供了支持,这些模板在 Express 中完全可编辑,可用于印刷、社交和网络广告等领域。
3. 联发科宣布与 OPPO 合作共建轻量化大模型端侧部署方案,强化生成式 AI 应用
联发科今日宣布携手 OPPO 和 ColorOS ,合作共建轻量化大模型端侧部署方案,共同推动大模型能力在端侧逐步落地。
据介绍,联发科 AI 处理器 APU 与 AI 开发平台 NeuroPilot,构建了完整的终端侧 AI 与生成式 AI 计算生态,可加速边缘 AI 计算的应用开发与落地,强化大语言模型和生成式 AI 应用的性能。联发科表示,OPPO 大模型 AndesGPT 通过采用 4 位量化技术,在精度不掉点效果下,将大模型在端侧逐步落地,并实现性能更优。在 SuperCLUE 十大基础能力排行榜上,AndesGPT 在“知识与百科”能力测试得分达 98.33,仅次于 GPT4 排名国内第一。OPPO 此前表示,未来,该模型将持续加持 OPPO 智能助手小布的 AI 能力,逐步应用于更多 OPPO 核心产品中。
📖新鲜论文早知道
OpenAI于官网发布多模态视觉模型GPT-4V(Vision)系统卡论文
据介绍,GPT-4V使用户能指示GPT-4分析用户提供的图像输入,其训练于2022年完成,并在2023年3月开始提供早期访问系统。该系统卡概述了OpenAI如何为GPT-4部署视觉功能,并分析了GPT-4V的安全属性。
论文地址:https://cdn.openai.com/papers/GPTV_System_Card.pdf
🎤观点方向多了解
为什么GPU适合深度学习
GPU相较于CPU更快的原因在于其高效的矩阵乘法和卷积运算,但很少有人解释了为什么会如此。《Tim Dettmers's answer to Why are GPUs well-suited to deep learning? - Quora》给出了解释:
1)GPU之所以快,是因为其内存带宽,而不仅仅是并行计算。CPU以低延迟为优化目标,而GPU则以高带宽为优化目标。
2)CPU可以迅速获取RAM中的少量内存(包),而GPU在此方面速度较慢(延迟较高)。然而,GPU可以一次获取更多的内存。
3)GPU之所以能在大内存块上提供最佳内存带宽,是因为线程并行性掩盖了延迟,使得GPU在大数据块上提供高带宽,同时不受延迟的影响。
4)GPU的寄存器内存比CPU多30多倍,速度则达到了两倍。这意味着GPU可以存储大量数据在寄存器和L1缓存中,以便复用卷积和矩阵乘法的片。
5)GPU的寄存器和L1缓存更易于编程,这使得它们在深度学习中非常适用。
6)性能瓶颈主要取决于内存访问,因此GPU之所以快速适用于深度学习,是因为其高带宽主存储、线程并行性隐藏内存访问延迟,以及大而快的寄存器和L1缓存。
作者:https://www.quora.com/profile/Tim-Dettmers-1
地址:https://www.quora.com/Why-are-GPUs-well-suited-to-deep-learning/answer/Tim-Dettmers-1
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。