Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

简介:

各位周末好!对 AI 开发者来说,本周发生了不少大事值得关注,重点包括:Facebook 开源全新算法库 FAISS 和新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会,宣布收购 Kaggle,并发布视频搜索 API;英伟达针对 AI 发布全新嵌入式开发组件 Jetson TX2;以及百度发布 PaddlePaddle 全新 API 大幅减少代码冗余等。下面我们将完整梳理本周内与开发者息息相关的 AI 大事件,并推荐几个 AI 研习社编译整理的开发者资源,祝大家周末愉快。

Facebook 开源聚类和相似性搜索库 FAISS

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

雷锋网消息,FAIR(Facebook 人工智能实验室)上周发表了一篇论文,提出一项针对聚类和相似性搜索的新算法设计。新架构比此前最先进的算法更快更高效,并使用 GPU 来获得更高的内存带宽和计算吞吐量。

基于此项研究,FAIR 近日在 Github 开源了一个名为 FAISS 的库,相关文档已陆续完成上传,并于昨日更新了安装文件。能进行聚类和相似性搜索的算法已有不少,FAISS 对它们进行了优化,以便更高效地在 GPU 上运行。FAISS 整合的部分算法有: 

Fast K-Nearest Neighbour

QuickSelect

Warpselect

K-Means clustering

FAIR 表示,FAISS 有五大特性:

使用 C++ 编写,有完整的  Python/numpy 封装。

支持单个、多 GPU。

优异的可扩展性,通常情况下能支持最多 100 个维度。

基于 BLAS 和 CUDA。

比当前最先进的库速度提高 8.5 倍。

详情:http://www.leiphone.com/news/201703/lzEITGcs5Miuh8k5.html 

GitHub:http://www.leiphone.com/news/201703/lzEITGcs5Miuh8k5.html 

论文:https://arxiv.org/abs/1702.08734 

谷歌开放大规模音频数据集 AudioSet,助力 AI 音频算法研究

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

在 Google Cloud Next 云技术大会之前,谷歌通过开发者博客公布了一个可以媲美图像识别领域 ImageNet 的大型音频数据库 AudioSet。据称,该数据库包含了 632 个音频类别以及 2084320 条人工标记的每段 10 秒长度的声音剪辑片段(来自 YouTube 视频),覆盖范围包括人声、动物声、各种乐器与音乐流派,以及日常生活环境的声音等。总体量为:2100 万标注视频、5800 个小时的音频,以及 527 种类型的标注声音。

论文:https://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/45857.pdf 

详情:https://research.google.com/audioset/ 

IBM 语音识别能力逼近人类水平

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

去年十月,微软人工智能与研究部门的一个研究者和工程师团队报告他们的语音识别系统实现了和专业速录员相当甚至更低的词错率(WER)——达到了 5.9%。本周 3 月 7 日,IBM 在官方博客发文称人类的水平实际上应该是 5.1%,同时表示 IBM Watson 的词错率已经超越了之前微软报告的最佳水平,达到了 5.5%。

详情:http://www.leiphone.com/news/201703/bJaCYcArDJIenrAC.html 

英伟达发布全新 Jetson TX2 嵌入式开发组件,强化 AI 智能运算

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

3月7日,英伟达发布了全新的嵌入式开发组件 Jetson TX2。据报道,这块全新发布的开发板只有一块信用卡大小,但提供了超过前代产品近两倍的运算性能。按照公司高管的说法,之所以提供如此强劲的运算性能,就是为了助力开发者在深度神经网络等 AI 智能领域的研究。

详情:http://www.leiphone.com/news/201703/MJ1rgDpXMzUENYtF.html  

Google Cloud Next 云技术大会

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

Google Cloud Next 云技术大会于当地时间3月8日上午8:30在美国加州旧金山开幕(北京时间约为9日凌晨1点)。

大会上,谷歌宣布收购大数据竞赛平台 Kaggle,但并未公布具体交易条款。报道称,被收购后 Kaggle 将会保留独立团队和品牌,并接入谷歌云服务,继续举办大数据相关的竞赛。

此外,谷歌还推出了全新视频搜索 API :Video Intelligence API 。报道称,Video Intelligence API 的主要功能是标注视频中的物体和场景,即实现了自动化的视频标记,从此开发者可以像搜图片一样轻松地搜索视频中的内容。目前该 API 尚处 Private Beta 阶段,并未完全公开。

收购 Kaggle 详情:http://www.leiphone.com/news/201703/ZjpnddCoUDr3Eh8c.html 

视频搜索 API 详情:https://cloud.google.com/video-intelligence/ 

Facebook 开源新一代机器学习 GPU 服务器 Big Basin

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

继 2015 年发布开源机器学习 GPU 服务器 Big Sur 并将其成功应用之后,今天(3 月 9 日) Facebook 通过官方博客宣布 Big Sur 的升级版 —— Big Basin 已经研发成功,并在 Open Compute Project 开源。据称,通过将内存从 12 GB 增加到 16 GB ,以及提高算数吞吐量(arithmetic throughput),Big Basin 可以处理的机器学习模型规模增加了 30%。

详情:http://www.leiphone.com/news/201703/MJ1rgDpXMzUENYtF.html  

百度发布 PaddlePaddle 新 API

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

3 月 9 日,百度宣布已完成 PaddlePaddle 新 API 的内测版本。PaddlePaddle 是百度研发的深度学习开源平台,于去年 9 月对公众开放,称得上是国内机器学习开源项目的领军者。雷锋网获悉,该新 API 接口大幅精简了 PaddlePaddle 的代码量。下面百度官方公布的对比图,左为旧 API 上的 CNN 程序,右为新 API。

如图所示,新 API 的代码非常简洁。百度表示,这主要是由于三个方面的改进:

新的概念模型

提供“训练、“测试”、“推理”等新的高级 API,并支持 Kubernetes 。

组合的 data bricks

此外,百度还开放了《使用 PaddlePaddle 进行深度学习》的使用手册,其中有示例教程。

手册下载地址:http://book.paddlepaddle.org/index.en.html 

详情:http://research.baidu.com/paddlepaddles-new-api-simplifies-deep-learning-programs/   

大会预告:IBM InterConnect 2017 

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

IBM InterConnect 2017 开发者大会将于 3 月 19-23 日在拉斯维加斯举行。日前为了吸引更多的开发者参与,IBM 在官方博客中总结了此次会议对 Java 开发者而言的 6 大亮点:

1. Code Rally 编程拉力赛

2. DevZone 开发者社区

3. 微服务(Microservices)专题讨论

4. Open Tech Summit 技术开放峰会

5. 基于 IBM WebSphere Liberty 和 MicroProfile 的敏捷开发

6. 基于 IBM WebSphere Liberty 和 Node.js 的本地云微服务

详情:https://www.ibm.com/blogs/cloud-computing/2017/03/java-developer-interconnect-2017/ 

开发者资源推荐

最近很火的《计算机科学的数学》是本什么样的书?

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

本文详细介绍了《计算机科学的数学》这本书的来龙去脉,并推荐了其他一些相关资源,包括一个权威的机器学习入门书单和十大机器学习公开课等。

地址:http://www.leiphone.com/news/201703/1ywNOxhiSuX3pNJZ.html 

数据科学入门难?老司机为你盘点 24 门精品课程

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

本文盘点了 24 个高品质的在线数据科学入门教程,原作者是一位自学成才的数据科学大牛,文中汇总的课程不但参考了在线慕课社区 Class Central 成千上万的课程评分和评论数据,更是原作者的经验之谈,因此非常具有参考价值

地址:http://www.leiphone.com/news/201703/gCpBclh3rST2rHzc.html 

盘点近年来引用最多的深度学习论文

Facebook 开源新一代机器学习 GPU 服务器 Big Basin;谷歌召开 Google Cloud Next 云技术大会等 | AI 研习社周刊

原文来自滑铁卢大学的博士研究生 Terry Taewoong Um,他搜集整理了 2012 年以来在深度学习领域被引用次数最多的一百多篇论文,值得深入研究。

地址:https://github.com/terryum/awesome-deep-learning-papers 






本文作者:恒亮
本文转自雷锋网禁止二次转载, 原文链接
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
131 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
29天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
164 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
21天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
67 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
30天前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
28 5
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
37 2
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
74 0
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
48 0
|
机器学习/深度学习 算法 决策智能
【重磅开源】Facebook开源 Nevergrad:一种用于无梯度优化的开源工具
【重磅开源】Facebook开源 Nevergrad:一种用于无梯度优化的开源工具
220 0
|
缓存 数据可视化 测试技术
开源多年后,Facebook这个调试工具,再登Github热门榜
让许多工程师合作开发大型应用大多会面临一个挑战,通常没有一个人知道每个模块是如何工作的,这种技能会让开发新功能、调查Bug或优化性能变得困难,为了解决这个问题,Facebook创建并开源了Flipper,一个可扩展的跨平台的调试工具,用来调试 iOS 和 Android 应用。近日又双叒登上了Github热榜。
|
前端开发 JavaScript 测试技术
Facebook 开源可扩展文本编辑器 Lexical
Meta(原 Facebook)近日开源可扩展文本编辑器 Lexical,源代码托管在 GitHub 上采用 MIT 许可证。
555 0
Facebook 开源可扩展文本编辑器 Lexical