暂无个人介绍
谷歌Quoc Le团队新transformer:线性可扩展,训练成本仅有原版1/12
支持Python 3.10,OpenAI强化学习工具包Gym迎来史上最大更新
速度提升45000倍,英伟达用傅里叶模型实现前所未有天气预报准确率
LoveLive!出了一篇AI论文:生成模型自动写曲谱
强化学习教父Richard Sutton新论文探索决策智能体的通用模型:寻找跨学科共性
CMU携手NUS、复旦推出DataLab:打造文本领域数据分析处理的Matlab
自编码器26页综述论文:概念、图解和应用
解决训练难题,1000层的Transformer来了,训练代码很快公开
Fudan DISC推出跨视觉语言模态预训练模型MVPTR:多层次语义对齐实现SOTA(已开源)
单个Transformer完成信息检索,谷歌用可微搜索索引打败双编码器模型
2442 个专业术语!人工智能术语库 AITD 更新至 3.1 版
512块A100,AlphaFold训练时间从11天压缩至67小时:尤洋团队FastFold上线
活久见!像素随机打乱的手写字体图像竟能被非监督学习方法全新重建?
清华、人大等机构学者获唯一最佳论文奖,数据挖掘顶会WSDM'22线上召开
信息瓶颈提出者Naftali Tishby生前指导,129页博士论文「神经网络中的信息流」公布
“几何构象增强AI算法”,百度生物计算最新研究成果登上《Nature》子刊
基于Transformer的人工神经网络,将有机结构的图像转换为分子结构
详解AI加速器(最终篇):给想进入赛道的玩家一些建议
COBOL老矣,尚能饭否?近80%企业计划彻底淘汰那些古早编程语言
图灵奖获得者Yann LeCun:未来几十年AI研究的最大挑战是「预测世界模型」
7 Papers | AAAI22杰出论文、WSDM22最佳论文;200+文献ViT综述
模型推理提高5-20倍,一行代码测试多个DL编译器,这个库不懂硬件也会用
清华IEEE论文:利用新型训练方法,帮自动驾驶决策摆脱「路侧干扰」
2022年,我该用JAX吗?GitHub 1.6万星,这个年轻的工具并不完美
DeepMind提出了一种祖安AI,专门输出网络攻击性语言
模型大十倍,性能提升几倍?谷歌研究员进行了一番研究
将大核卷积分三步,清华胡事民、南开程明明团队全新视觉骨干VAN,超越SOTA ViT和CNN
华为诺亚调研200多篇文献,视觉Transformer综述入选TPAMI 2022
参数要足够多,神经网络性能才会好,这是什么原理?
AAAI 2022 Oral | 无需人工标注,清华、快手提出基于参考图像的单张生成图像质量评价方法
AI键盘侠来了:DeepMind开始训练智能体像人一样「玩」电脑
华为诺亚开源首个亿级中文多模态数据集-悟空,填补中文NLP社区一大空白
将点云与RGB图像结合,谷歌&Waymo提出的4D-Net,成功检测远距离目标
神经辐射场基于点,训练速度提升30倍,渲染质量超过NeRF
深度学习模型模拟大脑地形图,有助于回答大脑不同部分如何协同工作
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
陈丹琦组掩蔽语言模型研究引争议:15%掩蔽率不是最佳,但40%站得住脚吗?
2022年,我该用JAX吗?GitHub 1.6万星,这个年轻的工具并不完美
2022年,我该用JAX吗?GitHub 1.6万星,这个年轻的工具并不完美
对比学习引领弱标签学习新SOTA,浙大新研究入选ICLR Oral
3D点云识别安全吗? 密歇根大学等提出稳健性分析数据集应对严重失真
史上首次,强化学习算法控制核聚变登上Nature:DeepMind让人造太阳向前一大步
吴恩达:AI的下一个发展方向,从大数据转向小数据
自监督学习新范式CAE:为什么 MIM 比对比学习更适合下游任务?
快80~500倍!人工智能快速预测两种蛋白质的结构互作方式
90%论文都是以模型为中心,AI领域,数据和模型到底哪个重要?
7 Papers & Radios | DeepMind强化学习控制核聚变登Nature;华为诺亚方舟实验室开源中文多模态数据集
谁正在滥用「OTA」?
隐私计算的硬件方案:「可信执行环境TEE」兼顾数据安全、隐私保护