暂无个人介绍
一文梳理视觉Transformer架构进展:与CNN相比,ViT赢在哪儿?
先把一两个量子比特的精度做到极致:阿里达摩院量子实验室刚刚破了项世界纪录
无惧对抗和扰动、增强泛化,阿里安全打造更鲁棒的ViT模型,论文入选CVPR 2022
深度学习撞墙了
单个神经元通过预测未来活动来学习,有助于解释大脑是如何工作的
自回归解码加速64倍,谷歌提出图像合成新模型MaskGIT
这才是模块化电脑该有的样子:一人打造的超迷你计算机,震动了整个极客圈
7 Papers & Radios | DeepMind用AI复原古希腊铭文登Nature封面;单GPU调优GPT-3超参数
7 Papers & Radios | DeepMind用AI复原古希腊铭文登Nature封面;单GPU调优GPT-3超参数
「炼丹必备」15个常用基准数据集含大规模中文多模态理解、医疗信息处理等场景
「炼丹必备」15个常用基准数据集含大规模中文多模态理解、医疗信息处理等场景
终于可用可组合函数转换库!PyTorch 1.11发布,弥补JAX短板,支持Python 3.10
Transformer将在AI领域一统天下?现在下结论还为时过早
多项榜单第一,达摩院算法工程师深度揭秘让表格说话的TableQA技术
CMU创建一个开源的AI代码生成模型,C语言表现优于Codex
做语义分割不用任何像素标签,UCSD、英伟达在ViT中加入分组模块,入选CVPR2022
2022年,PyTorch在AI顶会的占比已经上80%了
WWW 2022 | 结合高效整数规划求解,快手提出多元因果森林模型,智能营销效果显著
马普所开源ICON,显著提高单张图像重建三维数字人的姿势水平 | CVPR 2022
2010年以来,ML算力需求增长100亿倍,每6个月翻番,深度学习成分水岭
CVPR 2022 | 图像也是德布罗意波!华为诺亚&北大提出量子启发MLP,性能超越Swin Transfomer
特斯拉AI总监:我复现了LeCun 33年前的神经网络,发现和现在区别不大
MIT设计深度学习框架登Nature封面,预测非编码区DNA突变
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
AAAI 2022 Oral | 无需人工标注,清华、快手提出基于参考图像的单张生成图像质量评价方法
华为诺亚开源首个亿级中文多模态数据集-悟空,填补中文NLP社区一大空白
将点云与RGB图像结合,谷歌&Waymo提出的4D-Net,成功检测远距离目标
陈丹琦组掩蔽语言模型研究引争议:15%掩蔽率不是最佳,但40%站得住脚吗?
CV之后,纯MLP架构又来搞NLP了,性能媲美预训练大模型
分类器可视化解释StylEx:谷歌、MIT等找到了影响图像分类的关键属性
准确度高,适用性广,使用物理信息神经网络分析材料的内部结构和缺陷
TPAMI 2021|听声识物:视音一致性下的视觉物体感知
7 Papers & Radios | 尤洋团队FastFold上线;1000层的Transformer来了
7 Papers & Radios | 尤洋团队FastFold上线;1000层的Transformer来了
AI for Science:人工智能改变化学领域,机器学习范式加速化学物质发现
做时间序列预测有必要用深度学习吗?事实证明,梯度提升回归树媲美甚至超越多个DNN模型
中科大提出统一输入过滤框架InFi:首次理论分析可过滤性,支持全数据模态
无需大量神经元,用神经形态机器人玩桌上足球,兼具速度与准确率
单GPU每秒76帧,重叠对象也能完美分割,多模态Transformer用于视频分割效果惊艳
CVPR 2022 | CNN自监督预训练新SOTA:上交、Mila、字节联合提出具有层级结构的图像表征自学习新框架
给GNN一堆数据,它自己发现了万有引力定律
VR丝滑全景指日可待?谷歌这个360° NeRF让人看到未来
VR丝滑全景指日可待?谷歌这个360° NeRF让人看到未来
单个GPU无法训练GPT-3,但有了这个,你能调优超参数了
Nature Index增刊发布:中科院影响力位列榜首,天津大学获最高国际合作得分
预测过去?DeepMind用AI复原古希腊铭文,登Nature封面
给5G基带也加上机器学习单元:高通的AI脑洞还有太多
ATPdock:一种基于模板的ATP特异性蛋白质-配体对接方法
谷歌Quoc Le团队新transformer:线性可扩展,训练成本仅有原版1/12