暂无个人介绍
用消息传递求解偏微分方程,ML大牛Max Welling等用全神经求解器做到了更强、更快
在注意力中重新思考Softmax:分解非线性,这个线性transformer变体实现多项SOTA
详解AI加速器(三):架构基础离不开ISA、可重构处理器……
谷歌长文总结四代TPU打造经验:里程碑式的TPUv4是怎样炼成的?
DeepMind提出了一种祖安AI,专门输出网络攻击性语言
训练2021年每个SOTA模型,他的「核武」策略意外收获Kaggle银牌
CV之后,纯MLP架构又来搞NLP了,性能媲美预训练大模型
分类器可视化解释StylEx:谷歌、MIT等找到了影响图像分类的关键属性
再不用怕Markdown中的绘图了,GitHub官方支持Mermaid图表绘制工具
使用深度学习,通过一个片段修饰进行分子优化
判别式or生成式:哪一个才能代表视觉理解的未来?
非凸函数上,随机梯度下降能否收敛?网友热议:能,但有条件,且比凸函数收敛更难
将执行器「缝」进衣袖,斯坦福无接触设备,远程传递触摸信息
当Swin Transformer遇上DCN,清华可变形注意力Transformer模型优于多数ViT
TensorFlow 2.8.0正式上线,修复众多Bug,发布50多个漏洞补丁
当自监督遇上语言-图像预训练,UC伯克利提出多任务框架SLIP
被誉为「教科书」,牛津大学231页博士论文全面阐述神经微分方程,Jeff Dean点赞
完全基于Transformer的目标检测器,ICLR匿名论文实现视觉、检测统一
详解AI加速器(二):为什么说现在是AI加速器的黄金时代?
搞强化学习还不了解AutoRL,牛津大学、谷歌等十余位学者撰文综述
将因果关系估计引入推荐系统、提升推荐模型效果,快手新研究被WWW22接收
科学家使用Summit超级计算机和深度学习来预测基因组规模的蛋白质功能
优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA
关于机器学习这门炼丹术,理论基础到底有多可靠?
通过二维材料增强的模拟退火算法,解决组合优化「大问题」
因果推理,PPT, 生成流网络,MAE...国际牛组去年「挖」出的新思路我们试着总结回顾了一下
因果推理,PPT, 生成流网络,MAE...国际牛组去年「挖」出的新思路我们试着总结回顾了一下
卷起来了!DeepMind发布媲美普通程序员的AlphaCode,同日OpenAI神经数学证明器拿下奥数题
人工智能预测RNA和DNA结合位点,以加速药物发现
200亿参数GPT-NeoX即将开源:96块A100训练三个月,野生GPT家族再添一员
AAAI,ICML,CVPR,NeurIPS...31篇国际七大AI顶会2021年度Best Papers 一文回顾
AAAI,ICML,CVPR,NeurIPS...31篇国际七大AI顶会2021年度Best Papers 一文回顾
AAAI,ICML,CVPR,NeurIPS...31篇国际七大AI顶会2021年度Best Papers 一文回顾
王怀民院士:图灵计算模型仍是最深刻的理论基础,是新科学基础的基点
可对药物分子进行表征的几何深度学习
引入纯度和类型注释、捕捉编程错误,MIT推出低开销量子编程语言Twist
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾
华人一作统一「视觉-语言」理解与生成:一键生成图像标注,完成视觉问答,Demo可玩
黑箱优化:大规模语言模型的一种落地方式
Transformer已成新霸主?FAIR等重新设计纯卷积ConvNet,性能反超
参数量下降85%,性能全面超越ViT:全新图像分类方法ViR
NeurIPS 2021 Spotlight | 准确、快速、内存经济,新框架MEST实现边缘设备友好的稀疏训练
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
加速100倍,性能媲美SOTA,浙大提出无数据知识蒸馏新方法FastDFKD
比MAE更强,FAIR新方法MaskFeat用HOG刷新多个SOTA
超参数调优河伯、组合优化器CompBO,华为诺亚开源贝叶斯优化库
Meta揭幕全球最快AI超算:目标一天之内训练万亿参数大模型
优于GAN、带上口罩都能还原,用去噪扩散概率模型极限修复图像,效果「真」极了
超越现有指标57.3%,邢波教授、胡志挺教授团队提出统一NLG评价框架