暂无个人介绍
本周,IBM声称,其神经计算机系统达到了每秒120万帧的训练时间,创下了最新记录。IBM在AI模型训练上实现了大突破,可与最先进的技术相匹敌。网友对此表示简直不敢相信!
人家卡耐基·梅隆的本科生,搞的这个东西真的exciting:他们做一个项目设计出来的漫游车,即将在2021年被NASA发射上月球,成为美国第一个探索月面的登月车。
由谷歌大脑、UC伯克利、X实验室发表在 ICLR 2020 的一篇论文中提出了一种并发RL算法,使机器人能够像人一样「边行动边思考」。该项研究表明,机械手臂在并发模型中抓取速度比在阻塞模型中的速度提高49%。
IBM研究部主管Gil认为,计算在未来将是经典程序、量子计算电路库、受人脑神经元启发的计算机的三者融合,年底将抛出杀手锏,同时运行超100万个量子比特,欢迎霍尼韦尔离子阱机竞争。
孩子们通过好奇心解锁世界。相比之下,把计算机放到新环境中通常会卡顿。为此,研究人员尝试将好奇心编码到他们的算法中,希望智能体在探索的驱动下,能够更好地了解他所处的环境。
Open AI近日宣布公开追踪AI模型效率,其中算法改进是关键。报告中显示,AI算法效率每16个月翻一番,与2012年相比,训练神经网络达到AlexNet的水平所需的算力会减少到1/44。研究表明,算法改进效率吊打摩尔定律,投入大量人力物力的AI研究貌似比硬件研发收益更高。
还在抱怨模型训练过于耗时?还在手动苦苦调整超参?现在,这款神器来帮你!24倍分布式训练加速,100倍智能超参优化,Determind AI宣布开源,你的模型有救了!
还在为代码编写效率低下担忧?AI驱动的Codota来帮你!以色列初创公司Codota发布了可以帮编辑器自动完成代码的AI工具,可将代码生产率提高25%,现已被Google,Amazon,阿里,Airbnb等公司广泛使用,并有免费版本供用户下载。
苹果和谷歌联合开发了一个追踪新冠病毒传播的系统,用户可以通过蓝牙和卫生组织批准的应用程序共享数据,该项目已进入内测阶段,预计下月中旬即可正式投入使用,疫情结束后该项目数据会被全部销毁。
机器学习虽然受人脑启发,但实验神经科学和ML两个学科已经70年没有沟通。以色列交叉学科团队发现,人脑存在加速学习适应机制,新机制人工神经网络计算能力远超最新AI算法。
刚刚,Facebook联合AWS 宣布了PyTorch的两个重大更新:TorchServe和TorchElastic。而不久前Google刚公布DynamicEmbedding。两大阵营又开战端,Facebook亚马逊各取所长联手对抗Google!
最近旷视「天元」、华为「MindSpore」纷纷重磅开源。对此,技术大牛英特尔大数据技术全球CTO戴金权坦言,Intel的框架与华为、旷视并非是互相竞争关系。那么有了主流深度学习框架PyTorch和TensorFlow,为什么还要Big DL和Analytics Zoo呢?
美国AI芯片初创公司,AI新星Wave Computing近日也宣布凉凉。这家AI计算领域备受关注的独角兽曾于2018年收购硅谷老牌名企MIPS,业界曾一度认为会对Intel ARM造成冲击。但因核心产品竞争力不足,屡次换帅加MIPS开源计划搁浅,最终遗憾收场。
反向传播作为一种基本负反馈机制,极大地推动了深度学习神经网络的发展。那么,反向传播也存在于人脑的运行方式中吗?反向传播的发明者Geoffery Hinton发Nature子刊告诉我们:人脑中存在类似于反向传播的神经机制,我用一种新算法类比出来了!
小孩儿是怎么学多种语言的?只通过观察,就同时掌握了不同语言。如何让DL也做到这一点?Deepmind团队开发出了一个无监督的单词翻译多模态模型,只通过视觉就学习语言翻译!
世界各地正在开发的大多数量子计算机只能在约0.1开尔文(-273.05℃)的极寒温度下运行,而日前登上Nature的两个研究团队则开发出了可以在1开尔文以上的温度下工作的量子设备,这是量子计算机走向商用的一个重要里程碑。
GitHub宣布私有库免费向团队和个人开发者开放,不再设立人数限制。除了这个大福利,企业版本也降低了价格,还提供免费的持续集成和超大存储空间,今天我们就先睹为快,看看GitHub这些新特性。
人的一生中有三分之一的时间都在睡觉和做梦,如果梦可以被入侵、被改变,你愿不愿意尝试?MIT的梦境实验室就在破解梦,他们已经开发出新设备,可以通过声音和气味改变梦境。
一直以来,如何让机器学习算法这个“黑箱”可视化,是ML社区的共同努力方向。日前,OpenAI发布神经网络可视化库Microscope,已经使8个目前流行的神经网络可视化,最大亮点是它可以像实验室中的显微镜一样工作。
近日,推特上一则COBOL代码出现在《终结者》中的消息引发了热议,原作者兴奋不已还找到了当年的原文公布在网上,网友纷纷提议找《终结者》要版税。老COBOLER原来是一名技术极客,今天我们就来看看他传奇的技术人生。
AlphaZero虽然在围棋项目上战胜了人类选手,但所需的大量算力使其很难走进寻常人的生活。最近,丹麦和德国的研究人员使用Deepmind的AlphaZero 开发了一种混合算法,将AlphaZero强大的搜索能力与量子计算有机结合起来,参数搜索速度大幅提升。
当前深度学习应用范围很窄,一个任务训练出来的算法无法完成别的任务。Amazon团队调整新的元学习流程,使ML专才变通才。
未来我们可以在Windows里访问Linux文件了。微软此前曾透露计划在Windows 10中发布完整的Linux内核,现在该公司计划将Linux文件访问完全集成到内置的文件资源管理器中。在文件资源管理器的左侧导航窗格中将提供一个新的Linux图标,可为Windows 10中安装的所有发行版提供对根文件系统的访问。
今天Google在人工智能医学影像上又获突破!该AI系统可对钼靶影像数据进行大规模分析和处理,大幅降低假阳性与假阴性,并完胜6名放射科医师,还能降低劳动力使用量,为全面提高乳腺癌筛查的准确性奠定了基础。
深度学习在乳腺癌检测上再获突破!DeepHealth与全球多个知名机构合作,研发出的深度模型在乳腺癌诊断水平上完胜5名全日制放射科医师。该模型也可广泛适用于中国人群,有望全面提升全球女性乳腺癌筛查准确性。
MIT和IBM的研究人员结合了三种流行的文本分析工具——主题建模、词嵌入和最优传输——来每秒比较数千个文档。而且可以更快、更准确对文档分类,轻轻松松从数十亿选择中更快找到更相关的读物。
最新的神奇变脸工具StarGAN第二版来了!这次不仅可以人变人,还能实现猫、狗、虎、豹各种动物无缝切换,输入图片给进去,想变什么自己挑!数据集和Github资源已开放。
PCONV是目前最快的通用性移动端神经网络加速框架,由美国东北大学、威廉玛丽学院和清华大学交叉信息研究院、交叉信息核心技术研究院共同提出。该框架创新性地提出了神经网络稀疏性结构与编译器的协同优化,提出了新的适合编译器与移动端加速的稀疏化结构:模式化剪枝与连通性剪枝,首次在通用移动端达到实时性要求。该结果显著超过现有的移动端通用加速框架。
理想世界的流体方程 1757年,数学家欧拉(Leonhard Euler)发现了后来被称为“欧拉方程”的流体方程,这些方程描述了流体随时间的演化,就像牛顿的力学方程描述台球在桌子上的运动一样。 欧拉方程是一种理想化的对流体运动的数学描述,它们在一定的假设范围内,模拟流体的运动。更确切地说,欧拉方程描述了流体中无穷小的粒子的瞬时运动。这个描述包括一个粒子的速度和它的涡量(即旋转的速度和方向)。总的来说,这些信息汇聚成了一个“速度场”,描绘了流体在给定时刻的运动情况。欧拉方程从一个初始速度场开始,预测它在未来每一刻会发生的变化。
文言编程语言/wenyan-lang火了,GitHub项目已经超过12.7K stars。最近,一位北大博士生似乎找到了wenyan-lang的正确用法——开发深度学习网络,名曰「炼丹」。其代码逻辑清晰、可读性高,真乃神人也。
吴恩达团队盘点2019AI大势:自动驾驶寒冬、NLP大跃进、Deepfake已成魔!
手握搜索引擎和输入法两张王牌,搜狗在AI同传领域又放出大招——搜狗同传3.0惊艳亮相。基于搜狗独创的“语境引擎”,搜狗同传3.0以“多模态”和“自主学习“为核心,加入视觉和思维能力,让AI同传不仅会听,还首次具备了会看、能理解会推理的能力。搜狗一小步,同传一大步。
腾讯王者荣耀AI“绝悟”的论文终于发表了!“绝悟”制霸王者荣耀世界冠军杯、在2100多场和顶级业余玩家体验测试中胜率达到99.8%。腾讯AI Lab提出一种深度强化学习框架,并探索了一些算法层面的创新,对MOBA 1v1 游戏这样的多智能体竞争环境进行了大规模的高效探索。
谷歌大脑和伦敦帝国理工学院的研究团队在自动生成文本摘要方面获得新的突破,他们构建了一个名为PEGASUS的系统,利用谷歌的Transformer架构,并结合了针对文本摘要生成定制的预训练目标,在12个摘要任务中均取得了最先进的结果。
过年回家的车票抢到了吗?春运一直以来都以难抢票著称,很多人开始通过各种软件和途径,希望能够完成购票大计。按照程序员一向“懒”的做事风格,必然是不愿意自己亲手去做的,直接写一段程序岂不是省时省力?今天分享GitHub标星两万的"抢票神器”。
腾讯首个AI开源项目Angel完成3.0版本迭代,近日从AI领域的顶级基金会LF AI基金会毕业了。Angel 3.0致力于打造一个全栈的机器学习平台,功能特性涵盖了机器学习的各个阶段,尤其在图机器学习方面功能强大。
在NeurIPS 2019一千多篇入选论文中,有那么1篇杰出论文值得长时间、深入、反复学习。
Geoffrey Hinton是深度学习的创始人之一、图灵奖得主,他总以超前的思想引领着深度学习领域的发展与变革。近日,这位“深度学习之父”与团队成员再出神作,提出了利用神经网络对有关节、可变形的三维模型进行估计的方法。
在前不久结束的NeurIPS 2019上,由Google、Facebook、OpenAI等机构共同主办的神经网络压缩与加速竞赛备受瞩目。历经五个多月的厮杀,中国科学院自动化研究所及中国科学院自动化研究所南京人工智能芯片创新研究院联合团队获得ImageNet和CIFAR-100双项冠军。
2019年人工智能研究什么最热?从今年最大型的AI顶会NeurIPS可以发现几大趋势:科学家们开始探索深度学习背后的理论和原理,贝叶斯深度学习、图神经网络和凸优化等深度学习新方法成为最热趋势。
彭博社报道,苹果希望在五年内部署卫星,已经组织了一个12人的绝密团队开发卫星技术。该技术可以使苹果的移动设备彼此通信,而无需中国移动之类的无线运营商。
Facebook AI的研究人员将数学视为自然语言,并将数学简写拆分为基本单位,去训练神经网络,从而秒解微积分表达式,远超目前的商业软件(如Maple、Matlab、Mathematica)!具体的精妙思想跟操作是怎么样的呢?
今天,ICLR 2020放榜了!共收到2594篇论文提交,创历史新高,其中,有687篇被接受,接受率为26.5%。粗略统计,大概有320篇被接受的论文中有华人学者参与,占比47%。
在近日Github趋势热榜上,来自微软亚洲研究院AI教育团队的人工智能教育与学习共建社区再度引发了广泛关注,目前已获得超过6000星。
本文是Medium网友整理的2019年Reddit机器学习板块热门高赞项目资源汇总,既有Facebook、英伟达等大厂的作品,也有网友自制的有趣小尝试,共17个项目,按热度高低排序,一起看看吧!
比利时的电信提供商面向青少年推出一款名叫“.comdom”的安全App,可以为发送的照片加上接收者的信息作为水印,防止私密照片二次传播。但没想到短短几天就被一组研究人员破解了,完美复现原图,引发reddit网友热议。
Facebook人工智能实验室何恺明团队提出一种高效、高质量的目标和场景图像分割新方法。他们开发了一个独特的视角,将图像分割视为一个渲染问题,提出PointRend神经网络模块。建立在现有的最先进的模型之上,PointRend可以灵活地应用于实例分割和语义分割任务。
程序员何苦为难程序员?有人开发了一种“文言文编程语言”,用文言文写的编程语言,密切遵循文言文语法和中国古典文学的基调,被评价过于硬核。
近日,在人工智能领域拥有超过10年经验的Rubik’s Code公司评选出了2019年深度学习领域Top5论文。在2019年岁末,这些研究论文对于我们洞见深度学习的前沿进展及发展趋势具有重要的意义。
又到了一年一度的英伟达GTC China大会,NVIDIA创始人兼CEO黄仁勋和大家分享了英伟达取得的成绩:NVIDIA已经售出15亿块GPU,并重磅发布TensorRT 7,以及支持L2-L5自动驾驶的系统级芯片Orin。