• 用于网络压缩的滤波器级别剪枝算法ThiNet

    南京大学计算机科学与技术系教授、MINIEYE 首席科学家吴建鑫所在团队的一篇论文《ThiNet:一种用于深度神经网络压缩的滤波器级别剪枝算法》被计算机视觉领域顶级国际会议 ICCV 2017 收录。论文中提出了滤波器级别的...
    文章 2021-11-29 82浏览量
  • 端上智能——深度学习模型压缩与加速

    稀疏神经网络适用于网络中大部分参数为零的情况,存储参数可以通过简单的压缩算法,例如游程编码,极大的减小参数存储空间,并且由于0可不参与计算,从而节约大量的计算空间,提升计算速度。稀疏网络中,优化目标...
    文章 2018-03-30 5379浏览量
  • 一文概览神经网络模型

    一、神经网络类别一般的&xff0c;神经网络模型基本结构按信息输入是否反馈&xff0c;可以分为两种&xff1a;前馈神经网络和反馈神经网络。1.1 前馈神经网络前馈神经网络&xff08;Feedforward Neural Network&xff09;中&xff0c;...
    文章 2022-06-07 82浏览量
  • 超精细画质提升:高通研发出首个神经视频解码器

    在这类神经网络解码器模型上运行实时推理切实际或可行。在骁龙 888 SoC 的商用智能手机上&xff0c;高通 AI 研究院在基于软硬件结合的神经网络视频解码器方面实现了新的突破。利用骁龙 888 的 CPU 和 AI 引擎&xff0c...
    文章 2021-12-05 203浏览量
  • 深度全解卷积神经网络(附论文)

    随着可用的大规模数据集和强大的计算机能力的发展,卷积神经网络在计算机视觉领域的应用也日益增长。本节我们将介绍几种最突出的卷积神经网络结构,包括 AlexNet,VGGNet,GoogleNet,ResNet,DenseNet 等,其结构示意图...
    文章 2018-05-07 5360浏览量
  • 揭秘自编码器,一种捕捉数据最重要特征的神经网络...

    首先,自编码器是一个神经网络。如果我们得到的数据是正确标注的,不论是图像或音频或文本,我们就很幸运了。深度学习在有标注数据集上非常有效。这是因为总有一个函数代表了变量之间的关系。比如如果我们的输入数据...
    文章 2018-04-23 1966浏览量
  • 专访FPGA 2017最佳论文得主深鉴科技:深度学习的最大...

    深鉴科技是一家具备神经网络压缩编译工具链、深度学习处理器 DPU 设计、FPGA 开发与系统优化等技术能力的初创公司,团队一系列研究工作发表于 NIPS 2015,ICLR 2016,FPGA 2016,ISCA 2016,NIPS 2016 Workshop,...
    文章 2017-08-01 1827浏览量
  • 我在STM32单片机上跑神经网络算法—CUBE-AI

    在STM32上验证神经网络模型(HAR人体活动识别),一般需要STM32F3/F4/L4/F7/L7系列高性能单片机,运行网络模型一般需要3MB以上的闪存空间,一般的单片机支持这么大的空间,CUBEMX提供了一个压缩率的选项,可以选择...
    文章 2022-05-25 131浏览量
  • 低配硬件就能运行深度神经网络了?手把手教你克服...

    换句话说,如果你需要在带加速器的ARM CPU上运行卷积神经网络了怎么办?雷锋网(公众号:雷锋网)想,大概就会像下图这位小哥一样,处境尴尬。来自德国初创企业 BuddyGuard GmbH 的机器学习工程师 Dmytro Prylipko ...
    文章 2017-08-01 2533浏览量
  • 推出新工具加速神经网络稀疏化进程

    神经网络具有的推理功能&xff0c;使得许许多多实时应用变为可能——比如姿态估计和背景模糊。这些应用通常拥有低延迟的特点&xff0c;并且还具有隐私意识。通过使用像TensorFlow Lite这样的ML推理框架和XNNPACK ML加速库&...
    文章 2022-01-12 82浏览量
  • 深度学习综述

    过去的几十年中,神经网络使用一些更加平滑的非线性函数,比如tanh(z)和1/(1+exp(-z)),但是ReLU通常会让一个多层神经网络学习的更快,也可以让一个深度网络直接有监督的训练(需要无监督的pre-train)。...
    文章 2018-07-04 4104浏览量
  • 通过西部世界来盘点近来人工智能研究的发展

    最上面一行是原始图片,灰色行是网络上使用的普通JPEG算法压缩后的图片(图片呈灰色或遗失是因为这个算法无法压缩图片到这么大程度),第三行运用了JPEG2000算法,最后两行则是使用了神经网络压缩法(在不同模式下)...
    文章 2017-05-25 1404浏览量
  • 深度学习工作机制通俗介绍

    因为我们别无选择,使用整体方法当作可靠的降维方法是不可用的。与此类似,当任务需要有能力自主地执行上下文切片简化时,模型需要具有理解能力。我们没有别的办法来处理这些不靠谱的机器吗?当然可以,因为地球上有...
    文章 2018-03-07 4844浏览量
  • 什么是Adam/ReLU/YOLO?这里有一份深度学习(.ai)...

    反向传播是一种用于调整网络权重以最小化神经网络损失函数的常用方法,它在神经网络中从后向前计算,通过对每个激活函数进行梯度下降重新调整权重。Batch Gradient Descent(BGD)  BGD是一种常规的梯度下降优化...
    文章 2018-09-27 1600浏览量
  • 《模式识别原理及工程应用》一1.2 模式识别的主要...

    这时,模式可用特征空间中的一个点或一个特征向量表示,这种映射不仅压缩了信息量,而且易于分类。在决策理论方法中,特征提取占有重要的地位,但尚无通用的理论指导,只能通过分析具体识别对象决定选取何种特征。...
    文章 2017-08-01 1048浏览量
  • 实践指南!16位资深行业者教你如何学习使用TensorFlow

    2、如果已经掌握了Python和机器学习的基础知识,但还知道Deep Learning/TensorFlow,那么可以从神经网络介绍部分开始。3、如果已经知道神经网络/深度学习,那么可以从安装TensorFlow教程开始,或者可以从...
    文章 2017-03-02 12835浏览量
  • 实践指南!16位资深行业者教你如何学习使用TensorFlow

    2、如果已经掌握了Python和机器学习的基础知识,但还知道Deep Learning/TensorFlow,那么可以从神经网络介绍部分开始。3、如果已经知道神经网络/深度学习,那么可以从安装TensorFlow教程开始,或者可以从...
    文章 2017-07-12 1912浏览量
  • 生成对抗网络入门指南(内含资源和代码)

    生成对抗网络(GAN)是由两个相互竞争的网络组成的深度神经网络架构。2014年,Lan Goodfellow和蒙特利尔大学包括Yoshua Bengio在内的其它研究人员在论文中介绍了生成对抗网络。Facebook的AI研究主管Yann LeCun称对抗...
    文章 2018-01-19 8050浏览量
  • 计算机视觉领域的低功耗深度学习前沿技术综述

    也有方法尝试将参数设置为不同的整数类型,例如二值化的神经网络,其中的每个参数被表示成单比特。此外,这些 DNN 模型也需要更多的层结构以保证高精度。在图 1 中,对于一个给定的 DNN 结构,1-bit 量化(二值化...
    文章 2020-05-06 679浏览量
  • 美剧《硅谷》深度学习APP获艾美奖提名:使用...

    当开发人员设置正确的路径来设计他们的神经网络,在用户使用应用程序时设置正确的期望,以及优雅地处理可避免的AI故障时,正确的UX期望是可替代的。在没有用户体验第一思维模式的情况下构建AI应用程序就像训练...
    文章 2018-07-16 1748浏览量
  • TSDB时序数据库时序数据压缩解压技术浅析

    3、趋势预测(Predictability):某些时序数据未来趋势可以通过算法预测,例如利用回归、深度神经网络等技术。图 时序数据压缩算法分类本文重点总结了时序数据库和物联网IoT传感器管理常用压缩算法,并根据技术方法...
    文章 2021-09-24 785浏览量
  • 深度|Nature论文详解概率机器学习:从确定性表征到...

    例如,使用深度神经网络来解决模式识别问题(如语音识别[5]、图像分类[6,7]和文本预测[8])的新进展中没有在这些神经网路的结构或参数中明显表征确定性。然而,我不会关注这些被大量数据的可用性特征化的这些类型...
    文章 2017-05-02 2380浏览量
  • 【新智元干货】计算机视觉必读:目标跟踪、网络压缩、...

    网络压缩(network compression) 尽管深度神经网络取得了优异的性能,但巨大的计算和存储开销成为其部署在实际应用中的挑战。有研究表明,神经网络中的参数存在大量的冗余。因此,有许多工作致力于在保证准确率的同时...
    文章 2018-03-28 6290浏览量
  • 想了解递归神经网络?这里有一份入门教程

    递归网络有时也称为动态(意为:“不断变化的”)神经网络,它与前馈网络的最大区别在于拥有记忆,而是它能够将特定权重赋予以序列方式发生的多个事件。虽然这些事件一定需要紧密相连,但网络会假定它们都被同一...
    文章 2017-08-01 1044浏览量
  • 今日头条AI技术沙龙马毅:低维模型与深度模型的...

    而且阈值函数的样子和激活函数 ReLU 长得很像——这就是一个神经网络。完全从模型推导出来的最优的、收敛速度最快的算法&xff0c;和深度学习通过经验找到的神经网络非常相似。这些理论可以被用于图像处理。我们将人脸...
    文章 2021-11-28 132浏览量
  • 浅谈端上智能之计算优化

    对于神经网络来说也例外。如对于视觉任务中典型的CNN,通常卷积与全连接层会占到总计算量的80%~90%甚至更高。另外像在语音、自然语言理解领域常用的RNN中大量存在LSTM和GRU层,它们本质上也是做矩阵计算。因此很多...
    文章 2019-11-05 2037浏览量
  • 马云爸爸“翻译情未了”?回顾阿里翻译平台的进击之路...

    且深度神经网络模型本身的训练过程一般又会涉及很大量的计算,因此NMT系统往往需要较长的训练周期,例如,使用3000万的训练数据在单块GPU卡上一般需要训练20天以上,才能得到一个初步可用的模型。基于上述问题,2017...
    文章 2017-08-01 2227浏览量
  • 揭秘深度学习成功的数学原因:从全局最优性到学习表征...

    近年来,深度学习大获成功,尤其是卷积神经网络(CNN)在图像识别任务上的突出表现。然而,由于黑箱的存在,这种成功一度让机器学习理论学家颇感不解。本文的目的正是要揭示深度学习成功的奥秘。通过围绕着深度学习...
    文章 2017-12-25 3716浏览量
  • 图灵奖获得者John Hopcroft:理性看待AI浪潮,下次...

    现在深度学习面临一些新的挑战,包括(1)如何从无标注的数据里学习,(2)如何降低、压缩模型大小,(3)全新的硬件设计、算法设计、系统设计来加速深度神经网络的训练和使用,(4)如何与知识图谱、逻辑推理、符号...
    文章 2017-10-24 1246浏览量
  • 深度学习让系统“看”懂短视频内容

    由于当时硬件计算能力以及数据量有限,多层神经网络训练所需的计算消耗和它带来的效果提升并能满足人们的需求。直到2006年Hinton再次提出深度置信网络(DBN)和非监督学习的概念,从学术上证明神经网络层数是无限...
    文章 2017-12-28 2919浏览量
1 2 3 4 ... 8 >

云产品推荐

视频直播 大数据计算服务 MaxCompute 国内短信套餐包 ECS云服务器安全配置相关的云产品 开发者问答 阿里云建站 新零售智能客服 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT 阿里云科技驱动中小企业数字化