深度学习复习作业题目及面试常见问题

简介: 深度学习复习作业题目及面试常见问题

一、卷积神经网络


1.普通卷积神经网络具体结构?各层作用


输入层 全连接层 卷积层 池化层 输出层


输入层:与传统神经网络/机器学习一样,模型需要输入的进行预处理操作


卷积层:进行特征提取,对于图片中的每一个特征首先局部感知,然后更高层次对局部进行综合操作,从而得到全局信息,还有权值共享


池化层 : 通过去掉Feature Map中不重要的样本,进一步减少参数数量。用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。


全连接层:对提取的特征进行分类,最后的全连接层就是把之前得到的特征用来分类或者回归


2.卷积核有什么类型?各卷积作用?


一般卷积 实现跨通道的交互和信息整合;进行卷积核通道数的降维和升维

扩张的卷积 使用3内核进行2D卷积,扩展率为2且无填充

转置卷积 使卷积过程恢复

可分离的卷积 执行空间卷积,同时保持通道分离,然后进行深度卷积


3.卷积网络与前馈神经网络最显著的特点?


卷积网络:包含卷积计算且具有深度结构的前馈神经网络。局部连接,权重共享以及子采样

前馈神经网络:每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层.各层间没有反馈。


4.卷积层具有哪些参数?


学习率的系数、卷积核的输出通道数、卷积核的大小、卷积核的步长、权重初始化方式、偏置项的初始化、分组、通道数


二.循环神经网络


1.循环神经网络与卷积神经网络区别?


卷积神经网络没有时序性的概念,输入直接和输出挂钩;循环神经网络具有时序性,当前决策跟前一次决策有关,具有短期记忆能力。

cnn多用于处理图像,rnn一般处理文字,音频等与时序相关的问题。


2.循环神经网络具有哪些不同类型?


序列到类别模式、同步的序列到序列模式、异步的序列到序列模式,一对多序列模式


3.简述LSTM网络核心思想与各门的作用?


LSTM 通过一种名为门的结构控制 cell 的状态,并向其中删减或增加信息。

遗忘门决定哪些信息需要从细胞状态中被遗忘。

输入门确定哪些新信息能够被存放到细胞状态中。

输出门用来确定下一个隐藏状态的值,隐藏状态包含了先前输入的信息。


4.GRU与LSTM具有哪些不同?


将遗忘门和输入门合并为一个门:更新门,此外另一门叫做重置门。

不引入额外的内部状态c,直接在当前状态ht和历史状态ht-1之间引入线性依赖关系。


5.循环神经网络应用领域?

语音识别:输入的语音数据,生成相应的语音文本信息。比如微信的语音转文字功能。


机器翻译:不同语言之间的相互转换。像有道翻译、腾讯翻译官等。最近微软据说实现了中翻英媲美人类的水平


音乐生成:使用RNN网络生成音乐,一般会用到RNN中的LSTM算法(该算法可以解决RNN网络中相距较远的节点梯度消失的问题)。


文本生成:利用RNN亦可以生成某种风格的文字。


情感分类:输入文本或者语音的评论数据,输出相应的打分数据。


DNA序列分析:输入的DNA序列,输出蛋白质表达的子序列。


视频行为识别:识别输入的视频帧序列中的人物行为。


实体名字识别:从文本中识别实体的名字。


三、自编码器


1.自编码器最显著的特征?


自编码器是一种无监督的数据维度压缩和数据特征表达方法。


2.自编码器变种有哪些?


普通的自编码器

多层自编码器

卷积自编码器

正则化的自编码器

稀疏自编码器

降噪自编码器


  • 3.自编码器应用领域?
  • 数据去噪
    为进行可视化而降维
目录
相关文章
|
5月前
快速排序--面试最常见问题
快速排序--面试最常见问题
31 1
|
1月前
|
算法 Java 数据中心
探讨面试常见问题雪花算法、时钟回拨问题,java中优雅的实现方式
【10月更文挑战第2天】在大数据量系统中,分布式ID生成是一个关键问题。为了保证在分布式环境下生成的ID唯一、有序且高效,业界提出了多种解决方案,其中雪花算法(Snowflake Algorithm)是一种广泛应用的分布式ID生成算法。本文将详细介绍雪花算法的原理、实现及其处理时钟回拨问题的方法,并提供Java代码示例。
67 2
|
1月前
|
缓存 关系型数据库 MySQL
面试题目总结
面试题目总结
71 6
|
1月前
|
Java C++ Python
【面试宝典】深入Python高级:直戳痛点的题目演示(下)
【面试宝典】深入Python高级:直戳痛点的题目演示(下)
|
1月前
|
设计模式 Unix Python
【面试宝典】深入Python高级:直戳痛点的题目演示(上)
【面试宝典】深入Python高级:直戳痛点的题目演示(上)
|
3月前
|
机器学习/深度学习 存储 PyTorch
【深度学习】Pytorch面试题:什么是 PyTorch?PyTorch 的基本要素是什么?Conv1d、Conv2d 和 Conv3d 有什么区别?
关于PyTorch面试题的总结,包括PyTorch的定义、基本要素、张量概念、抽象级别、张量与矩阵的区别、不同损失函数的作用以及Conv1d、Conv2d和Conv3d的区别和反向传播的解释。
237 2
|
3月前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
251 2
|
3月前
|
JavaScript 前端开发 Java
常见问题:Go的面试问题和答案(2)
常见问题:Go的面试问题和答案(2)
|
3月前
|
存储 Java 程序员
常见问题:Go的面试问题和答案(1)
常见问题:Go的面试问题和答案(1)
|
5月前
|
缓存 Java 数据库连接
java面试题目 强引用、软引用、弱引用、幻象引用有什么区别?具体使用场景是什么?
【6月更文挑战第28天】在 Java 中,理解和正确使用各种引用类型(强引用、软引用、弱引用、幻象引用)对有效的内存管理和垃圾回收至关重要。下面我们详细解读这些引用类型的区别及其具体使用场景。
79 3

热门文章

最新文章