暂时未有相关云产品技术能力~
暂无个人介绍
C语言实现高精度(大位数)阶乘
C语言实现高精度(大位数)乘法
C语言实现高精度(大位数)减法
C语言实现高精度(大位数)加法
10:Hello, World!的大小
09:整型与布尔型的转换
08:打印字符
07:打印ASCII码
06:浮点数向零舍入
04:填空:类型转换1
03:其他基本数据类型存储空间大小
02:浮点型数据类型存储空间大小
01:整型数据类型存储空间大小
Java实现快速排序
Java实现归并排序
Java实现基数排序
Java实现插入排序
Java实现希尔排序
Java实现选择排序
Java实现冒泡排序
10:超级玛丽游戏
09:字符菱形
08:字符三角形
07:输出浮点数
06:空格分隔输出
05:输出保留12位小数的浮点数
04:输出保留3位小数的浮点数
03:对齐输出
02:输出第二个整数
01:Hello, World!
06:整数奇偶排序
02:奇数单增序列
01:谁考了第k名
TensorFlow训练网络有两种方式,一种是基于tensor(array),另外一种是迭代器 两种方式区别是: 第一种是要加载全部数据形成一个tensor,然后调用model.fit()然后指定参数batch_size进行将所有数据进行分批训练 第二种是自己先将数据分批形成一个迭代器,然后遍历这个迭代器,分别训练每个批次的数据
在推荐系统或者一些大型文本分类数据任务上,对于一些数据的维度非常高,而且因为稀疏型(分类)特征不能直接喂给模型,我们需要将其映射成稠密连续特征(数值型)。
有时我们的输入数据不只一个,会存在多个输入源,多个输出源,对于这种情况我们使用Sequential显然是不行的,因为Sequential只能够搭建线性拓扑模型,对于那种流水线型的模型较为适合,如果是非线性拓扑,复杂的拓扑使用Sequential是不能够实现的,这是我们就需要使用Function API,它会使我们处理多输入多输出变得简单。
有些时候我们需要对一些输入层进行权值共享,这个目的就是有些输入源的数据是非常类似的,我们可以使用同一个层来进行捕捉特征,比如左右眼图片识别等,左右眼的结构较为类似,所以我们可以使用一个共享卷积核进行操作,而不需要两个卷积分别作用于两个眼部输入源。
由于要处理的层计算图是静态数据结构,可以对其进行访问和检查。而这就是将函数式模型绘制为图像的方式。
TensorFlow利用函数API实现简易自编码器
在TensorFlow中已经内置了很多常用的损失函数,可以满足我们的模型训练要求,但是有的时候我们自己特定的任务会有自己的损失函数,这样TensorFlow库中的函数就不会满足我们,我们就需要自己定义计算损失的方法。
有些时候我们的指标不止这些,需要根据我们自己特定的任务指定自己的评估指标,这时就需要自定义Metric,需要子类化Metric,也就是继承keras.metrics.Metric,然后实现它的方法
在TensorFlow中fit()函数可以接收numpy类型数据,前提数据量不大可以全部加载到内存中,但是如果数据量过大我们就需要将其按批次读取,转化成迭代器的形式,也就是DataSets
训练深度学习模型的常见模式是随着训练的进行逐渐减少学习。这通常称为“学习率衰减”。
计算每个epoch周期的平均指标,这个回调已经被自动应用在每个Keras模型,所以不需要手动设置
生成对抗网络 (GAN)。通过学习图像训练数据集的隐分布(图像的“隐空间”),GAN 可以生成看起来极为真实的新图像。
由于TensorFlow已经将整个模型的训练阶段进行了封装,所以我们无法在训练期间或者预测评估期间定义自己的行为,例如打印训练进度、保存损失精度等,这是我们就可以利用回调函数
TensorFlow训练模型需要经过多个epoch,但是并不是epoch越多越好,很有可能训练一半的epoch时,模型的效果开始下降,这是我们需要停止训练,及时的保存模型,为了完成这种需求我们可以自定义回调函数,自动检测模型的损失,只要达到一定阈值我们手动让模型停止训练
迁移学习包括获取从一个问题中学习到的特征,然后将这些特征用于新的类似问题。例如,来自已学会识别浣熊的模型的特征可能对建立旨在识别狸猫的模型十分有用。
注解:这里为了简单起见,只是模拟NIN网络结构,本代码只是采用3个mlpconv层和最终的全局平均池化输出层,每个mlpconv层中包含了3个1*1卷积层
解决ERROR: Cannot uninstall ‘PyYAML‘. It is a distutils installed project and thus we cannot accuratel