暂无个人介绍
2022年03月
因为我们知道naive的含义如下:. naive: marked by or showing unaffected simplicity and lack of guile or worldly experience; 它是简单的,它是缺乏worldly experience的。. 正如它的名字一样,朴素贝叶斯模型假设样本特征彼此独立,没有相关关系。. 正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。. 但,朴素贝叶斯模型就没用了吗?.
L1范数为向量中各个元素的绝对值之和,符合拉普拉斯分布,可以使权值稀疏;
L2范数为向量中各个元素的平方和的1/2次方,符合高斯分布,可以防止过拟合;
Lp范数为向量中各个元素的p次方和的1/p次方;
归一化后加快的梯度下降对最优解的速度。
归一化有可能提高精度。
缺点是需要选择一个阈值如果实际的簇需要的话。
Logistic归回 y=sigmoid(wx+b)
SRCNN、FSRCNN等。
MaskRCNN、UNet等;
FasterRCNN,YOLO,SSD等;
ResNet,SENet,EfficientNet等;
AliGenie生活在云端,它能够听懂中文普通话语音指令,目前可实现智能家居控制、语音购物、手机充值、叫外卖、音频音乐播放等功能,带来人机交互新体验。. 依靠阿里云的机器学习技术和计算能力,AliGenie能够不断进化成长,了解使用者的喜好和习惯,成为人类智能助手。. 天猫精灵X1采用了专门为智能语音行业开发的芯片,在解码,降噪,声音处理,多声道的协同等方面做了专门的优化处理。. 针对需要进行大量音频处理、声音合成的工作环境,定制芯片加入了独立的NEON处理单元,NEON技术可加速音频和语音处理、电话和声音合成等,从而带来更优秀的语音识别及音频处理效果。. 在收音方案上采用了六麦克风收音阵列技术。.
对于n个元素的相似度矩阵(或者叫affinity matrix, 有时也叫距离矩阵)是一个有着成对相似度分数的n*n矩阵。谱聚类的这个名称是从相似度矩阵构造的矩阵的谱的使用得来。这个矩阵的特征向量被用来降维,然后再聚类。
树结构可以被用来可视化关系,并且显示簇是如何关联起来的。一个好的特征向量将得到树中好的分离。另一个优势是树可以在不同的簇阈值中被重用,而不需要重新计算树。缺点是需要选择一个阈值如果实际的簇需要的话。
层次聚类(或者叫做凝聚聚类)是另一个简单但是强大的聚类算法。其思想是基于成对距离建立一棵相似度树。该算法首先分组成为两个最近的对象(基于特征向量之间的距离),并且在一棵有着两个对象作为孩子的树中创建一个平均结点。然后在余下的结点中找到一个最近的pair,并且也包含任何平均节点,等等。在每一个结点,两个孩子之间的距离也会被存储。簇然后可以通过遍历这棵树并在距离比某个阈值小以至于决定聚类的大小的结点处停止来被提取出来。
1.随机选取k个聚类质心点(cluster centroids) 2.对于每一个样例i,计算其应该属于的类 3.对于每一个类j,重新计算该类的质心
AdaBoost是一个广泛使用的BOOSTING算法,其中训练集上依次训练弱分类器,每次下一个弱分类器是在训练样本的不同权重集合上训练。权重是由每个样本分类的难度确定的。分类的难度是通过分类器的输出估计的。
SVM的损失函数叫做Hinge(hɪndʒ) Loss,形式为max(0,1-y*a),y为真实值+-1,a为预测值,介于-1到1之间。
Logistic归回 y=sigmoid(wx+b)
自上而下的解析器首先假设一个句子并连续预测较低级别的成分,直到写入各个前终端符号。
都是分类算法
如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。
LR和SVM都是监督学习算法
LR和SVM的损失函数不同
SVM只考虑局部的边界线附近的点 ,LR考虑全局,远离的点对边界线的确定也起作用。
状态空间搜索是规划算法最直接的方法,因为它考虑了寻找解决方案的所有内容。