渣渣一枚
一、监督学习简介 监督机器学习问题无非就是“minimizeyour error while regularizing your parameters”,也就是在规则化参数的同时最小化误差。最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据。
k均值聚类:---------一种硬聚类算法,隶属度只有两个取值0或1,提出的基本根据是“类内误差平方和最小化”准则; 模糊的c均值聚类算法:-------- 一种模糊聚类算法,是k均值聚类算法的推广形式,隶属度取值为[0 1]区间内的任何一个数,提出的基本根据是“类内加权误差平方和最小化”准则; 这两个方法都是迭代求取最终的聚类划分,即聚类中心与隶属度值。
方法一:选择要更新的域,按F9键即可。 方法二:右键单击要更新的域,在弹出的右键菜单中选择“更新域”即可。 方法三:若域位于一个含有“更新”按钮的特定容器中,则点击“更新”即可。
a = [ 1 2 3 3 3]; 如果a==3 返回[ 0 0 1 1 1]; find(a==3) 返回[3 4 5],这才是想要的下标。
一、问题来源 做实验室的进展统计表,老师让加上开始时间和完成时间,时间格式:周几_上午(下午、晚上)。 这样就可以了做下拉菜单,方便填写,而且格式统一,方便查看。 二、解决办法 2.1 下来菜单 红框是数据的来源区域,要设置成一行或者一列。
用户-项目评分矩阵可以用来建立一个二分图(Bipartite Graph),图中节点分别表示用户和项目,边的权重为用户对项目的评分。可以分析二分图的结构,进而得出对用户的项目推荐。 用户和项目是推荐系统的两个最重要的基本组成部分,可以设用户集为U,项目集为I。
1.[1] [1,2](英文逗号) [1-3] 三个以上,横线链接 2.L---F---M,LFM,英文逗号,不要简称LFM 直接LFM 3.图标和图片内自体都要比正文小一号 4.ijk一页内,要斜体都斜体 5.我你---本文 6.1 1.1 级别比较高 一般小标题用1)2) 7.标题无标点 野不要参考文献 8.公式和图片的标注要一样,要么1 23 要么3.1 3.2 要么3-1 3-2 9.大致-基本 10.参考文献另起一页,插入分页符 注意在那个地方插的。
适用于只有一个首页,若是从某一页,需要分节符,从某一页参考Word2007插入两种页码。 插入-页码-页面低端-弹到设计窗口。然后选择页码-设置页码格式-起始页码0-勾选首页不同。
第一种: 正文为5号,那么图片或者Viso对象前后空一行,设置字号为7号或者更小,这样设置的间距就是那个7号字的间距,比5号小,看着空白不是那么大。 第二种: Visio对象转为jpg,然后选中图片和前后两端,选择段落,设置前后段落间距就好了;如果是Visio对象,那么右键没有段落,也没有Visio对象。
【格式】[序号]主要责任者.电子文献题名.电子文献出处[电子文献及载体类型标识].或可获得地址,发表或更新日期/引用日期. 【举例】 [16] 王明亮.关于中国学术期刊标准化数据库系统工程的进展[EB/OL].
第一种:参考文献,用NE插入。 第二种:交叉引用。 先定义新的编号格式[1](主要解决参考文献格式自动编号的问题),感觉但是没有解决缩进的问题,需要Tab。 但是实验发现,通过谷歌学术引用的参考文献插在这类标号后边自动缩进了,如上图;然后在需要的地方
如图,两个图片都剧终了,大小也一致,但是发现没有对齐,那是因为需要设置(矩阵框住的)缩进,让两个在一起,上下对齐。
如图,空白很大,因为我在设计里选择纸张适应绘图,后发现直接复制粘贴到word就好了,没空白了。
如横坐标重叠了,咋回事?蛋疼。 后来发现plot里已经横坐标1到50了,我又写了个 set(gca,'XTick',1:1:50);没写XTickLabel,后来我把XTick注视了就好了。
如图所示,不用一个一个设置,在字体里直接设置细纹字体:Times New Roman ,中文字体不用管。
个人理解,根据大数定理残差服从高斯分布,而高斯分布的密度函数里exp的指数是二次方,然后最大似然估计,所以就是求误差平方和。
1.鼠标居中 2.插入一行三列表格 3.选中第一个表格,右键-表格属性-单元格-选项;然后回到单元格设置垂直居中,宽度为15%,同理第三个单元格,不过中间单元格也要设置,宽度为70%,这个word没有自动变。
如图,刚开始我想着用辅助的那些线(对齐),实现不了,后来想想直接复制就行了。。。。。。。。。。。
同理选中第一列的两个,按向右箭头,整体友谊。
RT,相似度和信任度矩阵融合,两个箭头,选中其中一个,可以选格式--线条--终点选无,或者在快捷那选线条。
>> a = magic(3) a = 8 1 6 3 5 7 4 9 2 >> ismember(a,3) ans = 0 0 0 1 ...
也可以直接插入MathType公式,我原来的word不显示MathType,现在显示了,不过插入后太小,那是因为字体小,拖动托大就行。 在word中插入-对象-公式3.0对象(安装MathType后,是一样的),然后复制过去。
如图,两个矩形重叠部分的边框都显示了,是拆分操作,不是组合。
在src下的包含Main的包下打开命令行,javac -classpath “路径到src,不到包下” Main.java
如果需要代做算法,可以联系我...博客右侧有联系方式。 一、相关概念 1.梯度下降 由于Z= X*theta - y是列向量,所以Z'*Z就是平方和连加,就是2范数;如果Z是矩阵呢,那么Z'*Z的对角线就是Z矩阵每列的2范数。
如果需要代做算法,可以联系我...博客右侧有联系方式。 一、正规化方程概念 假设我们有m个样本。特征向量的维度为n。因此,可知样本为{(x(1),y(1)), (x(2),y(2)),... ..., (x(m),y(m))},其中对于每一个样本中的x(i),都有x(i)={x1(i), xn(i),... ...,xn(i)}。
简单来说,它主要用来把所有特征值范围映射至同样的范围里面如(0,1)、(-1,1)、(-0.5,0.5)等。 Feature scaling (数据规范化) 是数据挖掘或机器学习常用到的步骤,这个步骤有时对算法的效率和准确率都会产生巨大的影响。
一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。
一个演讲者演讲能力的高低,除了要看演讲者的演讲内容能否吸引听众,是否具有自信、幽默、机智等特点外,还要看演讲者在演讲的结尾表现的是否精彩。结尾 也是演讲的重要组成部分,精彩的结束语,能够促人深思,耐人寻味,给听众留下难以忘怀的印象。
贝叶斯网络定了这样一个独立的结构:一个节点的概率仅依赖于它的父节点。贝叶斯网络更加适用于稀疏模型,即大部分节点之间不存在任何直接的依赖关系。 联合概率,即所有节点的概率,将所有条件概率相乘: 我们最终的目标是计算准确的边缘概率,比如计算Hangover的概率。
归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。归一化是为了加快训练网络的收敛性,可以不进行归一化处理 归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在-1--+1之间是统计的坐标分布。
一、矩阵存储方式 MATLAB的矩阵有两种存储方式,完全存储方式和稀疏存储方式 1.完全存储方式 将矩阵的全部元素按列存储,矩阵中的全部零元素也存储到矩阵中。 2.稀疏存储方式 仅存储矩阵所有的非零元素的值及其位置,即行号和列号,显然这对于具有大量零元素的稀疏矩阵来说是十分有效的。
F-范数与2-范数是不一样的. 这是我前几天回答的一个问题,节选一部分: A是矩阵,则: 1-范数是:max(sum(abs(A)),就是对A的每列的绝对值求和 再求其中的最大值,也叫列范数 2-范数是:求A'*A 的特征值,找出其中的最大特征值,求其平方根 相当于max(sqrt(...
for mm=1:num_m %电影编号是mm的训练集行号 ff= find(train_vec(:,2)==mm); %train_vec(ff,1) 行号对应的用户编号 count(train_vec(ff,1),mm) = train_vec(ff,3); end 桉的是电影数目,每次处理一个电影,比双重for循环看着给力。
for iter = 1:num_iters %梯度下降 用户向量 for i = 1:m %返回有0有1 是逻辑值 ratedIndex1 = R_training(i,:)~=0 ; %U(i,:) * V' ...
对 p = 2,这称为弗罗贝尼乌斯范数(Frobenius norm)或希尔伯特-施密特范数( Hilbert–Schmidt norm),不过后面这个术语通常只用于希尔伯特空间。这个范数可用不同的方式定义: 这里 A* 表示 A 的共轭转置,σi 是 A 的奇异值,并使用了迹函数。
1.矩阵分解是推荐系统常用的手段,经常用来做用户偏好预测.在当下的推荐系统中,我们得到用户对于物品的评分矩阵往往是非常稀疏的,一个有m个用户,n个商品的网站,它所收集到的m*n用户评分矩阵R可能只有不到万分之一的数据非零.矩阵分解算法常用来构造出多个矩阵, 用这些矩阵相乘的结果R’来拟合原来的评分矩阵R,目标是使得到的矩阵R’在R的非零元素那些位置上的值尽量接近R中的元素,同时对于R中非零值进行补全.我们定义R和R’之间的距离,把它作为优化的目标,那么矩阵分解就变成了最优化问题,而这类最优化问题常用梯度下降的方法来求出一个局部最优解。
对于一个用户来说,他们可能有不同的兴趣。就以作者举的豆瓣书单的例子来说,用户A会关注数学,历史,计算机方面的书,用户B喜欢机器学习,编程语言,离散数学方面的书, 用户C喜欢大师Knuth, Jiawei Han等人的著作。
一、理论 二、数据集 6.1101,17.592 5.5277,9.1302 8.5186,13.662 7.0032,11.854 5.8598,6.8233 8.3829,11.
一、差分与微分 我自己的理解。 二、求解 2.1 矩阵 这就是matlab的计算结果.太小的话放大些: c = 4 5 9 7 2 1 5 2 6 >> [x,y]=gradient(c) x = 1.
这里我想给大家介绍另外一种推荐系统,这种算法叫做潜在因子(Latent Factor)算法。这种算法是在NetFlix(没错,就是用大数据捧火《纸牌屋》的那家公司)的推荐算法竞赛中获奖的算法,最早被应用于电影推荐中。
目标函数是要最小化C: 求其梯度: 梯度下降求最小值:
本文将简单介绍下最近学习到的矩阵分解方法。 (1)PureSvd 矩阵分解的核心是将一个非常稀疏的评分矩阵分解为两个矩阵,一个表示user的特性,一个表示item的特性,将两个矩阵中各取一行和一列向量做内积就可以得到对应评分。
为了方便介绍,假设推荐系统中有用户集合有6个用户,即U={u1,u2,u3,u4,u5,u6},项目(物品)集合有7个项目,即V={v1,v2,v3,v4,v5,v6,v7},用户对项目的评分结合为R,用户对项目的评分范围是[0, 5]。
一、什么是贝叶斯推断 贝叶斯推断(Bayesian inference)是一种统计学方法,用来估计统计量的某种性质。它是贝叶斯定理(Bayes' theorem)的应用。英国数学家托马斯·贝叶斯(Thomas Bayes)在1763年发表的一篇论文中,首先提出了这个定理。
1.颜色字符串有'c', 'm', 'y', 'r', 'g', 'b', 'w',和'k'。分别表示青,红紫,黄,红,绿,白和黑。 2.线型字符串有:'-' 为实线, '--' 为虚线, ':' 为点线, '-.' 为点虚线, 及'none' 表示不用线型。