暂无个人介绍
干货 | 公众号历史文章精选(附资源)
今日机器学习概念:感知机模型
Git 简洁教程:本地项目如何与 GitHub 互连?
2018 NLP圣经《自然语言处理综述》最新手稿已经发布!
撒花!吴恩达《Machine Learning Yearning》完结!
重磅 | 吴恩达新书《Machine Learning Yearning》1-52 最新章节分享
机器学习大牛是如何选择回归损失函数的?
如何让奇异值分解(SVD)变得不“奇异”?
划重点!通俗解释协方差与相关系数
6 种激活函数核心知识点,请务必掌握!
【干货】我的机器学习入门路线图
白话生成对抗网络 GAN,50 行代码玩转 GAN 模型!【附源码】
通俗易懂!白话朴素贝叶斯
之前,我发过一篇文章,通俗地解释了梯度下降算法的数学原理和推导过程,推荐一看。链接如下: 简单的梯度下降算法,你真的懂了吗?
机器学习中,如果参数过多,模型过于复杂,容易造成过拟合(overfit)。
简单的交叉熵损失函数,你真的懂了吗?
三分钟带你对 Softmax 划重点
基于线性SVM的CIFAR-10图像集分类
距离产生美?k近邻算法python实现
通俗解释优化的线性感知机算法:Pocket PLA
精心整理 | 林轩田机器学习资源汇总
【附源码】一看就懂的感知机算法PLA
干货 | 林轩田机器学习「基石+技法」历史文章汇总
简述推荐系统中的矩阵分解
通俗易懂讲解RBF网络
简述深度学习预训练和正则化
一文详解神经网络模型
GBDT!深入浅出详解梯度提升决策树
通俗解释随机森林算法
一文详解决策树算法模型
Adaptive Boosting(AdaBoost)是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个最强的最终分类器(强分类器)。
本文将主要介绍Aggregation Models,也就是把多个模型集合起来,利用集体的智慧得到最佳模型。
【SVM最后一课】详解烧脑的Support Vector Regression
逻辑回归还能这样解?关于Kernel Logistic Regression的详细解释
一文详解SVM的Soft-Margin机制
【干货】吴恩达deeplearning.ai专项课程历史文章汇总
简单的梯度下降算法,你真的懂了吗?
成为梵高、毕加索?你最喜欢的人脸识别与神经风格迁移来啦!
完结篇 | 吴恩达《序列模型》精炼笔记(3)-- 序列模型和注意力机制
吴恩达《序列模型》精炼笔记(2)-- NLP和Word Embeddings
力荐 | 吴恩达《序列模型》精炼笔记(1)-- 循环神经网络(RNN)
假期福利 | 林轩田《机器学习基石》资源汇总
吴恩达《卷积神经网络》精炼笔记(3)-- 目标检测
重磅 | 吴恩达新书《Machine Learning Yearning》最新版分享
干货 | 神经网络与深度学习精选文章汇总
吴恩达《构建机器学习项目》精炼笔记(2)-- 机器学习策略(下)
上节课我们主要介绍了深度神经网络的优化算法。
上节课我们主要介绍了如何建立一个实用的深度学习神经网络。
吴恩达的深度学习专项课程的第一门课《神经网络与深度学习》的所有精炼笔记我已经整理完毕。迷路的小伙伴请见文章末尾的推荐阅读:
上节课我们主要介绍了线性支持向量机(Linear Support Vector Machine)。