机器学习的几种学习方式

简介: 机器学习的几种学习方式

监督学习

定义:监督学习(Supervised Learning)是一种利用已知类别的样本调整分类器的参数,从而达到所需性能的的学习方式,这种方式既有数据也有标签,;

分类

回归分析(Regression Analysis):其数据集是给定一个函数和它的一些坐标点,然后通过回归分析的算法,从而估计原函数的模型,最后求出一个最符合这些已知数据集的函数解析式。然后我们根据这个解析式就能够预估其他未知输出的数据,当我们输入一个自变量时,它就会根据这个模型解析式输出一个因变量。输入的自变量就是特征向量,输出的因变量就是标签,而且标签的值是建立在连续范围内的;

分类(Classification):其数据集由特征向量和对应的标签组成,当学习了数据集之后,给定一个只知道特征向量而不知道标签的数据,然后求出其标签,它和回归的最大区别就是看输出结果是离散还是连续的;

常用算法

决策树

分类回归树

朴素贝叶斯

线性判别分析

K最邻近

逻辑斯谛回归(二值分类)

径向基函数网络

对偶传播网络

学习向量量化网络

误差反向传播网络

支持向量机(二值分类)

单层感知器

双隐藏层感知器

非监督学习

定义:主要目标是预训练一个模型(也称为识别或编码)网络,然后供其他任务使用。这是一种不受监督而自由的学习方式,不需要先验知识进行指导,而是通过不断地自我认知,自我巩固,最后进行自我归纳,这是一种不为训练集提供对应的识别标识的学习方式,数据集形式:(x^{(1)}), (x^{(2)}), (x^{(3)}),这种方式只有数据,没有标签;

常用算法

KMeans

CHAMELONE

BIRCH

DBScan

EM算法(高斯混合模型)

谱聚类

自组织映射网络

半监督学习

定义:这是一种兼具了监督学习和非监督学习的特点的学习方式,它能够同时利用标记样本和未标记样本,从而减少计算机的计算代价。这种方式中部分输入数据被标识,部分未标识,这种学习模型可以用于进行预测,但模型需要提前学习数据的内在结构,以便能够合理的组织数据从而进行预测;

常用算法

自训练算法(Self-training)

基于图的半监督算法(Graph-based Semi-supervised Learning)

半监督支持向量机(Semi-supervised supported vector machine, S3VM)

强化学习

定义:这是一种让计算机从一开始什么都不懂,通过不断学习尝试,从错误中学习,直到最后找到规律,从而学会达到目的方法。强调的是如何基于环境而行动,以获取最大化的预期利益;

常用算法

Q Learning

Sarsa

Policy Gradients

DDPG(Deep Deterministic Policy Gradient)

A3C(Asynchronous Advantage Actor-Critic)

DQN(Deep Q Network)


目录
相关文章
|
2月前
|
机器学习/深度学习 算法
【机器学习】迅速了解什么是集成学习
【机器学习】迅速了解什么是集成学习
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
【机器学习】机器学习、深度学习、强化学习和迁移学习简介、相互对比、区别与联系。
机器学习、深度学习、强化学习和迁移学习都是人工智能领域的子领域,它们之间有一定的联系和区别。下面分别对这四个概念进行解析,并给出相互对比、区别与联系以及应用场景案例分析。
167 1
|
4月前
|
机器学习/深度学习 开发者 Python
Python 与 R 在机器学习入门中的学习曲线差异
【8月更文第6天】在机器学习领域,Python 和 R 是两种非常流行的编程语言。Python 以其简洁的语法和广泛的社区支持著称,而 R 则以其强大的统计功能和数据分析能力受到青睐。本文将探讨这两种语言在机器学习入门阶段的学习曲线差异,并通过构建一个简单的线性回归模型来比较它们的体验。
74 7
|
4月前
|
机器学习/深度学习 运维 算法
【阿里天池-医学影像报告异常检测】3 机器学习模型训练及集成学习Baseline开源
本文介绍了一个基于XGBoost、LightGBM和逻辑回归的集成学习模型,用于医学影像报告异常检测任务,并公开了达到0.83+准确率的基线代码。
81 9
|
4月前
|
机器学习/深度学习
【机器学习】模型融合Ensemble和集成学习Stacking的实现
文章介绍了使用mlxtend和lightgbm库中的分类器,如EnsembleVoteClassifier和StackingClassifier,以及sklearn库中的SVC、KNeighborsClassifier等进行模型集成的方法。
61 1
|
4月前
|
机器学习/深度学习 人工智能 算法
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
152 0
|
5月前
|
机器学习/深度学习 算法 前端开发
集成学习(Ensemble Learning)是一种机器学习技术,它通过将多个学习器(或称为“基学习器”、“弱学习器”)的预测结果结合起来,以提高整体预测性能。
集成学习(Ensemble Learning)是一种机器学习技术,它通过将多个学习器(或称为“基学习器”、“弱学习器”)的预测结果结合起来,以提高整体预测性能。
|
5月前
|
机器学习/深度学习 人工智能 缓存
人工智能平台PAI使用问题之如何配置学习任务
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
6月前
|
机器学习/深度学习 算法 前端开发
机器学习中的集成学习(二)
**集成学习概述** 集成学习通过结合多个弱学习器创建强学习器,如Bagging(Bootstrap Aggregating)和Boosting。Bagging通过随机采样产生训练集,训练多个弱模型,然后平均(回归)或投票(分类)得出结果,减少方差和过拟合。Boosting则是迭代过程,每个弱学习器专注于难分类样本,逐步调整样本权重,形成加权平均的强学习器。典型算法有AdaBoost、GBDT、XGBoost等。两者区别在于,Bagging模型并行训练且独立,而Boosting模型间有依赖,重视错误分类。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习中的集成学习(一)
集成学习是一种将多个弱学习器组合成强学习器的方法,通过投票法、平均法或加权平均等策略减少错误率。它分为弱分类器集成、模型融合和混合专家模型三个研究领域。简单集成技术包括投票法(用于分类,少数服从多数)、平均法(回归问题,预测值取平均)和加权平均法(调整模型权重以优化结果)。在实际应用中,集成学习如Bagging和Boosting是与深度学习并驾齐驱的重要算法,常用于数据竞赛和工业标准。

热门文章

最新文章