2019-05-14 | 统计学习方法笔记 | UNLOCK

读书笔记:Chapter1 机器学习分类

分类思维导图

整理机器学习按照不同维度进行分类的思维导图如下。
image.png

分类方法及内容

基本分类

所谓基本分类,即是通用常见的分类方式,如上图所示,主要分为监督学习,无监督学习,强化学习,半监督学习,主动学习。

  • 监督学习
    监督或无监督主要是从训练数据集来看,需要使用带有标注数据进行训练的过程则称为监督学习反之则是无监督学习,标注即是$label$或$y$。它所要解决的问题主要分类、回归、标注,对于输出$Y$为离散值,输入$X$既可以是连续也可以是离散的任务称为分类任务;输入$X$和$Y$均为连续的任务为回归任务;输入输出均为序列的情况则为标注任务。实际工作,有一类任务也需要去讨论,那就是排序问题(Learning to rank),排序问题所要考察的是一个输入,生成一个列表,属于信息检索范畴,常见列表有搜索结果列表,推荐结果列表,广告列表。
    [x] 补充排序问题相关内容介绍,排序指标
  • 无监督学习
    利用不带标签的数据集进行训练过程,它主要解决的任务有降维、聚类和估计,工作中降维应用场景较多。
  • 强化学习
    是agent与环境交互过程种学习最优策略的机器学习问题,解决的是序贯决策问题。强化学习的马尔科夫决策过程有五元组组成$ $

    • $S$ 是有限状态(state)集合,每个时刻都有个状态$s_t$
    • $A$ 有限动作(action)集合,每个时刻都会选择一种动作$a_t$
    • $P$ 状态转移概率(transition probability)函数,表示一个状态$s_{t}, a_{t}$转移到下一个时刻状态$s_{t+1}^{\prime}$的概率,
    • $r$ 奖励函数(reward function), 表示的是在状态$s$和动作$a$的情况下的奖励(期望)$r(s,a)=E(r_{t+1}|s_t=s, a_t=a)$
    • $\gamma$ 是衰减系统(discount factor)(为什么会有衰减系数,随着时间的推移,前面时刻的奖励影响力会减小),$\gamma \in [0, 1]$
    • 策略$\pi$定义为给定状态下动作的函数$a=f(s)$ 或条件概率分布$P(a|s)$(某个状态选择何种动作),一旦策略给定,那么系统和环境产生的行为就已确定
    • 价值函数(value function)或状态值函数(state value function),定义为策略$\pi$从某一个状态$s$开始的长期累积奖励的期望;
    • 动作价值函数(action value function),定义为策略$\pi$的从某个状态$s$和动作$a$开始的长期累积奖励的数学期望,

    强化学习的本质是在所有可能的策略中寻找价值函数最大的策略$\pi^{\ast}$,常见的求解方法有基于无模型的方法(model-free)包括基于策略的(policy-based)、基于价值的(value-based)。有模型的方法是试图直接学习马尔科夫决策过程,包括转移概率函数$P(s^{\prime}|s,a)$和奖励函数$r(s,a)$;无模型基于策略的方法不直接学习模型,而是试图直接求解最优策略$\pi^{\ast}$;

技巧分类

  • 贝叶斯学习
    贝叶斯学习(Bayesian learning)或者贝叶斯推理(Bayesian inference),利用贝叶斯定理,计算给定数据条件下的概率模型,即后验概率,对模型进行估计和数据预测。特点是将模型、未观测要素及其参数用变量表示,使用模型的先验分布。常见算法有朴素贝叶斯,LDA。
    [x]补充贝叶斯估计和极大似然估计联系和区别
  • 核方法
    使用核函数学习和表示非线性模型的机器学习方法。该方法的技巧是不直接定义一种空间表示到另外一个特征空间表示的映射函数,而是直接定义另外一个特征空间中的内积计算函数,即核函数。数学描述是,假设输入$x_1$和$x_2$是输入空间的任意两个向量,其内积是$$,设输入空间到特征空间的映射是$\varphi$,则在特征空间内的内积计算为$<\varphi{(x_1)}, \varphi{(x_2)}>$,核方法是直接定义这种内积计算$K(x_1, x_2)=<\varphi(x_1), \varphi(x_2)>$.

模型分类

  • 概率模型
    监督学习中,概率模型形式是条件概率分布$P(y|x)$; 非监督学习中,概率模型形式为$P(z|x) or P(x|z)$.概率模型是生成模型,非概率模型是判别模型。场景的概率模型有决策树、朴素贝叶斯、隐马尔科夫模型、条件随机场、概率潜在语义模型、潜在狄里克莱分配,高斯混合模型,逻辑回归即是概率模型,又可以看做非概率模型。
  • 非概率模型
    监督学习中,非概率模型形式是$y=f(x)$,非监督学习中为$z=g(x)$.常见的感知机、支持向量、k近邻、Adaboost、k均值、潜在语义分析、神经网络。
    二者本质的区别在于模型内部结构,而不在于是否可以表示成条件概率的形式,概率模型一定可以表示成联合概率分布的形式,非概率模型则不一定。
  • 参数模型和非参数模型
    主要出发点是模型参数维度是否固定或有限维刻画。常见参数模型有感知机、朴素贝叶斯、逻辑回归、k均值、高斯混合模型;非参数化模型有决策树、支持向量机、Adaboost、k近邻、潜在语义分析(LSA)、概率潜在语义分析(pLSA)、潜在狄利克雷分配(LDA)
  • 线性和非线性模型
    线性和非线性主要针对非概率模型,主要判断函数$y=f(x)或z=g(x)$是否为线性函数,是则是线性模型,不是则是非线性模型。线性模型常见算法感知机、线性支持向量机、k近邻、k均值、潜在语义分析;非线性模型算法有核函数支持向量机、Adaboost,神经网络。

    算法分类

  • 在线学习
    每次只接受一个样本进行学习
  • 批量学习
    每次接受全部样本进行学习

总结

该节主要是从概念上对常用的机器学习算法进行分类,了解这些便于后续深入分析。

评论加载中