机器学习算法的种类

机器学习算法有三种:监督学习(supervised learning)、非监督学习(unsupervised learning)、增强学习(reinforcement learning)。这三种机器学习算法有什么不同呢?遇到实际问题该选择哪种类型的算法呢?

参考:斯坦福大学公开课 :机器学习课程

使用监督学习做预测

监督学习是从已知的训练数据(样本)中学习一个模型,使用这个模型我们可以预测未见到的数据。

例如垃圾邮件过滤,我们需要使用一堆邮件(每个邮件都被人为标记为垃圾或正常邮件-label)训练这个模型,使用这个模型就可以预测一个新邮件是垃圾邮件还是正常邮件。

监督学习的意思是样本中已经包含结果(是否是垃圾邮件)。

机器学习算法的分类

监督学习又可以分为两种:如果结果是离散、不连续的(是否是垃圾邮件,两个状态),那么这个问题属于分类(classification)问题;如果结果是连续的,那么这个问题属于回归(regression)问题。

分类问题

分类是监督学习的一种,它的目的是根据已有的观测结果预测新实例的所在分类。上面提到的邮件过滤结果分为两类,是典型的二元分类(binary classification)问题,机器学习算法学习了区分两种可能分类的一套规则(垃圾邮件,非垃圾邮件)。

除了二元分类还可以有N元分类,例如手写识别。

回归问题

回归问题对结果的预测是连续值,不像分类问题,非此即彼。有些人又把它叫做回归分析。

举一个简单的例子:高考刚过没几天,我们非常想预测学生的高考分数;现在,假设学生花在学习上时间的多少和最后成绩有一定的关系,我们可以使用它做为训练数据,然后使用训练出的模型预测未来学生的分数。

使用增强学习解决交互问题

增强学习通过和“环境”进行交互来提高自己的水平。就像训练一个狗,做对了就给点奖励,这个奖励在增强学习中叫强化函数(reward function)。增强学习获得的奖励并不是对或错,而是做的有多好,由强化函数决定。

增强学习的典型应用是棋类AI,AI通过当前棋盘的状态(环境)决定怎么走,奖励可以定义为最后的输和赢。增强学习提高经验常用的方法是 “试-错”。

机器学习算法的分类

使用非监督学习发现数据包含的隐藏信息

监督学习的训练数据中包含正确的结果;增强学习通过奖励提高经验;但是,非监督学习,我们处理的是未label的数据、未知的“数据结构”。非监督学习,允许我们在数据中遨游,探索数据的结构、在数据中提取有意义的信息。

使用聚类查找子类

聚类(clustering),其实本质就是寻找联系紧密的事物,把他们区分出来。如果这些事物较少,人为的就可以简单完成这一目标。但是遇到大规模的数据时,人力就显得十分无力了。所以我们需要借助计算机来帮助寻找海量数据间的联系。

由于这个聚类算法可以分类,有时又被叫做“非监督分类”。例如可恶的营销人员使用它对消费者进行分组(基于消费者的兴趣),然后执行不同的推广策略。

降维(dimensionality reduction)

通常我们得到的数据是高维度的-样本数据中包含很多特性-这导致数据占用空间多并影响机器学习算法的性能。使用降维可以去除数据中一些噪音。

有时,降维也被应用到数据可视化上。例如,可以把高维数据投影到1、2和3维空间上:

机器学习算法的种类

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注