Python 与机器学习

Python & Machine Learning


  • 首页

  • 分类

  • 标签

  • 归档

  • 搜索

核模型的实现与评估

发表于 2017-04-28 | 分类于 支持向量机

有了上一篇文章的诸多准备、我们就能以之为基础实现核感知机和 SVM 了。不过需要指出的是,由于我们实现的 SVM 是一个朴素的版本、所以如果是要在实际任务中应用 SVM 的话,还是应该使用由前人开发、维护并经过长年考验的成熟的库(比如 LibSVM 等);这些库能够处理更大的数据和更多的边值情况、运行的速度也会快上很多,这是因为它们通常都使用了底层语言来实现核心算法、且在算法上也做了许多数值稳定性和数值优化的处理

阅读全文 »

多分类与支持向量回归

发表于 2017-04-28 | 分类于 支持向量机

本篇文章将简要说明几种将二分类模型拓展为多分类模型的普适性方法,它们不仅能对前三篇文章叙述的感知机和 SVM 进行应用、同时还能应用于在上一个系列中进行了说明的 AdaBoost 二分类模型;在本篇的第四节(也是最后一节)、我们则会简要地说明一下如何将支持向量机的思想应用在回归问题上

阅读全文 »

相关数学理论

发表于 2017-04-28 | 分类于 支持向量机

这篇文章会叙述之前没有解决的纯数学问题,会涉及到相当庞杂的数学概念与思想,其中一些推导的难度相对而言可能会比较大

阅读全文 »

“支持向量机”小结

发表于 2017-04-28 | 分类于 支持向量机
  • 感知机利用 SGD 能保证对线性可分数据集正确分类(无论学习速率为多少)、但它没怎么考虑泛化能力的问题
  • 线性 SVM 通过引入间隔(硬、软)最大化的概念来增强模型的泛化能力
  • 核技巧能够将线性算法“升级”为非线性算法,通过将原始问题转化为对偶问题能够非常自然地对核技巧进行应用
  • 对于一个二分类模型,有许多方法能够直接将它拓展为多分类问题
  • SVM 的思想能用于做回归(SVR);具体而言、SVR 容许模型输出和真值之间存在的差距以期望提高泛化能力

集成学习综述

发表于 2017-04-25 | 分类于 集成学习

目前为止我们已经讲过了若干的分类器了。从它们的复杂程度可以感受到,它们有些是比较“强”的、有些是比较“弱”的。这一章我们将会阐述所谓的“强”与“弱”的定义、它们之间的联系以及阐述如何将一个“弱分类器”通过集成学习来集成出一个“强分类器”。而由于集成学习有许多种具体的方法,我们会挑选出其中的随机森林和 AdaBoost 来作比较详细的说明

以下是目录:

  • “集成”的思想
  • 随机森林算法
  • AdaBoost 算法
  • 集成模型的性能分析
  • AdaBoost 算法的解释
  • 相关数学理论
  • “集成学习”小结

“集成”的思想

发表于 2017-04-25 | 分类于 集成学习

本文首先会介绍何谓“集成”、然后会介绍两种常见的集成学习方法:Bagging、AdaBoost 的基本定义。这些概念的背后有着深刻的数学理论,但是它们同时也拥有着很好的直观。获得对它们的直观有助于加深对各种模型的分类性能的理解、同时也有助于根据具体的数据集来挑选相应的、合适的模型来进行学习

阅读全文 »

随机森林算法

发表于 2017-04-25 | 分类于 集成学习

由前文讨论可知,我们在实现 RF 算法之前,需要先在决策树模型的生成过程中加一个参数、使得我们能够对特征选取加入随机性。这个过程相当平凡,下给出代码片段以进行粗略的说明。首先在CvDBase的fit方法中加入一个参数feature_bound:

1
2
def fit(self, x, y, sample_weight=None, alpha=None, eps=1e-8,
cv_rate=0.2, train_only=False, feature_bound=None):

然后在同一个方法里面、把这个参数传给CvDNode的fit方法:

1
self.root.fit(x_train, y_train, _train_weights, feature_bound, eps)

在CvDNode的fit方法中,原始代码中有一个对可选特征空间的遍历:

1
for feat in self.feats:

根据参数feature_bound对它加入随机性:

1
2
3
4
5
6
7
8
9
10
11
feat_len = len(self.feats)
# 默认没有随机性
if feature_bound is None:
indices = range(0, feat_len)
elif feature_bound == "log":
# np.random.permutation(n):将数组打乱后返回
indices = np.random.permutation(feat_len)[:max(1, int(log2(feat_len)))]
else:
indices = np.random.permutation(feat_len)[:feature_bound]
tmp_feats = [self.feats[i] for i in indices]
for feat in tmp_feats:

然后要在同一个方法里面、把feature_bound传给_gen_children方法,而在_gen_children中、再把feature_bound传给子节点的fit方法即可

以上所有实现细节可参见这里中的 Tree.py 和 Node.py

有了这些准备,我们就可以来看看 RF 的算法陈述了(以分类问题为例):

阅读全文 »

AdaBoost 算法

发表于 2017-04-25 | 分类于 集成学习

由前文的讨论可知,问题的关键主要在如下两点:

  • 如何根据弱模型的表现更新训练集的权重
  • 如何根据弱模型的表现决定弱模型的话语权

我们接下来就看看 AdaBoost 算法是怎样解决上述两个问题的。事实上,能够将这两个问题的解决方案有机地糅合在一起、正是 AdaBoost 的巧妙之处之一

阅读全文 »

集成模型的性能分析

发表于 2017-04-25 | 分类于 集成学习

正如前文所说,在实现完 AdaBoost 框架后,我们需要先用 sklearn 中的分类器进行检验、然后再用我们前两章实现的模型进行对比实验。检验的步骤就不在这里详述(毕竟只是一些调试的活),我们在此仅展示在随机森林模型和经过检验的 AdaBoost 模型上进行的一系列的分析

直观起见,我们先采用二维的数据进行实验、并通过可视化来加深对随机森林和 AdaBoost 的理解,然后再用蘑菇数据集做比较贴近现实的实验。为讨论方便,我们一律采用决策树作为 AdaBoost 的弱分类器(亦即采用提升树模型进行讨论)、其强度可以通过调整其最深层数来控制。我们可以利用DataUtil类来生成或获取原始数据集,其完整代码可参见这里、生成数据集的代码则会在前三节分别放出

对于二维数据,我们拟打算使用三种数据集来进行评估:

  • 随机数据集。该数据集主要用于直观地感受模型的分类能力
  • 异或数据集。该数据集主要用于直观地理解:
    • 集成模型正则化的能力
    • 为何说 AdaBoost 不要选用分类能力太强的弱分类器
  • 螺旋线数据集,主要用于直观认知随机森林和提升树的不足
阅读全文 »

AdaBoost 算法的解释

发表于 2017-04-26 | 分类于 集成学习

我们前面提到过 Bagging 的数学基础是 Bootstrap 理论、但还没有讲 Boosting 的数学基础。本篇文章拟打算直观地阐述 Boosting 族的代表算法——AdaBoost 算法的解释,由于具体的推导相当繁琐,相关的细节我们会放在相关数学理论里面说明

阅读全文 »
1234…6
射命丸咲

射命丸咲

一个啥都想学的浮莲子

57 日志
7 分类
6 标签
RSS
GitHub 知乎
© 2017 射命丸咲
由 Hexo 强力驱动
主题 - NexT.Muse