显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

行走的馒头

Stay Hungry, Stay Foolish

 
 
 
 
 
 

北京市  双鱼座

 发消息  写留言

 
博客等级加载中...
今日访问加载中...
总访问量加载中...
最后登录加载中...
 
 
 
 
 

日志分类

 
 
日志分类列表加载中...
 
 
 
 
 

最新日志

 
 
数据列表加载中...
 
 
 
 
 

标签

 
 
数据加载中...
 
 
 
 
 
 
 
 

十五、Dimensionality Reduction

2012-10-9 0:04:52 阅读2409 评论3 92012/10 Oct9

    高维数据通常有很多冗余的信息,通常可以把高维的数据映射到低维的流形上,注意一维的流形是一条光滑的曲线,二维的流形则是光滑的曲面。这样,在低维的流形上就能够比较清晰的反应数据的特征和数据之间的关系,并且容易让人理解。在supervised learning中,Fisher Linear Discriminative Analysis就是通过类内的variance和类间中心点的距离把高维数据投影到低维空间上去。在unsupervised learning,我们可以通过PCA,Principal Curve,Self-Organizing Maps来实现。其中PCA等是把数据线性地投影到新的子空间中去,Principal Curve等则通过非线性的方式映射。

作者  | 2012-10-9 0:04:52 | 阅读(2409) |评论(3) | 阅读全文>>

十三、Association Rule

2012-10-8 23:05:30 阅读631 评论1 82012/10 Oct8

Association Rule

Definition

    Generally来看,association rule是在的取值空间上找到一些点

作者  | 2012-10-8 23:05:30 | 阅读(631) |评论(1) | 阅读全文>>

十二、Supervised VS Unsupervised

2012-10-8 22:59:49 阅读1222 评论0 82012/10 Oct8

Supervised Learning

    前面各章中介绍的花样百出的supervised模型其实都有共同的特点,可简单描述如下:自变量和因变量都被看作是随机变量,我们要做的事情就是探索条件概率

作者  | 2012-10-8 22:59:49 | 阅读(1222) |评论(0) | 阅读全文>>

十一、Prototype Methods and KNN

2012-9-24 23:59:08 阅读750 评论0 242012/09 Sept24

这里主要讨论一些model free的方法,这些方法就像一个黑盒子一样,很难说清楚这些方法中自变量和因变量之间存在某种特定的关系,但是通常他们非常有效。但是这些方法本身的variance比较大,在特征的维度非常高的时候往往表现较差。

 

Prototype Methods

Prototype Methods可用于分类,其要在特征空间中为每个类找到一些具有代表性的点,注意这些选出的prototype不一定是样本中的点。选出的每个prototype都会label为某一特定的类,对于一个新来的样本点

作者  | 2012-9-24 23:59:08 | 阅读(750) |评论(0) | 阅读全文>>

十、Support Vector Machine

2012-9-13 22:38:31 阅读3682 评论1 132012/09 Sept13

在各色各样的分类器你方唱罢我登场的轮回表演中,SVM的横空出世让这个缤纷的舞台也为之惊艳,群雄仿佛都黯然失色。我们先从support vector classifier谈起。

 

Support Vector Classifier

在二分类时,假设我们的自变量为,因变量为

作者  | 2012-9-13 22:38:31 | 阅读(3682) |评论(1) | 阅读全文>>

查看所有日志>>

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017

注册 登录  
 加关注