笔记摘要
- 在PAC(概率近似正确(PAC, Probably approximately correct))学习框架下,一个概念是强可学习的充分必要条件是这个概念是弱可学习的。
- 提升方法的两个问题
- 在每一轮如何改变训练数据的权值或概率分布
- 如何将弱分类器组合成一个强分类器
- Adaboost的解决方案:
- 提高那些被前一轮弱分类器错误分类样本的权值,降低那些被正确分类的样本的权值
- 加权多数表决的方法,加大分类误差率小的弱分类器的权值,减小分类误差率大的弱分类器的权值
条件概率分布\(P(X=x|Y=c_k)\)有指数级数量的参数,其实际估计是不可行的
指数级数量的参数 \(K\prod_{j=1}^nS_j\),实际估计不可行是实际上没有那么多样本
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法