课程作业西瓜书 机器学习课后习题 : 第八章
Posted 海轰Pro
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了课程作业西瓜书 机器学习课后习题 : 第八章相关的知识,希望对你有一定的参考价值。
目录
简介
Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
唯有努力💪
本文仅记录自己感兴趣的内容
说明
作业要求:每章从课后习题中选取3道题做就可以了
答案来源:题目的解答过程来自于网络,依据个人所学进行了一些修改、总结
仅供参考
8.1
假设抛硬币正面朝上的概率为p,反面朝上的概率为1一p。令H(n)代表抛次硬币所得正面朝上的次数则最多k次正面朝上的概率为
答:
8.4
GradientBoosting[Friedman,2001]是一种常用的Boosting算法,试析其与AdaBoost的异同.
答:GradientBoosting与AdaBoost相同的地方在于都会生成多个分类器以及每个分类器都有一个对应的权值,最后将所有分类器加权累加起来。
不同在于:AdaBoost通过每个分类器的分类结果改变每个样本的权值用于新的分类器和生成权值,但不改变每个样本。GradientBoosting将每个分类器对样本的预测值与真实值的差值传入下一个分类器来生成新的分类器和权值,而每个样本的权值不变。
8.8
MultiBoosting算法Webb,2000]将AdaBoost作为Bagging的基学习器,Iterative Bagging算法[Breiman,200lb]则是将Bagging作为AdaBoost的基学习器.试比较二者的优缺点.
答:MultiBoosting由于集合了Bagging,Wagging,AdaBoost,可以有效的降低误差和方差,特别是误差,但是训练成本和预测成本都会显著增加。Iterative Bagging相比Bagging会降低误差,但是方差上升。由于Bagging本身就是一种降低方差的算法,所以Iterative Bagging相当于Bagging与单分类器的折中。
结语
文章仅作为个人学习笔记记录,记录从0到1的一个过程
希望对您有一点点帮助,如有错误欢迎小伙伴指正
以上是关于课程作业西瓜书 机器学习课后习题 : 第八章的主要内容,如果未能解决你的问题,请参考以下文章