集成模型和平均模型有啥区别?

Posted

技术标签:

【中文标题】集成模型和平均模型有啥区别?【英文标题】:What is the difference between ensembling and averaging models?集成模型和平均模型有什么区别? 【发布时间】:2018-02-14 21:53:35 【问题描述】:

在机器翻译中,序列到序列模型变得非常流行。他们经常使用一些技巧来提高性能,例如集成或平均一组模型。这里的逻辑是错误将“平均”。

据我了解,平均模型只是取 X 个模型的参数的平均值,然后创建一个可用于解码测试数据的单一模型。 Ensembling,但是平均每个模型的输出。这需要更多的资源,因为 X 模型必须提供输出,而平均模型仅在测试数据上运行一次。

这里到底有什么区别?输出有何不同?在我的测试中,这两种方法都比基线分数略有提高。这让你想知道如果人们也可以平均的话,为什么还要为合奏而烦恼。然而,在我遇到的所有神经机器翻译论文中,人们谈论的是集成而不是平均。为什么是这样?有没有关于平均的论文(特别是 seq2seq 和机器翻译相关的论文)?

非常感谢任何帮助!

【问题讨论】:

【参考方案1】:

Ensembling 是一个更笼统的术语。 Baggingboosting 是集成方法的示例。

例如,随机森林不只是平均决策树,它使用bagging - 首先随机采样数据和特征,然后在此基础上训练树(使用所有数据/特征没有多大意义,因为树会真的很像)。

【讨论】:

以上是关于集成模型和平均模型有啥区别?的主要内容,如果未能解决你的问题,请参考以下文章

深度学习应用技巧4-模型融合:投票法加权平均法集成模型法

集成模型

单元测试和集成测试有啥区别? [复制]

ARIMA/Sarima与LSTM的时间序列数据集成学习(附链接)

基于集成回声状态网络模型在兰州市艾滋病发病例数预测中的应用

在建筑工程中BIM模型有啥作用?