如果您有分类任务,您是不是总是需要 one-hot 编码

Posted

技术标签:

【中文标题】如果您有分类任务,您是不是总是需要 one-hot 编码【英文标题】:Do you always need to one-hot encode if you have classification task如果您有分类任务,您是否总是需要 one-hot 编码 【发布时间】:2021-07-06 21:17:04 【问题描述】:

我是深度学习的新手,遇到了 MNIST 数据集问题。

所以我的问题是,当您有分类任务时,您是否应该在将其输入神经网络之前进行一次热编码?

【问题讨论】:

如果你有分类任务,你是否总是需要 one-hot 编码? 不需要。检查sparse_categorical_crossentropy 【参考方案1】:

不,根据您在编译模型时选择的损失,您有许多选项。如果您对标签进行了热编码,则通常将 model.compile 中的损失设置为 categorical_cross_entropy。但是,您可以将标签编码为整数并使用 sparse_categorical_crossentropy 作为损失函数。

【讨论】:

以上是关于如果您有分类任务,您是不是总是需要 one-hot 编码的主要内容,如果未能解决你的问题,请参考以下文章

数据处理——One-Hot Encoding

使用 PyTorch 的交叉熵损失函数是不是需要 One-Hot Encoding?

数据预处理:独热编码(One-Hot Encoding)

机器学习多分类:为啥使用“one-hot”编码而不是数字

数据预处理:独热编码(One-Hot Encoding)

数据预处理之独热编码(One-Hot Encoding)