One-hot 编码/TF-IDF 值来提取特征,LAD/梯度下降法(Gradient Descent),Sigmoid

Posted 大树的Blog

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了One-hot 编码/TF-IDF 值来提取特征,LAD/梯度下降法(Gradient Descent),Sigmoid相关的知识,希望对你有一定的参考价值。

1. 多值无序类数据的特征提取: 多值无序类问题(One-hot 编码)把“耐克”编码为[0,1,0],其中“1”代表了“耐克”的中 间位置,而且是唯一标识。同理我们可以把“中国”标识为[1,0],把“蓝色”标识为[0,1]。 然后把所有的数据编码拼接起来,[“耐克”,“中国”,“蓝色”]的最终编码结果就变为了 [0,1,0,1,0,0,1],这一组数据虽然很稀疏,但是可以带到算法中进行计算

无序类数据的特征提取:One-hot 编码解决多值无序类数据的特征提取问题.

2.文本提取特征:   由多个文本组成的集合,还可以根据TF-IDF 值来提取特征,LAD

3.图像或者语音提取特征:   将图像或者语音转化成矩阵结构:像素点切割的话,每个像素点可以表示成一个数值.

4.梯度下降法(Gradient Descent),是利用一阶梯度信息找到函数局部最优解的一种方 法,是机器学习算法中常用的一种最优化解法.梯度下降法的思路很简单,就是每一步都 向最终的结果前进一点,通过迭代的方式计算直到收敛,得到最优

5.Sigmoid 函数限制在[0,1]的区间中,

线性支持向量机主要: 通过一条线可以进行分类的场

以上是关于One-hot 编码/TF-IDF 值来提取特征,LAD/梯度下降法(Gradient Descent),Sigmoid的主要内容,如果未能解决你的问题,请参考以下文章

文本特征提取专题_以python为工具Python机器学习系列

Sklearn机器学习基础(day01基本数据处理)

特征工程

文本向量化(理论篇)

连续型特征的归一化和离散特征的one-hot编码

为啥要用one-hot编码