常用于大规模稀疏机器学习问题上
1.优点:
高效
简单
2.可以选择损失函数
- loss=”hinge”: (soft-margin)线性SVM.
- loss=”modified_huber”: 带平滑的hinge loss.
- loss=”log”: logistic回归
3.通过penalty参数,可以设置对应的惩罚项。SGD支持下面的罚项:
- penalty=”l2”: 对coef_的L2范数罚项
- penalty=”l1”: 对coef_的L1范数罚项
- penalty=”elasticnet”: L2和L1的convex组合; (1 - l1_ratio) * L2 + l1_ratio * L1
详见:http://d0evi1.com/sklearn/sgd/