最大似然和支持向量复杂度

Posted

技术标签:

【中文标题】最大似然和支持向量复杂度【英文标题】:maximum likelihood and support vector complexity 【发布时间】:2012-10-22 15:37:45 【问题描述】:

谁能提供一些参考资料来说明如何确定最大似然和支持向量机分类器的计算复杂度? 我一直在网上搜索,但似乎没有找到一个好的文档来详细说明如何找到对这些分类器算法的计算复杂度进行建模的方程。 谢谢

【问题讨论】:

【参考方案1】:

支持向量机和一些最大似然拟合是凸最小化问题。因此,理论上它们可以使用http://en.wikipedia.org/wiki/Ellipsoid_method 在多项式时间内求解。

我怀疑如果您考虑方法,您可以获得更好的估计。 http://www.cse.ust.hk/~jamesk/papers/jmlr05.pdf 表示在 m 个实例上拟合的标准 SVM 需要 O(m^3) 时间和 O(m^2) 空间。 http://research.microsoft.com/en-us/um/people/minka/papers/logreg/minka-logreg.pdf 给出了逻辑回归的每次迭代成本,但没有给出估计迭代次数的理论基础。在实践中,我希望这在大多数情况下都能达到二次收敛,并且不会太糟糕。

【讨论】:

以上是关于最大似然和支持向量复杂度的主要内容,如果未能解决你的问题,请参考以下文章

最大似然估计

似然函数 | 最大似然估计 | R代码

机器学习 | 最大熵模型学习的最优化算法

最大似然估计伪代码

机器学习 LR中的参数迭代公式推导——极大似然和梯度下降

最大似然估计