多元线性回归 - R 中的梯度下降

Posted

技术标签:

【中文标题】多元线性回归 - R 中的梯度下降【英文标题】:Multivariate Linear Regression - Gradient Descent in R 【发布时间】:2017-01-02 08:55:45 【问题描述】:

我正在学习机器学习。所以我用我在网上找到的数据做了一些简单的练习。现在我尝试在 R 中通过梯度下降来实现线性回归。当我运行它时,我意识到它不会收敛并且我的成本会无限高。虽然我怀疑它在我计算梯度的部分的某个地方,但我无法找到问题所在。所以让我们开始展示我的数据。

数据集:dataset_multipleRegression.csv

我的数据集包含 4 列:ROLL ~ UNEM, HGRAD, INC 所以,目标是找到ROLL 和其他人之间的关系。

让我展示我的代码

datavar <- read.csv("dataset.csv")
attach(datavar)

X <- cbind(rep(1, 29), UNEM,HGRAD,INC)
y <- ROLL

# function where I calculate my prediction
h <- function(X, theta)
  return(t(theta) %*% X)


# function where I calculate the cost with current values
cost <- function(X, y, theta)
  result <- sum((X %*% theta - y)^2 ) / (2*length(y))

  return(result)



# here I calculate the gradient, 
#mathematically speaking I calculate derivetive of cost function at given points
gradient <- function(X, y, theta)
  m <- nrow(X)
  sum <- c(0,0,0,0)

  for (i in 1 : m) 
    sum <- sum + (h(X[i,], theta) - y[i]) * X[i,]
  
  return(sum)



# The main algorithm 
gradientDescent <- function(X, y, maxit)
  alpha <- 0.005
  m <- nrow(X)
  theta <- c(0,0,0,0)

  cost_history <- rep(0,maxit)

  for (i in 1 : maxit) 
    theta <- theta - alpha*(1/m)*gradient(X, y, theta)

    cost_history[i] <- cost(X, y, theta)
  

  plot(1:maxit, cost_history, type = 'l')

  return(theta)

我这样运行代码

 gradientDescent(X, y, 20)

这是我得到的输出:

-7.001406e+118  -5.427330e+119  -1.192040e+123  -1.956518e+122

那么,你能找出我错在哪里吗?我已经尝试了不同的 alpha 值,但没有任何区别。顺便说一句,我感谢您提供的任何提示或良好做法,

谢谢

【问题讨论】:

【参考方案1】:

嗯,我想我终于找到了答案。问题是我没有应用任何特征缩放。虽然我认为这是平稳运行算法的可选程序。现在它按预期工作。您可以尝试使用 R 的 scale() 函数运行带有缩放数据集的代码。

【讨论】:

以上是关于多元线性回归 - R 中的梯度下降的主要内容,如果未能解决你的问题,请参考以下文章

梯度下降法求解多元线性回归

多元线性回归_梯度下降法实现Python机器学习系列

如何在tensorflow中实现多元线性随机梯度下降算法?

线性回归之梯度下降算法

梯度下降法

线性回归和梯度下降代码demo