深度学习中的优化算法之MBGD

Posted fengbingchun

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习中的优化算法之MBGD相关的知识,希望对你有一定的参考价值。

      之前在https://blog.csdn.net/fengbingchun/article/details/75351323 介绍过梯度下降,常见的梯度下降有三种形式:BGD、SGD、MBGD,它们的不同之处在于我们使用多少数据来计算目标函数的梯度

      大多数深度学习算法都涉及某种形式的优化。优化指的是改变x以最小化或最大化某个函数f(x)的任务。我们通常以最小化f(x)指代大多数最优化问题。我们把要最小化或最大化的函数称为目标函数(objective function)或准则(criterion)。当我们对其进行最小化时,我们也把它称为成本函数(cost function)、损失函数(loss function)或误差函数(error function)。

      梯度下降是深度学习中一种常用的优化技术。梯度是函数的斜率。它衡量一个变量响应另一个变量的变化而变化的程度。在数学上,梯度下降是一个凸函数,其输出是输入的一组参数的偏导数。梯度越大,坡度越陡(the greater the gradient, the steeper the slope)。从初始值开始,迭代运行梯度下降以找到参数的最佳值,以找到给定成本函数的最小可能值。

      梯度下降是一种优化算法,通常用于寻找深度学习算法中的权值及系数(weights or coefficients),如逻辑回归。它的工作原理是让模型对训练数据进行预测,并使用预测中的error来更新模型从而减少error(It works by having the model make predictions on training data and using the error on the predictions to update the model in such a way as to reduce the error)。

      该算法的目标是找到使模型在训练数据集上的误差最小化的模型参数(e.g. coefficients or weights)。它通过对模型进行更改,使其沿着误差的梯度或斜率向下移动到最小误差值来实现这一点。这使该算法获得了"梯度下降"的名称。

      梯度下降是深度学习中非常流行的优化算法。它的目标是搜索目标函数或成本函数(objective function or cost function)的全局最小值。这只有在目标函数是凸函数时才有可能,这间接意味着该函数将是碗形的。在非凸函数的情况下,梯度下降会找到最近的最小值,这个函数的最小值称为局部最小值。

      梯度下降是一种一阶优化算法。这意味着在更新参数时它只考虑函数的一阶导数。我们的主要目标是在每次迭代中使梯度沿最陡斜率的方向行进,我们在与目标函数的梯度相反的方向上更新参数。

      图解说明:假设只有weight没有bias。如果weight(w)的特定值的斜率>0,则表示我们在最优w*的右侧,在这种情况下,更新将是负数,并且w将开始接近最优w*。但是,如果weight(w)的特定值的斜率<0,则更新将为正值,并将当前值增加到w以收敛到w*的最佳值。以下截图来自于https://www.machinelearningman.com:重复该方法,直到成本函数收敛。

      在https://blog.csdn.net/fengbingchun/article/details/79370310中有梯度下降应用于二分类的公式推导。

      MBGD(Mini-Batch Gradient Descent, MBGD):小批量梯度下降,它将训练数据集分成小批量用于计算模型误差和更新模型参数。小批量梯度下降寻求在随机梯度下降的鲁棒性和批量梯度下降的效率之间找到平衡。它是深度学习领域中最常见的梯度下降实现。

      梯度下降是一种最小化目标函数的方法:θ为模型的参数,J(θ)为目标函数,以下截图来自:https://arxiv.org/pdf/1609.04747.pdf

     

       有时提到SGD的时候,其实指的是MBGD

      小批量的大小通常由以下几个因素决定:

      (1).更大的批量会计算更精确的梯度估计,但是回报却是小于线性的。

      (2).极小批量通常难以充分利用多核架构。这促使我们使用一些绝对最小批量,低于这个值的小批量处理不会减少计算时间。

      (3).如果批量处理中的所有样本可以并行地处理(通常确是如此),那么内存消耗和批量大小会正比。对于很多硬件设施,这是批量大小的限制因素。

      (4).在某些硬件上使用特定大小的数组时,运行时间会更少。尤其是在使用GPU时,通常使用2的幂数作为批量大小可以获得更少的运行时间。一般,2的幂数的取值范围是32到256,16有时>在尝试大模型时使用。

      (5).可能是由于小批量在学习过程中加入了噪声,它们会有一些正则化效果。泛化误差通常在批量大小为1时最好。因为梯度估计的高方差,小批量训练需要较小的学习率以保持稳定性。因

      为降低的学习率和消耗更多步骤来遍历整个训练集都会产生更多的步骤,所以会导致总的运行时间非常大。

      小批量是随机抽取的这点也很重要。从一组样本中计算出梯度期望的无偏估计要求这些样本是独立的。我们也希望两个连续的梯度估计是互相独立的,因此两个连续的小批量样本也应该是>彼此独立的。很多现实的数据集自然排列,从而使得连续的样本之间具有高度相关性。实践中通常将样本顺序打乱一次,然后按照这个顺序存储起来就足够了。之后训练模型时会用到的一>组组小批量连续样本是固定的,每个独立的模型每次遍历训练数据时都会重复使用这个顺序。

      优点:

      (1).模型更新频率高于批量梯度下降,这允许更稳健的收敛,避免局部极小值。

      (2).批量更新提供了比随机梯度下降计算上更有效的过程。

      (3).批量处理既可以提高内存中没有所有训练数据的效率,也可以实现算法。

      缺点:

      (1).小批量需要为学习算法配置一个额外的"mini-batch size"超参数。

      (2).错误信息(error information)必须在像批量梯度下降这样的小批量训练样本中累积。

      一般"batch size"为32、64、128、256等的2的幂。"batch size"是学习过程中的一个滑块(slider)。较小的值会提供一个快速收敛的学习过程,但会以训练过程中的噪声为代价。较大的值会给出一个缓慢收敛的学习过程并准确估计误差梯度。

      以上内容主要参考:

      1. https://arxiv.org/pdf/1609.04747.pdf 

      2. https://machinelearningmastery.com/

      3. https://www.machinelearningman.com

      以下的测试代码以https://blog.csdn.net/fengbingchun/article/details/79346691中逻辑回归实现的基础上进行调整:

      logistic_regression2.hpp:

#ifndef FBC_SRC_NN_LOGISTIC_REGRESSION2_HPP_
#define FBC_SRC_NN_LOGISTIC_REGRESSION2_HPP_

#include <cstdlib>
#include <ctime>
#include <vector>
#include <string>
#include <memory>

namespace ANN 

enum class ActivationFunction 
	Sigmoid // logistic sigmoid function
;

enum class LossFunction 
	MSE // Mean Square Error
;

enum class Optimization 
	BGD, // Batch Gradient Descent
	SGD, // Stochastic Gradient Descent
	MBGD // Mini-batch Gradient Descent
;

struct Database 
	Database() = default;
	std::vector<std::vector<float>> samples; // training set
	std::vector<int> labels; // ground truth labels
;

class LogisticRegression2  // two categories
public:
	LogisticRegression2(Optimization optim = Optimization::BGD, int batch_size = 1) : optim_(optim), batch_size_(batch_size) 
	int init(std::unique_ptr<Database> data, int feature_length, float learning_rate = 0.00001, int epochs = 1000);
	int train(const std::string& model);
	int load_model(const std::string& model);
	float predict(const float* data, int feature_length) const; // y = 1/(1+exp(-(wx+b)))
	void set_error(float error)  error_ = error; 

private:
	int store_model(const std::string& model) const;
	float calculate_z(const std::vector<float>& feature) const;  // z(i)=w^T*x(i)+b
	float calculate_cost_function() const;
	static int generate_random(int i)  return std::rand()%i; 

	float calculate_activation_function(float value) const;
	float calculate_loss_function() const;
	float calculate_loss_function_derivative() const;
	float calculate_loss_function_derivative(float predictive_value, float true_value) const;
	void calculate_gradient_descent(int start = 0, int end = 0);

	std::unique_ptr<Database> data_; // train data(images, labels)
	std::vector<int> random_shuffle_; // shuffle the training data at every epoch
	std::vector<float> o_; // predict value
	int epochs_ = 100; // epochs
	int m_ = 0; // train samples num
	int feature_length_ = 0; // weights length
	float alpha_ = 0.00001; // learning rate
	std::vector<float> w_; // weights
	float b_ = 0.; // threshold
	float error_ = 0.00001;
	int batch_size_ = 1;

	ActivationFunction activation_func_ = ActivationFunction::Sigmoid;
	LossFunction loss_func_ = LossFunction::MSE;
	Optimization optim_ = Optimization::BGD;
; // class LogisticRegression2

 // namespace ANN

#endif // FBC_SRC_NN_LOGISTIC_REGRESSION2_HPP_

      logistic_regression2.cpp:

#include "logistic_regression2.hpp"
#include <fstream>
#include <algorithm>
#include <random>
#include <cmath>
#include "common.hpp"

namespace ANN 

int LogisticRegression2::init(std::unique_ptr<Database> data, int feature_length, float learning_rate, int epochs)

	CHECK(data->samples.size() == data->labels.size());
	m_ = data->samples.size();
	if (m_ < 2) 
		fprintf(stderr, "logistic regression train samples num is too little: %d\\n", m_);
		return -1;
	
	if (learning_rate <= 0) 
		fprintf(stderr, "learning rate must be greater 0: %f\\n", learning_rate);
		return -1;
	
	if (epochs < 1) 
		fprintf(stderr, "number of epochs cannot be zero or a negative number: %d\\n", epochs);
		return -1;
	

	alpha_ = learning_rate;
	epochs_ = epochs;
	feature_length_ = feature_length;
	data_ = std::move(data);
	o_.resize(m_);
	return 0;


int LogisticRegression2::train(const std::string& model)

	w_.resize(feature_length_, 0.);
	generator_real_random_number(w_.data(), feature_length_, -0.01f, 0.01f, true);
	generator_real_random_number(&b_, 1, -0.01f, 0.01f);

	if (optim_ == Optimization::BGD) 
		for (int iter = 0; iter < epochs_; ++iter) 
			calculate_gradient_descent();
			auto cost_value = calculate_cost_function();
			fprintf(stdout, "epochs: %d, cost function: %f\\n", iter, cost_value);
			if (cost_value < error_) break;
		
	 else 
		random_shuffle_.resize(data_->samples.size(), 0);
		for (int i = 0; i < data_->samples.size(); ++i)
			random_shuffle_[i] = i;

		float cost_value = 0.;
		for (int iter = 0; iter < epochs_; ++iter) 
			std::srand(unsigned(std::time(0)));
			std::random_shuffle(random_shuffle_.begin(), random_shuffle_.end(), generate_random);

			int loop = (m_ + batch_size_ - 1) / batch_size_;
			for (int i = 0; i < loop; ++i) 
				int start = i * batch_size_;
				int end = start + batch_size_ > m_ ? m_ : start + batch_size_;
				calculate_gradient_descent(start, end);

				for (int i = 0; i < m_; ++i)
					o_[i] = calculate_activation_function(calculate_z(data_->samples[i]));

				cost_value = calculate_cost_function();
				fprintf(stdout, "epochs: %d, loop: %d, cost function: %f\\n", iter, i, cost_value);
				if (cost_value < error_) break;
			
			if (cost_value < error_) break;
		
	

	CHECK(store_model(model) == 0);
	return 0;


int LogisticRegression2::load_model(const std::string& model)

	std::ifstream file;
	file.open(model.c_str(), std::ios::binary);
	if (!file.is_open()) 
		fprintf(stderr, "open file fail: %s\\n", model.c_str());
		return -1;
	

	int length 0 ;
	file.read((char*)&length, sizeof(length));
	w_.resize(length);
	feature_length_ = length;
	file.read((char*)w_.data(), sizeof(float)*w_.size());
	file.read((char*)&b_, sizeof(float));

	file.close();
	return 0;


float LogisticRegression2::predict(const float* data, int feature_length) const

	CHECK(feature_length == feature_length_);

	float value0.;
	for (int t = 0; t < feature_length_; ++t) 
		value += data[t] * w_[t];
	
	value += b_;

	return (calculate_activation_function(value));


int LogisticRegression2::store_model(const std::string& model) const

	std::ofstream file;
	file.open(model.c_str(), std::ios::binary);
	if (!file.is_open()) 
		fprintf(stderr, "open file fail: %s\\n", model.c_str());
		return -1;
	

	int length = w_.size();
	file.write((char*)&length, sizeof(length));
	file.write((char*)w_.data(), sizeof(float) * w_.size());
	file.write((char*)&b_, sizeof(float));

	file.close();
	return 0;


float LogisticRegression2::calculate_z(const std::vector<float>& feature) const

	float z0.;
	for (int i = 0; i < feature_length_; ++i) 
		z += w_[i] * feature[i];
	
	z += b_;

	return z;


float LogisticRegression2::calculate_cost_function() const

	/*// J+=-1/m([y(i)*loga(i)+(1-y(i))*log(1-a(i))])
	// Note: log0 is not defined
	float J0.;
	for (int i = 0; i < m_; ++i)
		J += -(data_->labels[i] * std::log(o_[i]) + (1 - labels[i]) * std::log(1 - o_[i]) );
	return J/m_;*/

	float J0.;
	for (int i = 0; i < m_; ++i)
		J += 1./2*std::pow(data_->labels[i] - o_[i], 2);
	return J/m_;


float LogisticRegression2::calculate_activation_function(float value) const

	switch (activation_func_) 
		case ActivationFunction::Sigmoid:
		default: // Sigmoid
			return (1. / (1. + std::exp(-value))); // y = 1/(1+exp(-value))
	


float LogisticRegression2::calculate_loss_function() const

	switch (loss_func_) 
		case LossFunction::MSE:
		default: // MSE
			float value = 0.;
			for (int i = 0; i < m_; ++i) 
				value += 1/2.*std::pow(data_->labels[i] - o_[i], 2);
			
			return value/m_;
	


float LogisticRegression2::calculate_loss_function_derivative() const

	switch (loss_func_) 
		case LossFunction::MSE:
		default: // MSE
			float value = 0.;
			for (int i = 0; i < m_; ++i) 
				value += o_[i] - data_->labels[i];
			
			return value/m_;
	


float LogisticRegression2::calculate_loss_function_derivative(float predictive_value, float true_value) const

	switch (loss_func_) 
		case LossFunction::MSE:
		default: // MSE
			return (predictive_value - true_value);
	


void LogisticRegression2::calculate_gradient_descent(int start, int end)

	float db = 0.;
	std::vector<float> dw(feature_length_, 0.);

	switch (optim_) 
		case Optimization::SGD:
		case Optimization::MBGD: 
			int len = end - start;
			std::vector<float> z(len, 0), dz(len, 0);
			for (int i = start, x = 0; i < end; ++i, ++x) 
				z[x] = calculate_z(data_->samples[random_shuffle_[i]]);
				dz[x] = calculate_loss_function_derivative(calculate_activation_function(z[x]), data_->labels[random_shuffle_[i]]);

				for (int j = 0; j < feature_length_; ++j) 
					dw[j] += data_->samples[random_shuffle_[i]][j] * dz[x]; // dw(i)+=x(i)(j)*dz(i)
				
				db += dz[x]; // db+=dz(i)
			

			for (int j = 0; j < feature_length_; ++j) 
				dw[j] /= len;
				w_[j] -= alpha_ * dw[j];
			

			b_ -= alpha_*(db/len);
		
			break;
		case Optimization::BGD:
		default: // BGD
			std::vector<float> z(m_, 0), dz(m_, 0);
			for (int i = 0; i < m_; ++i) 
				z[i] = calculate_z(data_->samples[i]);
				o_[i] = calculate_activation_function(z[i]);
				dz[i] = calculate_loss_function_derivative(o_[i], data_->labels[i]);

				for (int j = 0; j < feature_length_; ++j) 
					dw[j] += data_->samples[i][j] * dz[i]; // dw(i)+=x(i)(j)*dz(i)
				
				db += dz[i]; // db+=dz(i)
			

			for (int j = 0; j < feature_length_; ++j) 
				dw[j] /= m_;
				w_[j] -= alpha_ * dw[j];
			

			b_ -= alpha_*(db/m_);
	


 // namespace ANN

      test_logistic_regression2_gradient_descent:以MNIST为数据集,取0和1,在训练时取训练集各5000张,预测时取测试集各900张

int test_logistic_regression2_gradient_descent()

	fprintf(stdout,"Warning: first generate test images: execute demo/DatasetToImage/DatasetToImage: MNISTtoImage\\n");

	fprintf(stdout, "load train images ...\\n");
#ifdef _MSC_VER
	const std::vector<std::string> image_path "E:/GitCode/NN_Test/data/tmp/MNIST/train_images/", "E:/GitCode/NN_Test/data/tmp/MNIST/test_images/";
	const std::string model "E:/GitCode/NN_Test/data/logistic_regression2.model" ;
#else
	const std::vector<std::string> image_path "data/tmp/MNIST/train_images/", "data/tmp/MNIST/test_images/";
	const std::string model "data/logistic_regression2.model" ;
#endif
	const int image_size = 28*28;
	const int samples_single_class_num = 5000;
	auto data1 = std::make_unique<ANN::Database>();
	data1->samples.resize(samples_single_class_num*2);
	data1->labels.resize(samples_single_class_num*2);
	if (read_images(image_path[0], samples_single_class_num, image_size, data1) == -1) return -1;

	fprintf(stdout, "start train ...\\n");
	auto start = std::chrono::steady_clock::now();
	//ANN::LogisticRegression2 lr(ANN::Optimization::BGD, samples_single_class_num * 2); // Batch Gradient Descent, epochs = 10000, correct rete: 0.997778
	//ANN::LogisticRegression2 lr(ANN::Optimization::SGD, 1); // Stochastic Gradient Descent,  epochs = 5, correct rete: 0.998889
	ANN::LogisticRegression2 lr(ANN::Optimization::MBGD, 128); // Mini-batch Gradient Descent,  epochs = 100, correct rete: 0.997778
	lr.set_error(0.0002);
	int ret = lr.init(std::move(data1), image_size, 0.00001, 5);
	if (ret != 0) 
		fprintf(stderr, "logistic regression init fail: %d\\n", ret);
		return -1;
	

	ret = lr.train(model);
	if (ret != 0) 
		fprintf(stderr, "logistic regression train fail: %d\\n", ret);
		return -1;
	
	auto end = std::chrono::steady_clock::now();
	fprintf(stdout, "train elapsed time: %d seconds\\n", std::chrono::duration_cast<std::chrono::seconds>(end - start).count());

	fprintf(stdout, "start predict ...\\n");
	const int test_single_class_num = 900;
	const std::vector<std::string> prefix_name "0_", "1_";
	ANN::LogisticRegression2 lr2;
	lr2.load_model(model);
	int count = 0;

	for (int i = 1; i <= test_single_class_num; ++i) 
		for (const auto& prefix : prefix_name) 
			std::string name = std::to_string(i);
			if (i < 10) 
				name = "0000" + name;
			 else if (i < 100) 
				name = "000" + name;
			 else if (i < 1000) 
				name = "00" + name;
			
			name = image_path[1] + prefix + name + ".jpg";

			cv::Mat mat = cv::imread(name, 0);
			if (mat.empty()) 
				fprintf(stderr, "read image fail: %s\\n", name.c_str());
				return -1;
			
			if (mat.cols * mat.rows != image_size || mat.channels() != 1) 
				fprintf(stderr, "image size fail: width: %d, height: %d, channels: %d\\n", mat.cols, mat.rows, mat.channels());
				return -1;
			

			mat.convertTo(mat, CV_32F);
			float probability = lr2.predict((float*)mat.data, image_size);
			int label = prefix == "0_" ? 0 : 1;
			if ((probability > 0.5 &&  label == 1) || (probability < 0.5 && label == 0)) ++count;
		
	

	float correct_rate = count / (test_single_class_num * 2.);
	fprintf(stdout, "correct rate: %f\\n", correct_rate);
	return 0;

       执行结果如下:训练时,MBGD成本函数error值并不向BGD一样逐渐减少,偶尔会波动,但是总体上还是逐渐减少;设置相同的error,MBGD比SGD训练时间少好多;预测准确率为99.83%

      GitHub: https://github.com/fengbingchun/NN_Test

以上是关于深度学习中的优化算法之MBGD的主要内容,如果未能解决你的问题,请参考以下文章

深度学习中的优化算法之带Momentum的SGD

深度学习中的优化算法之SGD

优化算法比较的实验结果比较(BGD,SGD,MBGD,Momentum,Nesterov,Adagrad,RMSprop)

深度学习笔记:SGDMomentumRMSpropAdam优化算法解析

深度学习笔记:SGDMomentumRMSpropAdam优化算法解析

深度学习中的优化算法之Adadelta