Python实现随机&批量梯度下降算法

liftword4个月前 (02-05)技术文章60

一.概述

梯度下降属于迭代法的一种,可以用于求解最小二乘问题。在求解机器学习算法的模型参数时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

  • 随机梯度下降:随机选取一条训练数据作为训练样本计算最小化的损失函数和模型参数;
  • 批量梯度下降:应用全部训练数据作为训练样本计算最小化的损失函数和模型参数;
  • Mini-batch:应用小批量的训练数据;这是随机梯度下降和批量梯度下降的中间产物;

二.随机梯度下降算法代码实现

import numpy as np
import math

__author__ = 'aaa'
# 生成测试数据
x = 2 * np.random.rand(100, 1)  # 随机生成100*1的二维数组,值分别在0~2之间
y = 4 + 3 * x + np.random.randn(100, 1)  # 随机生成100*1的二维数组,值分别在4~11之间

x_b = np.c_[np.ones((100, 1)), x]
theta = np.random.randn(2, 1)

n_epochs = 100
t0, t1 = 1, 10
m = n_epochs

def learn_step(t):  # 模拟实现动态修改步长
    return t0 / (t + t1)

for epoch in range(n_epochs):
    for i in range(m):
        random_index = np.random.randint(m) # 生成随机下标,获取随机训练样本数据

        x_i = x_b[random_index:random_index+1]
        y_i = y[random_index:random_index+1]

        gradients = 2 * x_i.T.dot(x_i.dot(theta)-y_i)  # 调用解析解函数
        learning_rate = learn_step(epoch * m + i)
        theta = theta - learning_rate * gradients

print("最终结果:\n{}".format(theta))
# 计算误差
error = math.sqrt(math.pow((theta[0][0] - 4), 2) + math.pow((theta[1][0] - 3), 2))
print("误差:\n{}".format(error))

执行结果:

三.批量梯度下降算法代码实现

import numpy as np
import math

# 定义基础变量
learning_rate = 0.1
n_iterations = 1000
m = 100

x = 2 * np.random.rand(m, 1)  # 生成一组100*1的二维矩阵,该矩阵数据服从0~1均匀分布,下同
y = 4 + 3 * x + np.random.randn(m, 1)  # 正态分布
x_b = np.c_[np.ones((m, 1)), x]  # np.((100, 1)):表示生成100行1列的矩阵,内部填充为1

# 设置阈值
threshold = 0.2
# 初始化theta
theta = np.random.randn(2, 1)
count = 0
before_value = 1

# 设置阈值、超参数和迭代次数;迭代完次数或者满足阈值,就认为收敛
for iteration in range(n_iterations):
    count += 1
    # 求梯度gradient
    gradients = 1/m * x_b.T.dot(x_b.dot(theta)-y)  # 求平均梯度
    # 应用公式调整theta值
    theta = theta - learning_rate * gradients
    # 判断是否满足阈值
    mid = math.sqrt(math.pow((theta[0][0] - 4), 2) + math.pow((theta[1][0] - 3), 2))
    # 满足阈值,结束循环
    err = math.fabs(mid - before_value)
    if threshold >= mid: # 前后两次的计算结果差值极小时,可认为已经接近收敛
    	break
		else:
    	if err < 0.01:
            print('多次迭代仍不能满足阈值,请修改阈值或完善程序!')
            break

    before_value = mid # 暂时保存上一次的中间结果,用于计算差值
print('结果:\n x is : {}\n y is : {}\n 误差 : {}'.format(theta[0][0], theta[1][0], before_value))

执行结果:

四.总结

不管是随机梯度还是批量梯度,它们的区别在于每次迭代计算应用的数据多少;随机一条优点是计算快,但是容易造成抖动,且有很大的随机性【管中窥豹,可见一斑】;批量全部优点是计算准确,可以稳步下降,但每次迭代计算时间长,资源消耗大;中庸之道在算法领域也是一个很重要的思想,Mini-batch就是其中的产物,每次计算取一小批数据进行迭代计算,即减低了异常数据带来的抖动,也降低了每次迭代计算的数据计算量;对于一般的应用场景,Mini-batch会是一个比较好的选择!

相关文章

Python随机模块22个函数详解_python 随机ua

随机数可以用于数学,游戏,安全等领域中,还经常被嵌入到算法中,用以提高算法效率,并提高程序的安全性。平时数据分析各种分布的数据构造也会用到。random模块,用于生成伪随机数,之所以称之为伪随机数,是...

Python生成随机数_python生成随机数并判断奇偶

生成一个Python随机数 6 分钟阅读Python有一个内置的随机模块来实现此目的。它公开了几个方法,如randrange(),randint(),random(),seed(),uniform()...

python中随机模块random的用法_pythonrandom随机数的用法

Python 有一个可用于制作随机数的内建模块。现在总结归纳一下,方便大家查询学习random 模块有一组如下的方法:序号方法描述1seed()初始化随机数生成器。2getstate()返回随机数生成...

Python随机抽查部分学生,手把手教你学会random

疫情期间的网课上你有被熊孩子气到炸吗网线的两端,是不是这样巧合呢复课后的课堂上你有被熊孩子气到疯吗等下,跑题了,下面言归正传关键知识点:random库、判断、循环、列表、异常处理、文件的读取等。开发环...

你还在使用 Python random 模块生成随机密码

Python Random 模块提供了一种生成伪随机数的便捷方法,可以用于实现计算机游戏、幸运抽奖系统等。由于它提供了各种随机功能生成结果,因此开发人员试图使用此功能来生成出于安全目的的随机密码或身份...

双色球-使用Python实现双色球选号器随机选号功能

很多彩民经常去彩票店购买彩票,多数时候是机选号码(中不中奖完全看运气!),那么选号机器是怎么随机选中球色和球号呢?今天来和大家分享一个使用python编程软件来实现该功能的小程序。(源码放在文章结尾)...