欢迎您访问 广东某某电缆桥架有限公司官方网站

杏宇注册简介 联系我们 网站地图

欢迎来电咨询

13988888888

新闻资讯

全国服务热线

13988888888

技术过硬,据实报价

新闻动态

当前位置: 主页 > 新闻资讯 > 新闻动态

使用 Core API 构建优化器

2024-07-22 08:48 已有 人浏览 佚名

在 TensorFlow.org 上查看 在 Google Colab 中运行 在 GitHub 上查看源代码 下载笔记本

本笔记本介绍使用 TensorFlow Core 低级 API 创建自定义优化器的过程。访问 Core API 概述以详细了解 TensorFlow Core 及其预期用例。

Keras 优化器模块是一种推荐用于许多一般训练用途的优化工具包。它包含各种预构建的优化器,以及用于自定义的子类化功能。Keras 优化器还兼容使用 Core API 构建的自定义层、模型和训练循环。这些预构建和可自定义的优化器适用于大多数用例,但借助 Core API,您将可以完全控制优化过程。例如,锐度感知最小化 (SAM) 等技术需要模型与优化器耦合,这并不符合机器学习优化器的传统定义。本指南将逐步介绍使用 Core API 从头开始构建自定义优化器的过程,使您具备完全控制优化器的结构、实现和行为的能力。

优化器是一种用于针对模型可训练参数最小化损失函数的算法。最直接的优化技术为梯度下降,它会通过朝损失函数的最陡下降方向前进一步来迭代更新模型的参数。它的步长与梯度的大小成正比,当梯度过大或过小时都会出现问题。还有许多其他基于梯度的优化器,例如 Adam、Adagrad 和 RMSprop,它们利用梯度的各种数学属性来提高内存效率和加快收敛速度。


2023-11-07 17:57:29.015869: E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: Attempting to register factory for plugin cuDNN when one has already been registered
2023-11-07 17:57:29.015912: E external/local_xla/xla/stream_executor/cuda/cuda_fft.cc:607] Unable to register cuFFT factory: Attempting to register factory for plugin cuFFT when one has already been registered
2023-11-07 17:57:29.017451: E external/local_xla/xla/stream_executor/cuda/cuda_blas.cc:1515] Unable to register cuBLAS factory: Attempting to register factory for plugin cuBLAS when one has already been registered
2.15.0-rc1

基本优化器类应具有初始化方法以及用于基于一列梯度更新一列变量的函数。我们首先实现基本的梯度下降优化器,通过减去按学习率缩放的梯度来更新每个变量。


要测试此优化器,请创建一个样本损失函数以针对单个变量 \(x\) 进行最小化。计算它的梯度函数并对其最小化参数值求解:

\[L=2x^4 + 3x^3 + 2\]

\[\frac{dL}{dx}=8x^3 + 9x^2\]

\(\frac{dL}{dx}\) 在 \(x=0\) 时为 0,这是一个鞍点;在 \(x=- \frac{9}{8}\) 时为全局最小值。因此,损失函数在 \(x^\star=- \frac{9}{8}\) 时得到优化。


png

编写一个函数来测试具有单个变量损失函数的优化器的收敛性。假设当更新参数在时间步骤 \(t\) 的值与其原先在时间步骤 \(t-1\) 的值相同时,即已实现收敛。在一定数量的迭代后终止测试,并在过程中跟踪任何梯度爆炸情况。为了对优化算法提出真正的挑战,以不良方式初始化参数。在上面的示例中,\(x=2\) 是一个不错的选择,因为它涉及到较陡梯度并且还会导致出现拐点。


针对以下学习率测试梯度下降优化器的收敛性:1e-3、1e-2、1e-1


Gradient descent optimizer: learning rate=0.001
-------------------------------
Exceeded maximum of 2000 iterations. Test terminated.

Gradient descent optimizer: learning rate=0.01
-------------------------------
Exceeded maximum of 2000 iterations. Test terminated.

Gradient descent optimizer: learning rate=0.1
-------------------------------
Gradient exploded at iteration 6

在损失函数的等高线图上呈现参数的路径。


png

当使用较小的学习率时,梯度下降似乎停滞在拐点处。提高学习率即加大步长,因此可以在停滞区域周围加快移动;然而,当损失函数十分陡峭时,这会带来在早期迭代中发生梯度爆炸的风险。

具有动量的梯度下降不仅使用梯度来更新变量,而且还涉及到基于变量先前更新的变量位置变化。动量参数决定了时间步骤 \(t-1\) 的更新对于时间步骤 \(t\) 的更新所含影响的程度。累积动量有助于使变量能够相比基本梯度下降更快地通过停滞区域。动量更新规则如下:

\[\Delta_x^{[t]}=lr \cdot L^\prime(x^{[t-1]}) + p \cdot \Delta_x^{[t-1]}\]

\[x^{[t]}=x^{[t-1]} - \Delta_x^{[t]}\]

其中

  • \(x\):经优化的变量
  • \(\Delta_x\):\(x\) 的变化
  • \(lr\):学习率
  • \(L^\prime(x)\):损失函数相对于 x 的梯度
  • \(p\):动量参数

针对以下学习率测试动量优化器的收敛性:1e-3、1e-2、1e-1


Gradient descent optimizer: learning rate=0.001
-------------------------------
Exceeded maximum of 2000 iterations. Test terminated.

Gradient descent optimizer: learning rate=0.01
-------------------------------
Converged in 80 iterations

Gradient descent optimizer: learning rate=0.1
-------------------------------
Gradient exploded at iteration 6

在损失函数的等高线图上呈现参数的路径。


png

自适应矩估计 (Adam) 算法是一种高效且高度泛化的优化技术,它利用了两种关键的梯度下降算法:动量和均方根传播 (RMSP)。动量会通过使用一阶矩(梯度之和)和衰减参数来帮助加速梯度下降。RMSP 与之类似,差别是会利用二阶矩(梯度平方和)。

Adam 算法将一阶矩与二阶矩相结合,因此可提供泛化能力更高的更新规则。变量 \(x\) 的符号可通过计算 \(\frac{x}{\sqrt{x^2} }\) 来确定。Adam 优化器基于这一事实来计算实际上是平滑符号的更新步骤。优化器并不计算 \(\frac{x}{\sqrt{x^2} }\),而是针对每个变量更新计算 \(x\)(一阶矩)和 \(x^2\)(二阶矩)的平滑版本。

Adam 算法

\(\beta_1 \gets 0.9 ; riangleright ext{literature value}\)

\(\beta_2 \gets 0.999 ; riangleright ext{literature value}\)

\(lr \gets ext{1e-3} ; riangleright ext{configurable learning rate}\)

\(\epsilon \gets ext{1e-7} ; riangleright ext{prevents divide by 0 error}\)

\(V_{dv} \gets \vec {緻set{n imes1}{0} } ; riangleright ext{stores momentum updates for each variable}\)

\(S_{dv} \gets \vec {緻set{n imes1}{0} } ; riangleright ext{stores RMSP updates for each variable}\)

\(t \gets 1\)

\( ext{On iteration } t:\)

\(;;;; ext{For} (\frac{dL}{dv}, v) ext{ in gradient variable pairs}:\)

\(;;;;;;;; V_{dv_i}=\beta_1V_{dv_i} + (1 - \beta_1)\frac{dL}{dv} ; riangleright ext{momentum update}\)

\(;;;;;;;; S_{dv_i}=\beta_2V_{dv_i} + (1 - \beta_2)(\frac{dL}{dv})^2 ; riangleright ext{RMSP update}\)

\(;;;;;;;; v_{dv}^{bc}=\frac{V_{dv_i} }{(1-\beta_1)^t} ; riangleright ext{momentum bias correction}\)

\(;;;;;;;; s_{dv}^{bc}=\frac{S_{dv_i} }{(1-\beta_2)^t} ; riangleright ext{RMSP bias correction}\)

\(;;;;;;;; v=v - lr\frac{v_{dv}^{bc} }{\sqrt{s_{dv}^{bc} } + \epsilon} ; riangleright ext{parameter update}\)

\(;;;;;;;; t=t + 1\)

算法结束

假设 \(V_{dv}\) 和 \(S_{dv}\) 初始化为 0,且 \(\beta_1\) 和 \(\beta_2\) 接近于 1,则动量和 RMSP 更新会自然偏向 0;因此,变量可以受益于偏差校正。偏差校正还有助于控制权重在接近全局最小值时的振荡。


使用与梯度下降示例相同的学习率测试 Adam 优化器的性能。


Adam: learning rate=0.001
-------------------------------
Exceeded maximum of 2000 iterations. Test terminated.

Adam: learning rate=0.01
-------------------------------
Exceeded maximum of 2000 iterations. Test terminated.

Adam: learning rate=0.1
-------------------------------
Converged in 1156 iterations

在损失函数的等高线图上呈现参数的路径。


png

在此特定示例中,当使用较小的学习率时,Adam 优化器与传统梯度下降相比收敛速度较慢。但当学习率较大时,该算法成功地越过了停滞区域并收敛到全局最小值。由于 Adam 在遇到较大梯度时可动态缩放学习率,不再存在梯度爆炸问题。

此笔记本介绍了使用 TensorFlow Core API 编写和比较优化器的基础知识。尽管像 Adam 这样的预构建优化器具备可泛化性,但它们可能并非总是每个模型或数据集的最佳选择。对优化过程进行精细控制有助于简化机器学习训练工作流并提高整体性能。有关自定义优化器的更多示例,请参阅以下文档:

与使用 Core API 构建优化器相关的其他内容

平台注册入口