PyTorch中的常见优化器

PyTorch提供了许多常见的优化器,用于优化神经网络的参数。这些优化器包括随机梯度下降(Stochastic Gradient Descent, SGD)、Adam、Adagrad、RMSprop等。每个优化器都有自己独特的优点和适用场景。下面将介绍PyTorch中几种常见优化器的实现。

1. 随机梯度下降(Stochastic Gradient Descent, SGD)

随机梯度下降是最基本的优化器之一,用于最小化损失函数。在PyTorch中,可以通过torch.optim.SGD类来实现SGD优化器。首先,需要定义一个优化器对象,并传入要优化的参数和学习率。然后,可以使用optimizer.zero_grad()方法将梯度缓冲区置零,计算损失并调用backward()方法进行反向传播。最后,调用optimizer.step()方法更新参数。以下是SGD优化器的示例代码:

import torch
import torch.optim as optim

# 定义要优化的参数
params = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)

# 定义优化器对象
optimizer = optim.SGD([params], lr=0.01)

# 梯度下降迭代更新参数
for i in range(100):
    optimizer.zero_grad()
    loss = compute_loss()
    loss.backward()
    optimizer.step()

2. Adam

Adam是一种基于梯度的优化器,结合了动量和自适应学习率。在PyTorch中,可以通过torch.optim.Adam类来实现Adam优化器。使用方法与SGD优化器类似,只需将优化器对象改为Adam即可。以下是Adam优化器的示例代码:

import torch
import torch.optim as optim

# 定义要优化的参数
params = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)

# 定义优化器对象
optimizer = optim.Adam([params], lr=0.01)

# Adam迭代更新参数
for i in range(100):
    optimizer.zero_grad()
    loss = compute_loss()
    loss.backward()
    optimizer.step()

3. Adagrad

Adagrad是一种自适应学习率方法,通过适应每个参数的学习率来提高收敛速度。在PyTorch中,可以通过torch.optim.Adagrad类来实现Adagrad优化器。使用方法与SGD优化器类似,只需将优化器对象改为Adagrad即可。以下是Adagrad优化器的示例代码:

import torch
import torch.optim as optim

# 定义要优化的参数
params = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)

# 定义优化器对象
optimizer = optim.Adagrad([params], lr=0.01)

# Adagrad迭代更新参数
for i in range(100):
    optimizer.zero_grad()
    loss = compute_loss()
    loss.backward()
    optimizer.step()