迁移学习

迁移学习的原理和方法

预训练模型(Pre-trained Model):预训练模型是指在大数据集上预先训练好的模型。这些模型通常用于图像识别、自然语言处理等任务,并且已经在诸如ImageNet、Wikipedia等大数据集上进行了训练,学习到了丰富的特征表示。

微调(Fine-tuning):微调是指在预训练模型的基础上,针对特定的任务或数据集进行进一步的训练。在这个过程中,通常会使用较小的学习率,并且只训练模型的一部分层,而冻结其它层。这样做的目的是保留预训练模型学到的通用特征,同时让模型适应新的任务或数据集。也可以不冻结前面的层,对前面的层的参数也进行微调。

在源数据集(如ImageNet数据集)上预训练的神经网络模型,即源模型。

创建一个新的神经网络模型,即目标模型。这将复制源模型上的所有模型设计及其参数(输出层除外)。我们假定这些模型参数包含从源数据集中学习到的知识,这些知识也将适用于目标数据集。我们还假设源模型的输出层与源数据集的标签密切相关,因此不在目标模型中使用该层。

向目标模型中添加输出层,其输出数是目标数据集中的类别数。然后随机初始化该层的模型参数。

在目标数据集上训练目标模型。输出层将从头开始训练,而所有其他层的参数将根据源模型的参数进行微调。

微调

迁移学习的实例

比如:在使用ImageNet数据集预训练的ResNet-18上,训练目标数据集使用hotdog数据集,对模型进行微调:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import torchvision
from torchvision import transforms, datasets

train_transform = transforms.Compose([
transforms.RandomResizedCrop(224, scale=(0.08, 1), ratio=(3/4, 4/3)),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
test_transform = transforms.Compose([
transforms.Resize((256, 256)),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
train_data = datasets.ImageFolder('./hotdog/train', transform=train_transform)
test_data = datasets.ImageFolder('./hotdog/test', transform=test_transform)

train_dataloader = DataLoader(train_data, batch_size=128, shuffle=True, num_workers=4)
test_dataloader = DataLoader(test_data, batch_size=128, shuffle=False, num_workers=4)

# 设置模型,将原本的输出层换成新的
model = torchvision.models.resnet18(pretrained=True)
param_lx = [param for name, param in model.named_parameters() if param not in ['fc.weight', 'fc.bias']]
model.fc = nn.Linear(model.fc.in_features, out_features=2)
nn.init.kaiming_normal_(model.fc.weight)

device = torch.device('cuda:0')


optimizer = optim.SGD(model.parameters(), lr=0.001)
loss = nn.CrossEntropyLoss()

# 如果有多个GPU,使用数据并行的方式加速训练
if torch.cuda.device_count() > 1:
model = torch.nn.DataParallel(model)

train(model, train_dataloader, test_dataloader, num_epochs=10, device=device, optimizer=optimizer, loss=loss)

结果:

不使用预训练模型:

1
2
3
4
5
6
7
8
9
10
model_not = torchvision.models.resnet18(pretrained=False)
model_not.fc = nn.Linear(model_not.fc.in_features, out_features=2)
nn.init.kaiming_normal_(model_not.fc.weight)
optimizer_not = optim.SGD(model_not.parameters(), lr=0.001)
device = torch.device('cuda:0')
loss = nn.CrossEntropyLoss()
if torch.cuda.device_count() > 1:
model_not = torch.nn.DataParallel(model_not)

train(model_not, train_dataloader, test_dataloader, num_epochs=10, device=device, optimizer=optimizer_not, loss=loss)

结果:

冻结前面所有的层:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
model_last = torchvision.models.resnet18(pretrained=False)
model_last.fc = nn.Linear(model_last.fc.in_features, out_features=2)
nn.init.kaiming_normal_(model_last.fc.weight)

# 冻结除最后一层以外的所有层
for name, param in model_last.named_parameters():
if 'fc' not in name:
param.requires_grad = False

optimizer_last = optim.SGD(model_last.parameters(), lr=0.001)
if torch.cuda.device_count() > 1:
model_last = torch.nn.DataParallel(model_last)

train(model_last, train_dataloader, test_dataloader, num_epochs=10, device=device, optimizer=optimizer_last, loss=loss)

结果:

冻结前面所有的层,线性层变为两层:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
model_last2 = torchvision.models.resnet18(pretrained=False)
model_last2.fc = nn.Sequential(
nn.Linear(model_last2.fc.in_features, out_features=512),
nn.ReLU(),
nn.Linear(512, 2)
)

# 冻结除最后一层以外的所有层
for name, param in model_last.named_parameters():
if 'fc' not in name:
param.requires_grad = False

optimizer_last2 = optim.SGD(model_last2.parameters(), lr=0.001)
if torch.cuda.device_count() > 1:
model_last2 = torch.nn.DataParallel(model_last2)

train(model_last2, train_dataloader, test_dataloader, num_epochs=10, device=device, optimizer=optimizer_last2, loss=loss)

结果:


迁移学习
https://blog.shinebook.net/2025/03/10/人工智能/pytorch/迁移学习/
作者
X
发布于
2025年3月10日
许可协议