CycleGAN是一種用於圖像轉換的無監督深度學習算法。與傳統的圖像轉換方法不同,CycleGAN可以在沒有對應訓練集的情況下進行圖像轉換。本文將從算法原理、模型結構、實現細節、代碼示例等多個方面詳細介紹CycleGAN算法。
一、算法原理
CycleGAN算法基於生成對抗網絡(GAN)的思想。GAN包括一個生成器和一個判別器,生成器用於生成假圖片,判別器用於判斷真假。CycleGAN在此基礎上引入了兩個生成器和兩個判別器,用於進行兩個域之間的圖像轉換。
具體地,假設有兩個域X和Y,其中X為照片域,Y為素描域。CycleGAN需要學習兩個映射函數:G:X→Y和F:Y→X。G將X域中的照片轉換為Y域中的素描,F將Y域中的素描轉換為X域中的照片。同時,CycleGAN還需要學習兩個判別器DY和DX,DY用於判斷Y域中的圖片是否為真實素描,DX用於判斷X域中的圖片是否為真實照片。
為了實現這種域之間的圖像轉換,CycleGAN使用了對抗性損失和循環一致性損失。對抗性損失是指生成器G和判別器DY之間的對抗性損失,這意味着G在產生Y域圖像時需要儘可能欺騙DY,而DY需要儘可能地將真實的Y域圖片和G生成的假圖片區分開。循環一致性損失是指,在圖像從X域到Y域的轉換結束後,再反向回到X域時,轉換的結果應該與最初的X域圖像儘可能一致;同理,在圖像從Y域到X域的轉換結束後,再反向回到Y域時轉換的結果應該與最初的Y域圖像儘可能一致。這樣可以避免在進行域之間的圖像轉換時出現不一致的情況。
二、模型結構
CycleGAN的模型結構主要包括兩個生成器和兩個判別器。其中,每個生成器包括一些卷積層、反卷積層和殘差塊;每個判別器包括一些卷積層。
以將照片轉換為素描為例(即從域X到域Y的轉換),生成器G包括從X域圖像到素描圖像的轉換部分和從素描圖像到X域圖像的反轉換部分。G的轉換部分包括5個卷積層和6個殘差塊,反轉換部分包括5個反卷積層和6個殘差塊。
class ResidualBlock(nn.Module):
def __init__(self, in_channels):
super(ResidualBlock, self).__init__()
conv_block = [ nn.Conv2d(in_channels, in_channels, kernel_size=3, stride=1, padding=1, bias=False),
nn.InstanceNorm2d(in_channels, affine=True, track_running_stats=True),
nn.ReLU(inplace=True),
nn.Conv2d(in_channels, in_channels, kernel_size=3, stride=1, padding=1, bias=False),
nn.InstanceNorm2d(in_channels, affine=True, track_running_stats=True) ]
self.conv_block = nn.Sequential(*conv_block)
def forward(self, x):
return x + self.conv_block(x)
class Generator(nn.Module):
def __init__(self, input_nc, output_nc, n_residual_blocks=9):
super(Generator, self).__init__()
# Convolutional layers
self.conv1 = nn.Conv2d(input_nc, 64, kernel_size=7, stride=1, padding=3, bias=False)
self.norm1 = nn.InstanceNorm2d(64, affine=True, track_running_stats=True)
self.relu1 = nn.ReLU(inplace=True)
# Residual blocks
self.res_blocks = nn.Sequential(*[ResidualBlock(64) for _ in range(n_residual_blocks)])
# Deconvolutional layers
self.deconv1 = nn.ConvTranspose2d(64, 64, kernel_size=3, stride=2, padding=1, output_padding=1, bias=False)
self.norm2 = nn.InstanceNorm2d(64, affine=True, track_running_stats=True)
self.relu2 = nn.ReLU(inplace=True)
self.deconv2 = nn.ConvTranspose2d(64, 32, kernel_size=3, stride=2, padding=1, output_padding=1, bias=False)
self.norm3 = nn.InstanceNorm2d(32, affine=True, track_running_stats=True)
self.relu3 = nn.ReLU(inplace=True)
self.deconv3 = nn.ConvTranspose2d(32, output_nc, kernel_size=7, stride=1, padding=3, bias=False)
self.tanh = nn.Tanh()
def forward(self, x):
# Encoder
x = self.conv1(x)
x = self.norm1(x)
x = self.relu1(x)
# Residual blocks
x = self.res_blocks(x)
# Decoder
x = self.deconv1(x)
x = self.norm2(x)
x = self.relu2(x)
x = self.deconv2(x)
x = self.norm3(x)
x = self.relu3(x)
x = self.deconv3(x)
x = self.tanh(x)
return x
判別器D包括5個卷積層,每個卷積層後跟一個LeakyReLU層(用於允許梯度向後傳播)。所有卷積核大小為4×4,輸入圖像大小為256×256,通道數為3(即RGB圖像)。
class Discriminator(nn.Module):
def __init__(self, input_nc):
super(Discriminator, self).__init__()
# Convolution layers
self.conv1 = nn.Conv2d(input_nc, 64, kernel_size=4, stride=2, padding=1)
self.leaky_relu1 = nn.LeakyReLU(0.2, inplace=True)
self.conv2 = nn.Conv2d(64, 128, kernel_size=4, stride=2, padding=1, bias=False)
self.norm1 = nn.InstanceNorm2d(128, affine=True, track_running_stats=True)
self.leaky_relu2 = nn.LeakyReLU(0.2, inplace=True)
self.conv3 = nn.Conv2d(128, 256, kernel_size=4, stride=2, padding=1, bias=False)
self.norm2 = nn.InstanceNorm2d(256, affine=True, track_running_stats=True)
self.leaky_relu3 = nn.LeakyReLU(0.2, inplace=True)
self.conv4 = nn.Conv2d(256, 512, kernel_size=4, stride=1, padding=1, bias=False)
self.norm3 = nn.InstanceNorm2d(512, affine=True, track_running_stats=True)
self.leaky_relu4 = nn.LeakyReLU(0.2, inplace=True)
self.conv5 = nn.Conv2d(512, 1, kernel_size=4, stride=1, padding=1, bias=False)
def forward(self, x):
x = self.conv1(x)
x = self.leaky_relu1(x)
x = self.conv2(x)
x = self.norm1(x)
x = self.leaky_relu2(x)
x = self.conv3(x)
x = self.norm2(x)
x = self.leaky_relu3(x)
x = self.conv4(x)
x = self.norm3(x)
x = self.leaky_relu4(x)
x = self.conv5(x)
return x
三、實現細節
在實現CycleGAN時,需要注意以下幾個細節:
1、在訓練過程中,需要分別訓練G、F、DX和DY。在每個訓練輪次中,需要隨機選擇一個batch的X域圖片和一個batch的Y域圖片,分別作為G和F的輸入,生成出G(X)和F(Y),然後進行對抗性訓練。
# Train G optimizer_G.zero_grad() # GAN loss(對抗性損失) pred_fake = D_Y(G_X) loss_GAN = criterion_GAN(pred_fake, target_real) # Cycle loss(循環一致性損失) recovered_X = F_Y(G_X) loss_cycle_XY = criterion_cycle(recovered_X, real_X) * lambda_cycle # Total loss loss_G = loss_GAN + loss_cycle_XY loss_G.backward() optimizer_G.step()
2、在訓練過程中,需要對生成器的輸出進行歸一化(對於RGB圖片,需要將像素值從[0,255]歸一化到[-1,1])。
# Generate fake X fake_X = G_Y(real_Y) # Normalize outputs to be in [-1, 1] fake_X = (fake_X + 1) / 2.0
3、對於CycleGAN中的循環一致性損失,一般設置一個權重係數lambda_cycle來進行平衡。lambda_cycle的值可以根據具體任務進行調整,不同的任務可能需要不同的lambda_cycle。
四、代碼示例
下面是CycleGAN的一個簡單代碼示例,用於將馬的圖像轉換為斑馬的圖像。
# Loss function
criterion_GAN = nn.MSELoss()
criterion_cycle = nn.L1Loss()
# Optimizers
optimizer_G = torch.optim.Adam(G.parameters(), lr=0.0002, betas=(0.5, 0.999))
optimizer_D = torch.optim.Adam(D.parameters(), lr=0.0002, betas=(0.5, 0.999))
# Training loop
for epoch in range(num_epochs):
for i, (real_A, real_B) in enumerate(dataloader):
# Adversarial ground truths
valid = torch.Tensor(np.ones((real_A.size(0), *D_output_shape)))
fake = torch.Tensor(np.zeros((real_A.size(0), *D_output_shape)))
# Configure input tensor
real_A = real_A.to(device)
real_B = real_B.to(device)
# ------------------
# Train Generators
# ------------------
optimizer_G.zero_grad()
# GAN loss
fake_B = G(real_A)
pred_fake = D(fake_B)
loss_GAN_AB = criterion_GAN(pred_fake, valid)
fake_A = F(real_B)
pred_fake = D(fake_A)
loss_GAN_BA = criterion_GAN(pred_fake, valid)
loss_GAN = (loss_GAN_AB + loss_GAN_BA) / 2
# Cycle loss
recovered_A = F(fake_B)
loss_cycle_A = criterion_cycle(recovered_A, real_A)
recovered_B = G(fake_A)
loss_cycle_B = criterion_cycle(recovered_B, real_B)
loss_cycle = (loss_cycle_A + loss_cycle_B) / 2
# Total loss
loss_G = loss_GAN + lambda_cycle * loss_cycle
loss_G.backward()
optimizer_G.step()
# ----------------------
# Train Discriminators
# ----------------------
optimizer_D.zero_grad()
# Real loss
pred_real = D(real_B)
loss_real = criterion_GAN(pred_real, valid)
# Fake loss
pred_fake = D(fake_B.detach())
loss_fake = criterion_GAN(pred_fake, fake)
# Total loss
loss_D = (loss_real + loss_fake) / 2
loss_D.backward()
optimizer_D.step()
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/244622.html
微信掃一掃
支付寶掃一掃