侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Pytorch使用MNIST数据集实现基础GAN和DCGAN详解

Python  /  管理员 发布于 5年前   363

原始生成对抗网络Generative Adversarial Networks GAN包含生成器Generator和判别器Discriminator,数据有真实数据groundtruth,还有需要网络生成的“fake”数据,目的是网络生成的fake数据可以“骗过”判别器,让判别器认不出来,就是让判别器分不清进入的数据是真实数据还是fake数据。总的来说是:判别器区分真实数据和fake数据的能力越强越好;生成器生成的数据骗过判别器的能力越强越好,这个是矛盾的,所以只能交替训练网络。

需要搭建生成器网络和判别器网络,训练的时候交替训练。

首先训练判别器的参数,固定生成器的参数,让判别器判断生成器生成的数据,让其和0接近,让判别器判断真实数据,让其和1接近;

接着训练生成器的参数,固定判别器的参数,让生成器生成的数据进入判别器,让判断结果和1接近。生成器生成数据需要给定随机初始值

线性版:

import torchfrom torch.utils.data import DataLoaderfrom torchvision.datasets import MNISTfrom torchvision import transformsfrom torch import optimimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as npimport matplotlib.gridspec as gridspec def showimg(images,count): images=images.detach().numpy()[0:16,:] images=255*(0.5*images+0.5) images = images.astype(np.uint8) grid_length=int(np.ceil(np.sqrt(images.shape[0]))) plt.figure(figsize=(4,4)) width = int(np.sqrt((images.shape[1]))) gs = gridspec.GridSpec(grid_length,grid_length,wspace=0,hspace=0) # gs.update(wspace=0, hspace=0) print('starting...') for i, img in enumerate(images): ax = plt.subplot(gs[i]) ax.set_xticklabels([]) ax.set_yticklabels([]) ax.set_aspect('equal') plt.imshow(img.reshape([width,width]),cmap = plt.cm.gray) plt.axis('off') plt.tight_layout() print('showing...') plt.tight_layout() plt.savefig('./GAN_Image/%d.png'%count, bbox_inches='tight') def loadMNIST(batch_size): #MNIST图片的大小是28*28 trans_img=transforms.Compose([transforms.ToTensor()]) trainset=MNIST('./data',train=True,transform=trans_img,download=True) testset=MNIST('./data',train=False,transform=trans_img,download=True) # device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") trainloader=DataLoader(trainset,batch_size=batch_size,shuffle=True,num_workers=10) testloader = DataLoader(testset, batch_size=batch_size, shuffle=False, num_workers=10) return trainset,testset,trainloader,testloader class discriminator(nn.Module): def __init__(self): super(discriminator,self).__init__() self.dis=nn.Sequential(  nn.Linear(784,300),  nn.LeakyReLU(0.2),  nn.Linear(300,150),  nn.LeakyReLU(0.2),  nn.Linear(150,1),  nn.Sigmoid() ) def forward(self, x): x=self.dis(x) return x class generator(nn.Module): def __init__(self,input_size): super(generator,self).__init__() self.gen=nn.Sequential(  nn.Linear(input_size,150),  nn.ReLU(True),  nn.Linear(150,300),  nn.ReLU(True),  nn.Linear(300,784),  nn.Tanh() ) def forward(self, x): x=self.gen(x) return x if __name__=="__main__": criterion=nn.BCELoss() num_img=100 z_dimension=100 D=discriminator() G=generator(z_dimension) trainset, testset, trainloader, testloader = loadMNIST(num_img) # data d_optimizer=optim.Adam(D.parameters(),lr=0.0003) g_optimizer=optim.Adam(G.parameters(),lr=0.0003) ''' 交替训练的方式训练网络 先训练判别器网络D再训练生成器网络G 不同网络的训练次数是超参数 也可以两个网络训练相同的次数 这样就可以不用分别训练两个网络 ''' count=0 #鉴别器D的训练,固定G的参数 epoch = 100 gepoch = 1 for i in range(epoch): for (img, label) in trainloader:  # num_img=img.size()[0]  real_img=img.view(num_img,-1)#展开为28*28=784  real_label=torch.ones(num_img)#真实label为1  fake_label=torch.zeros(num_img)#假的label为0   #compute loss of real_img  real_out=D(real_img) #真实图片送入判别器D输出0~1  d_loss_real=criterion(real_out,real_label)#得到loss  real_scores=real_out#真实图片放入判别器输出越接近1越好   #compute loss of fake_img  z=torch.randn(num_img,z_dimension)#随机生成向量  fake_img=G(z)#将向量放入生成网络G生成一张图片  fake_out=D(fake_img)#判别器判断假的图片  d_loss_fake=criterion(fake_out,fake_label)#假的图片的loss  fake_scores=fake_out#假的图片放入判别器输出越接近0越好   #D bp and optimize  d_loss=d_loss_real+d_loss_fake  d_optimizer.zero_grad() #判别器D的梯度归零  d_loss.backward() #反向传播  d_optimizer.step() #更新判别器D参数   #生成器G的训练compute loss of fake_img  for j in range(gepoch):  fake_label = torch.ones(num_img) # 真实label为1  z = torch.randn(num_img, z_dimension) # 随机生成向量  fake_img = G(z) # 将向量放入生成网络G生成一张图片  output = D(fake_img) # 经过判别器得到结果  g_loss = criterion(output, fake_label)#得到假的图片与真实标签的loss  #bp and optimize  g_optimizer.zero_grad() #生成器G的梯度归零  g_loss.backward() #反向传播  g_optimizer.step()#更新生成器G参数 print('Epoch [{}/{}], d_loss: {:.6f}, g_loss: {:.6f} '   'D real: {:.6f}, D fake: {:.6f}'.format(  i, epoch, d_loss.data[0], g_loss.data[0],  real_scores.data.mean(), fake_scores.data.mean())) showimg(fake_img,count) # plt.show() count += 1

这里的图分别是 epoch为0、50、100、150、190的运行结果,可以看到图片中的数字并不单一

卷积版 Deep Convolutional Generative Adversarial Networks:

import torchfrom torch.utils.data import DataLoaderfrom torchvision.datasets import MNISTfrom torchvision import transformsfrom torch import optimimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as npfrom torch.autograd import Variable import matplotlib.gridspec as gridspecimport os def showimg(images,count): images=images.to('cpu') images=images.detach().numpy() images=images[[6, 12, 18, 24, 30, 36, 42, 48, 54, 60, 66, 72, 78, 84, 90, 96]] images=255*(0.5*images+0.5) images = images.astype(np.uint8) grid_length=int(np.ceil(np.sqrt(images.shape[0]))) plt.figure(figsize=(4,4)) width = images.shape[2] gs = gridspec.GridSpec(grid_length,grid_length,wspace=0,hspace=0) print(images.shape) for i, img in enumerate(images): ax = plt.subplot(gs[i]) ax.set_xticklabels([]) ax.set_yticklabels([]) ax.set_aspect('equal') plt.imshow(img.reshape(width,width),cmap = plt.cm.gray) plt.axis('off') plt.tight_layout()# print('showing...') plt.tight_layout()# plt.savefig('./GAN_Imaget/%d.png'%count, bbox_inches='tight') def loadMNIST(batch_size): #MNIST图片的大小是28*28 trans_img=transforms.Compose([transforms.ToTensor()]) trainset=MNIST('./data',train=True,transform=trans_img,download=True) testset=MNIST('./data',train=False,transform=trans_img,download=True) # device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") trainloader=DataLoader(trainset,batch_size=batch_size,shuffle=True,num_workers=10) testloader = DataLoader(testset, batch_size=batch_size, shuffle=False, num_workers=10) return trainset,testset,trainloader,testloader class discriminator(nn.Module): def __init__(self): super(discriminator,self).__init__() self.dis=nn.Sequential(  nn.Conv2d(1,32,5,stride=1,padding=2),  nn.LeakyReLU(0.2,True),  nn.MaxPool2d((2,2)),   nn.Conv2d(32,64,5,stride=1,padding=2),  nn.LeakyReLU(0.2,True),  nn.MaxPool2d((2,2)) ) self.fc=nn.Sequential(  nn.Linear(7 * 7 * 64, 1024),  nn.LeakyReLU(0.2, True),  nn.Linear(1024, 1),  nn.Sigmoid() ) def forward(self, x): x=self.dis(x) x=x.view(x.size(0),-1) x=self.fc(x) return x class generator(nn.Module): def __init__(self,input_size,num_feature): super(generator,self).__init__() self.fc=nn.Linear(input_size,num_feature) #1*56*56 self.br=nn.Sequential(  nn.BatchNorm2d(1),  nn.ReLU(True) ) self.gen=nn.Sequential(  nn.Conv2d(1,50,3,stride=1,padding=1),  nn.BatchNorm2d(50),  nn.ReLU(True),   nn.Conv2d(50,25,3,stride=1,padding=1),  nn.BatchNorm2d(25),  nn.ReLU(True),   nn.Conv2d(25,1,2,stride=2),  nn.Tanh() ) def forward(self, x): x=self.fc(x) x=x.view(x.size(0),1,56,56) x=self.br(x) x=self.gen(x) return x if __name__=="__main__": criterion=nn.BCELoss() num_img=100 z_dimension=100 D=discriminator() G=generator(z_dimension,3136) #1*56*56 trainset, testset, trainloader, testloader = loadMNIST(num_img) # data D=D.cuda() G=G.cuda() d_optimizer=optim.Adam(D.parameters(),lr=0.0003) g_optimizer=optim.Adam(G.parameters(),lr=0.0003) ''' 交替训练的方式训练网络 先训练判别器网络D再训练生成器网络G 不同网络的训练次数是超参数 也可以两个网络训练相同的次数, 这样就可以不用分别训练两个网络 ''' count=0 #鉴别器D的训练,固定G的参数 epoch = 100 gepoch = 1 for i in range(epoch): for (img, label) in trainloader:  # num_img=img.size()[0]  img=Variable(img).cuda()  real_label=Variable(torch.ones(num_img)).cuda()#真实label为1  fake_label=Variable(torch.zeros(num_img)).cuda()#假的label为0   #compute loss of real_img  real_out=D(img) #真实图片送入判别器D输出0~1  d_loss_real=criterion(real_out,real_label)#得到loss  real_scores=real_out#真实图片放入判别器输出越接近1越好   #compute loss of fake_img  z=Variable(torch.randn(num_img,z_dimension)).cuda()#随机生成向量  fake_img=G(z)#将向量放入生成网络G生成一张图片  fake_out=D(fake_img)#判别器判断假的图片  d_loss_fake=criterion(fake_out,fake_label)#假的图片的loss  fake_scores=fake_out#假的图片放入判别器输出越接近0越好   #D bp and optimize  d_loss=d_loss_real+d_loss_fake  d_optimizer.zero_grad() #判别器D的梯度归零  d_loss.backward() #反向传播  d_optimizer.step() #更新判别器D参数   #生成器G的训练compute loss of fake_img  for j in range(gepoch):  fake_label = Variable(torch.ones(num_img)).cuda() # 真实label为1  z = Variable(torch.randn(num_img, z_dimension)).cuda() # 随机生成向量  fake_img = G(z) # 将向量放入生成网络G生成一张图片  output = D(fake_img) # 经过判别器得到结果  g_loss = criterion(output, fake_label)#得到假的图片与真实标签的loss  #bp and optimize  g_optimizer.zero_grad() #生成器G的梯度归零  g_loss.backward() #反向传播  g_optimizer.step()#更新生成器G参数  # if ((i+1)%1000==0):  # print("[%d/%d] GLoss: %.5f" % (i + 1, gepoch, g_loss.data[0])) print('Epoch [{}/{}], d_loss: {:.6f}, g_loss: {:.6f} '   'D real: {:.6f}, D fake: {:.6f}'.format(  i, epoch, d_loss.data[0], g_loss.data[0],  real_scores.data.mean(), fake_scores.data.mean())) showimg(fake_img,count) plt.show() count += 1

这里的gepoch设置为1,运行39次的结果是:

gepoch设置为2,运行0、25、50、75、100次的结果是:

gepoch设置为3,运行25、50、75次的结果是:

gepoch设置为4,运行0、10、20、30、35次的结果是:

gepoch设置为5,运行0、10、20、25、29次的结果是:

gepoch设置为3,z_dimension设置为190,epoch运行0、10、15、20、25、35的结果是:

可以看到生成的数字基本没有太多的规律,可能最终都是同个数字,不能生成指定的数字,CGAN就很好的解决这个问题,可以生成指定的数字 Pytorch使用MNIST数据集实现CGAN和生成指定的数字方式

以上这篇Pytorch使用MNIST数据集实现基础GAN和DCGAN详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。


  • 上一条:
    pycharm双击无响应(打不开问题解决办法)
    下一条:
    Pytorch使用MNIST数据集实现CGAN和生成指定的数字方式
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客