能生成Deepfake也能诊断癌症,GAN与恶的距离

  • 时间:
  • 浏览:95
  • 来源:QQ星球网_提供辅助岛技术_270资源网资讯

大数据文摘出品

来源:floydhub

编译:栾红叶、张大笔茹、小七

GAN原困着是最近人工智能圈最为人熟知的技术之一。

可是它的爆火不仅是原困着你相似技术出神入化的好用,还原困着由他催生的相关应用原困了各种伦理道德问题报告 。

最受关注的当然是Deepfake(角度伪造),这款操作容易且效果完美的换脸应用,让什么都人谈“GAN”色变。

朱茵的脸被再加了古力娜扎

而近期,Deepfake甚至有了升级版,走红网络的一键生成裸照软件DeepNude,假如有一天输入一张删改的老婆图片就可自动生成相应的裸照,原困着广泛传播而造成了预料之外的后果,开发者最终将APP下架。

被一键脱衣的霉霉

相关技术引发了一系列社会后果,可是引发了政府立法部门的重视。2019年6月13日,美国众议院情报委员会召开关于人工智能角度伪造的听证会,公开谈论了角度伪造技术对国家、社会和被委托人的风险及防范和应对法律依据 。

要我嗤之以鼻的同時 ,真正的研究者们也在用GAN推动人类社会的发展。据《MIT科技评论》报道,吕贝克大学研究人员近期可是利用deepfake眼前 同样的技术,合成了与真实影像无异的医学图像,补救了没能足够的训练数据的问题报告 ,而那先 图像将还也能用于训练AI通过X光影像发现不同的癌症。

没能,技术一种就所处原罪么?又是哪里出了错呢?

让什么都人回到GAN诞生的那天,从头回顾你相似要我又爱又恨的技术发展的前世今生。

GAN的诞生故事:一场酒后的奇思妙想

时间拉回到2014年的一晚,Ian Goodfellow和一4个多可是毕业的博士生同時 喝酒庆祝。在蒙特利尔一4个多酒吧,什么都什么都人希望他能帮忙看看手眼前 一4个多棘手的项目:计算机要怎样被委托人生成图片。

研究人员原困着使用了神经网络(模拟人脑的神经元网络的一种算法),作为生成模型来创造合理的新数据。但结果往往不尽人意。计算机生成的人脸图像通常就有模糊不清,可是缺耳少鼻。

Ian Goodfellow什么都什么都人提出的方案是对那先 组成图片的元素进行错综复杂的统计分析以帮助机器被委托人生成图片。这时需进行小量的数据运算,Ian Goodfellow告诉什么都人这根本行不通。

边喝啤酒边思考问题报告 时,他一个劲 有了一4个多想法。原困着让4个多神经网络相互对抗会再次出现 那先 结果呢?他的什么都人对此持怀疑态度。

当他回到家,他女什么都人原困着熟睡,他决定马上实验被委托人的想法。那天他一个劲 写代码写到夜晚,可是进行测试。第一次运行就成功了!

那天晚上他提出的法律依据 现在叫做GAN,即生成对抗网络(generative adversarial network)。

Goodfellow被委托人原困着没想到你相似领域会发展得没能太快了 了 ,GAN的应用会没能广泛。

下面什么都人先来看几张照片。

原困着你没能亲眼看多我去过的地方,那就还也能认为那先 照片完就有假的。

当然,我并就有说那先 就有ps的原困着CGI编辑过的,无论Nvidia称什么都人的新技术是要怎样了得,那也可是图片,就有真实的世界。

也却语句,那先 图像完就有用GPU计算层层叠加,可是通过烧钱生成的。

也能做出那先 东西的算法可是对抗生成网络,对于那先 可是结束英文学习机器学习的人而言,编写GAN是一4个多漫长的旅途。在过去的几年中,基于对抗生成网络应用的创新越多,甚至比Facebook上所处的隐私丑闻还多。

2014年以来GANs不断进行改进才有了如今的成就,可是要一项一项来回顾你相似过程,就像是要重新看多长达八季的“权力的游戏”,非常漫长。什么都什么都,在此我将仅仅重温那先 年来GAN研究中什么都酷炫成果眼前 的关键思想。

我不准备删改解释转置卷积(transposed convolutions)和瓦瑟斯坦距离(Wasserstein distance)等概念。相反,我将提供什么都我确实 比较好的资源链接,要我使用那先 资源快速了解那先 概念,没能 你就还也能看多它们在算法中是要怎样使用的。

下文的阅读时需你掌握角度学习的基础知识,可是知道卷积神经网络的工作原理,可是读起来原困着会很糙难度。

鉴于此,先上一张GAN发展路线图:

GAN路线图

图中的过程什么都人将在下文一步一步地讲解。让什么都人先来看看内容大纲吧。

  • GAN:Generative Adversarial Networks
  • DCGAN:Deep Convolutional Generative Adversarial Network
  • CGAN:Conditional Generative Adversarial Network
  • CycleGAN
  • CoGAN:Coupled Generative Adversarial Networks
  • ProGAN:Progressive growing of Generative Adversarial Networks
  • WGAN:Wasserstein Generative Adversarial Networks
  • SAGAN:Self-Attention Generative Adversarial Networks
  • BigGAN:Big Generative Adversarial Networks
  • StyleGAN:Style-based Generative Adversarial Networks

GAN:Generative Adversarial Networks

看多这张图你首先想到的是那先 ,是就有确实 这像素也太低了,还看多难受,尤其是对于密集恐惧症患者来说,这张图片看起来像是某个数学书呆子在excel表放在大了一张缩小的照片。

(http://mpvideo.qpic.cn/tjg_2391437564_200000_b2d39b1f34144e33b32a49cafa09a58c.f20002.mp4?dis_k=74159864ed31f85adf0d20407328e6a4&dis_t=1562579666)

看多视频是就有发现除了Excel,什么都都猜对了。

早在2014年,Ian Goodfellow提出了你相似革命性的想法——让4个多神经网络互相竞争(或协作协议,这是一4个多视角问题报告 )。

感兴趣的同学还也能查看Ian Goodfellow 提出GAN时的原文。

论文链接:

https://arxiv.org/abs/1406.2661

代码链接:

https://github.com/goodfeli/adversarial

作者相关论文链接:

https://arxiv.org/abs/1701.001200

一4个多神经网络试图生成真实数据(注意:GAN可用于给任何数据分布建模,但近来其主要用于图像),而没能 神经网络则试图判别真实数据和中成器网络生成的数据。

生成器网络使用判别器作为损失函数,并更新其参数以生成看起来更真实的数据。

被委托人面,判别器网络更新其参数以使其更好地从真实数据中鉴别出假数据,什么都什么都它这方面的工作会变得更好。

这就像猫和老鼠的游戏,持续进行,直到系统达到所谓的“平衡”,其中生成器也能生成看起来足够真实的数据,可是判别器则轻易就能正确判断真假。

到目前为止,原困着顺利语句,你的代码无误,亚马逊也没能毙掉你的spot实例(顺便说一句,原困着使用FloydHub就不需要再次出现 你相似问题报告 ,原困着什么都人提供了备用的GPU机器),没能你现在就留下了一4个多能从同样的数据分布中准确生成新数据的生成器,它生成的数据则还也能成为你的训练集。

这可是非常简单的一种GAN。到此,你应该掌握GAN可是使用了4个多神经网络——一4个多用于生成数据,一4个多是用来对假数据和真实数据进行判别。理论上,您还也能同時 训练它们,可是不断迭代,直至收敛,没能 生成器就还也能生成全新的,逼真的数据。

DCGAN:Deep Convolutional Generative Adversarial Network

论文:

https://arxiv.org/abs/1511.06434

代码:

https://github.com/floydhub/dcgan

什么都文章:

https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0

看原文是非常慢的,看本文将为您节省什么都时间。

先来看好多个公式:

卷积=擅长图片

GANs=擅长生成什么都数据

由此推出:卷积+GANs=擅长生成图片

事后看来,正如Ian Goodfellow被委托人在与Lex Fridman的播客中指出的那样,将你相似模型称为DCGAN(“角度卷积生成对抗网络”的缩写)似乎很愚蠢,原困着现在几乎所有与角度学习和图像相关的内容就有角度的(deep)和卷积的(convolutional)。

此外,当大多数人了解到GANs时,就有先学习“角度学习和卷积”(deep and convolutional)。

然而,有一段时间GANs不就有使用基于卷积的操作,可是依赖于标准的多层感知器架构。

DCGAN通过使用称为转置卷积运算(transposed convolution operation)来改变了你相似现状,它还有个不太好听的名字——反卷积层( Deconvolution layer)。

转置卷积是一种提升运算,它帮助什么都人将低分辨率图像转换为更高分辨率的图像。

可是严格来说,原困着您要掌握转置卷积原理,只看上文介绍严重不足,是时需深入研究链接里的资源,毕竟这是现代所有GAN架构的基础。

原困着你没能足够多的的时间来看,什么都人还也能通过一4个多总结得很好的动画来了解转置卷积是要怎样工作:

在一般的卷积神经网络中,要我用一系列卷积(以及什么都操作)将图像映射到通常是较低维度的向量。

相似地,运用多个反卷积允许什么都人映射出单个低分辨率的阵列,并使之成为鲜明的全彩图像。

在什么都人继续可是,让什么都人尝试使用GAN的什么都独特法律依据 。

你现在的位置:红色的X

CGAN:Conditional Generative Adversarial Network

论文:

https://arxiv.org/abs/1411.1784

代码:

https://github.com/PacktPublishing/Advanced-Deep-Learning-with-Keras

博客:

https://wiseodd.github.io/techblog/2016/12/24/conditional-gan-tensorflow/

原始GAN根据随机噪声生成数据。这原困着要我在此基础上训练它,比如狗的图像,它会产生更多的狗的图像。

您也还也能在猫的图像上训练它,在你相似情况报告下,它会生成猫的图像。

您也还也能在尼古拉斯·凯奇(Nicholas Cage)图像上训练它,在你相似情况报告下,它会生成尼古拉斯·凯奇(Nicholas Cage)图像。

你也还也能在什么都图像上训练它,以此类推。

可是,原困着你试图同時 训练狗和猫的图像,它会产生模糊的半品种。

CGAN旨在通过只告诉生成器生成一4个多特定物种的图像来补救你相似问题报告 ,比如一只猫,一只狗或一4个多尼古拉斯·凯奇。

具体地来说,CGAN将单编码向量yy连接到随机噪声向量zz,产生如下所示的体系特性:

现在,什么都人还也能用同一4个多GAN同時 生成猫和狗。

CycleGAN

论文:

https://arxiv.org/abs/1703.10593v6

代码:

https://github.com/junyanz/CycleGAN

什么都项目及文章:

https://junyanz.github.io/CycleGAN/

https://towardsdatascience.com/turning-fortnite-into-pubg-with-deep-learning-cyclegan-2f9d339dcdb0

GANs无须仅仅用于生成图像。什么都人还还也能创建“马+斑马”没能 的新生物,如上图所示。

为了创建那先 图像,CycleGAN旨在补救“图像到图像”转换的问题报告 。

CycleGAN并就有一4个多推动艺术图像合成的新GAN架构,相反,它是使用了GAN的智能法律依据 。可是,您还也能自由地将此技术应用于您喜欢的任何架构。

此时,我会建议你阅读一篇论文(https://arxiv.org/abs/1703.10593v6)。写得非常好,即使是初学者也很容易理解。

CycleGAN的任务是训练一4个多网络G(X)G(X),该网络会将图像从源域XX映射到目标域YY。

可是,你原困着会问:“这与常规的角度学习或样式迁移有那先 不同。”

嗯,下面的图片很好地总结了你相似问题报告 。CycleGAN将不成对的图像进行图像平移。这原困着什么都人正在训练的图像无须代表相同的东西。

原困着什么都人有小量的图像对:(图像,达芬奇的绘画图像)(图像,达芬奇绘画图像),没能训练达芬奇的绘画图像就会(相对)容易什么都。

不幸的是,你相似家伙并没能越多的画作。

然而,CycleGAN还也能在未配对的数据上进行训练,什么都什么都什么都人不时需4个多相同的图像。

被委托人面,什么都人还也能使用样式迁移。但这只会提取一4个多特定图像的风格并将其转移到没能 图像,这原困着什么都人无法转化什么都假设性事物,如将马转化为斑马。

然而,CycleGAN会学习从一4个多图像域到没能 域的映射。什么都什么都什么都人可是一下所有的莫奈画作训练。

什么都人使用的法律依据 非常优雅。CycleGAN由4个多生成器GG和FF,以及4个多判别器DXDX和DYDY组成。

GG从XX获取图像并尝试将其映射到YY中的某个图像。判别器 DYDY预测图像是由GG生成还是实际在YY中生成。

相似地,FF从YY接收图像并尝试将其映射到XX中的某个图像,而判别器DXDX 预测图像是由FF生成还是实际上是在XX中。

所有的这5个神经网络就有以通常的GAN法律依据 进行训练,直到什么都人留下了强大的生成器GG和FF,它们还也能很好地执行图像到图像的转换任务,乃至愚弄了DYDY 和DXDX。

你相似类型的对抗性损失听起来是个好主意,但这还严重不足。为了进一步提高性能,CycleGAN使用没能 度量标准,循环一致性损失。

一般来说,优秀的转换应该具备以下属性,当你来回转换时,你应该再次得到同样的东西。

CycleGAN用巧妙的法律依据 实现了你相似想法,它迫使神经网络遵守那先 约束:

F(G(x))≈x,x∈XF(G(x))≈x,x∈X

G(F(y))≈y,y∈YG(F(y))≈y,y∈Y

在视觉上看,循环一致性如下所示:

总损失函数是以惩罚网络不符合上述特性的法律依据 构造的。我不打算在这里写出你相似损失函数,原困着这会破坏它在文章中汇总的法律依据 。

好的,七龙珠还没能召唤完,让什么都人回到什么都人找寻更好的GAN架构的主要任务。

CoGAN:Coupled Generative Adversarial Networks

论文:

https://arxiv.org/abs/12006.07536

代码:

https://github.com/mingyuliutw/CoGAN

博客:

https://wiseodd.github.io/techblog/2017/02/18/coupled_gan/

你知道比一4个多GAN更好的网络是那先 吗?4个多GAN!

CoGAN(即“Coupled Generative Adversarial Networks”,无须与CGAN混淆,后者代表的是条件生成对抗网络)可是没能 做的。它会训练4个多GAN而就有一4个多单一的GAN。

当然,GAN研究人员不停止地将此与那先 警察和伪造者的博弈理论进行比拟。什么都什么都这可是CoGAN眼前 的想法,用作者被委托人语句说可是:

在游戏中,有4个多团队,每个团队有4个多成员。生成模型组成一4个多团队,在4个多不同的域中协作协议同時 合成一对图像,用以混淆判别模型。判别模型试图将从各个域中的训练数据分布中绘制的图像与从各个生成模型中绘制的图像区分开。同一团队中,参与者之间的协作协议是根据权重分配约束建立的。

没能 就有了一4个多GAN的多人局域网竞赛,听起来不错,但你为社 能让它真正起作用呢?

事实证明这无须错综复杂,只需使网络对什么都层使用删改相同的权重。

在我认为(原困着不太谦虚),关于CoGAN最酷的事情就有提高图像生成质量,也就有要我在多个图像域中进行训练的事实。

可是,事实上,你获得两张图片的价格仅是可是的四分之三。

原困着什么都人共享什么都权重,可是CoGAN将比4个多单独的GAN具有更少的参数(可是将节省更多的内存,计算和存储)。

这是一种微妙技术,可是很糙过时,什么都什么都什么都人今天看多的什么都新GAN无须会使用你相似技术。

不过,我认为你相似想法会在未来再次得到重视。

ProGAN:Progressive growing of Generative Adversarial Networks

论文:

https://arxiv.org/abs/1710.10196

代码:

https://github.com/tkarras/progressive_growing_of_gans

什么都文章及视频:

https://towardsdatascience.com/progan-how-nvidia-generated-images-of-unprecedented-quality-51c98ec2cbd2

https://www.youtube.com/watch?v=G06dEcZ-QTg

训练集GAN所处什么都问题报告 ,其中最重要的是其不稳定性。

有时,GAN的损失会所处振荡,原困着生成器和判别器会消除对方的学习。就有时,错误会在网络收敛后立即所处,这时图像就会看起来很糟糕。

ProGAN是一种通过逐步提高生成图像的分辨率来使其训练集稳定的技术。

常识认为,生成4×4的图像比生成1024×1024图像更容易。此外,将16×16的图像映射到32×32的图像比将2×2图像映射到32×32图像更容易。

可是,ProGAN首先训练4×4生成器和4×4判别器,并在训练过程的后期再加相对应的更高分辨率的层。什么都人用一4个多动画来总结一下:

WGAN:Wasserstein Generative Adversarial Networks

论文:

https://arxiv.org/abs/1701.07875v3

代码:

https://github.com/eriklindernoren/Keras-GAN

什么都资源:

http://www.depthfirstlearning.com/2019/WassersteinGAN

https://lilianweng.github.io/lil-log/2017/08/20/from-GAN-to-WGAN.html

https://www.alexirpan.com/2017/02/22/wasserstein-gan.html

https://medium.com/@jonathan_hui/gan-wasserstein-gan-wgan-gp-6a1a2aa1b490

这篇文献原困着是此列表中最具理论性和数学性的论文。作者在文中用了一卡车的证据、推论以及另一种数学术语。可是,原困着积分概率计量和Lipschitz连续与你无关,什么都人可是会在你相似上花越多时间。

简而言之,WGAN(’W’代表Wasserstein)提出了一4个多新的成本函数,那先 函数在纯数学家和统计学家中风靡一时。

这是GAN minimax函数的旧版本:

这是WGAN使用的新版本:

在大多数情况报告下,你时需知道WGAN函数是清除了旧的成本函数,该函数近似于称为Jensen-Shannon散度的统计量,并在新的成本函数中滑动,使其近似于称为1-Wasserstein距离的统计量。

看多下图您就知道为那先 要没能做。

当然,原困着您感兴趣语句,接下来的是对数学细节的快速回顾,这也是WGAN论文备受好评的原困。

最初的GAN论文里认为,当判别器是最优的时,生成器以最小化Jensen-Shannon散度的法律依据 更新。

原困着你不太明白语句,Jensen-Shannon散度是一种衡量不同一种概率分布的法律依据 。JSD越大,4个多分布越“不同”,反之亦然。计算公式如下:

然而,把JSD最小化是最好的选折 吗?

WGAN论文的作者认为原困着就有。出于特殊原困,当4个多发行版删改不重叠时,还也能显示JSD的值保持为2log22log⁡2的常量值。

具有常量值的函数有一4个多梯度等于零,而零梯度是不好的,原困着这原困着生成器删改没能学习。

WGAN作者提出的备用距离度量是1-Wasserstein距离,也称为搬土距离(EMD距离)。

“搬土距离”来源于比拟,想象一下,4个多分布中的一4个多是一堆土,没能 是一4个多坑。

假设尽原困着有效地运输淤泥,沙子,松土等物品,搬土距离测量将土堆运输到坑中的成本。这里,“成本”被认为是点之间的距离×土堆移动的距离×移动的土堆量。

也却语句(没能双关语),4个多分布之间的EMD距离还也能写成:

当inf是最小值时,xx和yy是4个多分布上的点,γγ是最佳运输计划。

没能 ,计算你相似是没能的。于是,什么都人计算删改不同的没能 值:

相似个多方程式之间的联系一可是结束似乎无须明显,但通过什么都称为Kantorovich-Rubenstein二重性的错综复杂数学(试着快读三次),还也能证明那先 Wasserstein / Earth mover距离的公式在试计算同样的东西。

原困着你跟不上我提供的链接中的的论文和博客文章中的什么都重要的数学概念,可是要过于担心。关于WGAN的大偏离 工作就有为一4个多简单的想法提供一4个多错综复杂的理由。

SAGAN:Self-Attention Generative Adversarial Networks

论文:

https://arxiv.org/abs/12005.08318v1

代码:

https://github.com/heykeetae/Self-Attention-GAN

什么都资源:

https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.html

https://towardsdatascience.com/not-just-another-gan-paper-sagan-96e649f01a6b

原困着GAN使用转置卷积来“扫描”特性映射,可是它们也能访问附近的信息。

单独使用转置卷积就像绘制图片,只在画笔的小半径范围内查看画布区域。

即使是能完善最独特和错综复杂细节的最伟大的艺术家,在创作过程中也时需退后一步,看看大局。

SAGAN(全称为“自我关注生成对抗网络”)使用自我关注机制,原困着迁移模型架构,近年来你相似法律依据 原困着变得十分流行。

自我关注让生成器退后一步,查看“大局”。

BigGAN:Big Generative Adversarial Networks

论文:

https://arxiv.org/abs/12009.11096v2

代码:

https://github.com/huggingface/pytorch-pretrained-BigGAN

什么都资源:

https://www.youtube.com/watch?v=ZKQp28OqwNQ

https://thegradient.pub/bigganex-a-dive-into-the-latent-space-of-biggan/

https://medium.com/syncedreview/biggan-a-new-state-of-the-art-in-image-synthesis-cf2ec5694024

经过四年漫长的時光电视剧,DeepMind前所未有地决定与GAN协作协议,什么都人使用了一种角度学习的神秘技术,你相似技术非常强大,是最先进的技术,超越了先进技术排行榜上所有什么都的技术。

接下来展示BigGAN,GAN绝对没能做那先 (可是运行了一堆TPU集群,却不知何故应该在你相似列表中)。

开个玩笑!DeepMind团队确确实 BigGAN上取得了什么都什么都成就。除了用逼真的图像吸睛之外,BigGAN还向什么都人展示了什么都非常删改的训练GAN的大规模结果。

BigGAN眼前 的团队引入了各种技术来对抗在什么都机器上大批量培训GAN的不稳定性。

首先,DeepMind使用SAGAN作为基线,并再加了一4个多称为谱归一化的功能。

接下来,什么都人将图片批量大小缩放200%,角度(通道数)缩放20%。最初,增加层数似乎并没能帮助。

在进行了什么都什么都单位数百分比改进可是,作者使用“截断技巧”来提高采样图像的质量。

BigGAN在训练期间从z N(0,I)提取其潜在向量,原困着潜在向量在生成图像时落在给定范围之外,则重新采样。

范围是超参数,由ψψ表示。较小的ψψ会缩小范围,从而以错综复杂为代价提高样本保真度。

没能所有那先 错综错综复杂的调整工作会有那先 后顾呢?好吧,一帮人称之为狗球。

BigGAN技术还发现更大规模的GAN训练原困着会有一系列问题报告 。

值得注意的是,训练集似乎还也能通过增加批量大小和角度等参数来很好地扩展,但不知那先 原困,最终总会崩溃。

原困着你对通过分析奇异值来理解你相似不稳定性感兴趣语句,请查看论文,原困着要我在那里找到什么都什么都东西。

最后,作者还在一4个多名为JFT-200的新数据集上训练BigGAN,这是一4个多相似ImageNet的数据集,它有3亿个图像。什么都人表明BigGAN在你相似数据集上的表现更好,这表明更大规模的数据集原困着是GAN的发展方向。

在论文的第一版发布后,作者在好多个月后重新访问了BigGAN。还记得我为社 说增加层数不起作用?事实证明,这是原困着糟糕的训练集选折 原困的。

该团队不再可是在模型上填充更多层,还进行了实验,发现使用ResNet突破瓶颈是可行的。

通过以上不断地调整、缩放和仔细实验,BigGAN的顶级线条删改抹杀了先前的最新情况报告,得分高达52.52分,总分是152.8。

原困着这就有正确步骤语句,那谁能谁能告诉我哪个是正确的。

StyleGAN:Style-based Generative Adversarial Networks

论文:

https://arxiv.org/abs/1812.04948

代码:

https://github.com/NVlabs/stylegan

什么都资源:

https://thispersondoesnotexist.com/

https://blog.nanonets.com/stylegan-got/

https://www.gwern.net/Faces

StyleGAN是Nvidia的一4个多延伸研究,它主要与传统的GAN研究关系不大,传统GAN主要关注损失函数,稳定性,体系特性等。

原困着你想生成汽车的图像语句,仅仅拥有一4个多还也能欺骗地球上大多数人的世界级人脸生成器是没能用的。

可是,StyleGAN就有专注于创建更逼真的图像,而通过提高GAN的能力,还也能对生成的图像进行精细控制。

正如我所提到的那样,StyleGAN没能开发架构和计算损失函数功能。相反,它是一套还也能与任何GAN联用的技术,允许您执行各种很酷的操作,相似混合图像,在多个级别上改变细节,以及执行更高级的样式传输。

换句话说,StyleGAN就像一4个多photoshop插件,可是大多数GAN开发就有photoshop的新版本。

为了实现你相似级别的图像风格控制,StyleGAN采用了现有的什么都技术,如自适应实例规范化,潜在矢量映射网络和常量学习输入。

原困着没能深入细节,是没能再描述StyleGAN的,什么都什么都原困着你有兴趣语句,请查看我的文章,其中展示了要怎样使用StyleGAN生成权力游戏角色。我对所有技术就有删改的解释,一路上有什么都什么都很酷的结果等你哦。

结论

恭喜你,坚持看多了最后!什么都人都跟上了创造虚假被委托人照片的角度学术领域的最新进展。

可是在你瘫在沙发上并可是结束无休止地刷微博票圈可是,请稍微停一下看看你到底还有好多个路要走:

接下来是那先 ?!未被开发的区域!

在掌握了ProGAN和StyleGAN,且规模到达BigGAN可是,你很容易迷失在这后面 。

但请放大地图仔细观察,看多那个绿色土地哪年?看多北方的红三角哪年?

那先 就有等待英文被突破的未知开发区域,原困着你放胆一试,什么都人都还也能成为你的。

别了!什么都什么都人,还有更多未知海域等待英文航行!

结语:什么都有趣的前沿研究

感谢您阅读本文。到现在为止,原困着您原困着掌握了我分享的所有资源,您应该对GAN技术中什么都最重要的突破有充分的了解。

但毫无问题报告 ,还有更多时需学习。跟上科研的步伐确实 艰难的,但并就有不原困着。我的建议是:阅读最新发表的论文,原困着它们原困着会为您的项目提供新思路新法律依据 。

为了帮您入门,我推荐什么都前沿(截至2019年5月)的研究项目:

您原困着原困着听说过DeOldify了。原困着没能语句,请点击访问你相似。

网址:

https://blog.floydhub.com/colorizing-and-restoring-old-images-with-deep-learning/!

它最近有一次更新,引入了一种名为NoGAN的新训练技术。您还也能在什么都人的博客和代码中查看删改信息。

原困着您没能Google级别的数据,从头可是结束群克隆BigGAN结果原困着很繁琐。现在有一篇ICML 2019的论文建议用较少的标签训练BigGAN质量模型。

当然,GAN并就有唯一的基于角度学习的图像生成技术。最近,OpenAI推出了一种全新的模型—稀疏迁移模型,利用迁移模型架构进行图像生成。像往常一样,什么都人开源发布了一篇论文,博客和代码。

系数迁移模型知识链接:

论文:

https://arxiv.org/abs/1904.102009

代码:

https://github.com/openai/sparse_attention

博客:

https://openai.com/blog/sparse-transformer/

哦,这就有新的研究或任何什么都新东西,但你应该听听GAN的起源故事:

Nvidia有一4个多非常酷的项目GauGAN,它还也能将您孩子的涂鸦变成逼真的杰作。这真的是您时需体验也能理解的东西。首先看下Soplay的演示,其次阅读什么都人的博客和论文。

演示:

https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489

博客:

https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489

论文:

https://arxiv.org/abs/1903.07291

你有没能想过要怎样“调试”GAN?这是一份ICLR 2019论文提出了一4个多很有前景的补救方案。

ICLR2019论文:

https://openreview.net/pdf?id=Syx_Ss05tm

无论我让GAN看起来有多厉害,还是有什么都什么都问题报告 时需补救。有篇文章精辟地总结了什么都未补救的问题报告 。

总结文章链接:

https://distill.pub/2019/gan-open-problems/

似乎一帮人为GAN找到了另一种真实世界可应用的原困着。

相关报道:

https://blog.floydhub.com/gans-story-so-far/

https://www.technologyreview.com/f/613924/ai-deepfakes-gans-medical-cancer-diagnosis/

本文由

大数据文摘

发布在

ITPUB

,转载此文请保持文章删改性,并请附上文章来源(ITPUB)及本页链接。

原文链接:http://www.itpub.net/2019/07/09/2365/