0%

(NSCN Noise Conditional Score Networks) Generative Modeling by Estimating Gradients of the Data Distribution

  • 发表于2019-NeurIPS
  • 核心公式与推导:
  • 创新点:
  • 不足之处:
    因为设计了加噪的马尔可夫过程,导致采样效率低。
  • 提出了一种马尔可夫的加噪与去噪过程,diffusion的经典之作
阅读全文 »

全文翻译

摘要

扩散概率模型(DPMs)是新兴的强大生成模型。尽管DPMs具有高质量的生成性能,但它们的采样速度仍然较慢,因为通常需要对大型神经网络进行数百或数千次的顺序函数评估(步骤)才能生成一个样本。从DPMs中采样可以看作是求解相应的扩散常微分方程(ODEs)。在这项工作中,我们提出了扩散ODEs解的精确公式。该公式通过解析计算解的线性部分,而不是像以往工作那样将所有项都留给黑箱ODE求解器处理。通过变量变换,解可以等效简化为神经网络的指数加权积分。基于我们的公式,我们提出了DPM-Solver,这是一种快速的、具有收敛阶保证的专用高阶扩散ODE求解器。DPM-Solver适用于离散时间和连续时间的DPMs,且无需任何额外训练。实验结果表明,DPM-Solver在各种数据集上仅需10 - 20次函数评估就能生成高质量样本。在CIFAR10数据集上,我们在10次函数评估中达到了4.70的FID(Frechet Inception Distance),在20次函数评估中达到了2.87的FID,并且与之前最先进的无训练采样器相比,在各种数据集上实现了4 - 16倍的加速。

阅读全文 »

全文翻译

摘要

扩散概率模型(Diffusion Probabilistic Models, DPMs)是一类强大的生成模型。尽管它们取得了成功,但DPMs的推理成本很高,因为通常需要迭代数千个时间步。推理中的一个关键问题是估计反向过程中每个时间步的方差。在这项工作中,我们给出了一个令人惊讶的结果:DPM的最优反向方差和相应的最优KL散度都可以用其得分函数的解析形式表示。在此基础上,我们提出了Analytic-DPM,这是一个无需训练的推理框架,它使用蒙特卡罗方法预训练的基于得分的模型来估计方差和KL散度的解析形式。此外,为了纠正基于得分的模型可能带来的偏差,我们推导了最优方差的上下界,并对估计值进行裁剪以获得更好的结果。在实验中,我们的Analytic-DPM提高了各种DPM的对数似然性,生成了高质量的样本,同时实现了20到80倍的加速。

阅读全文 »

全文翻译

引言:生成模型

给定来自目标分布的观测样本$x$,生成模型的目标是学习对其真实数据分布$p(x)$进行建模。一旦完成学习,我们就可以根据需要从近似模型中生成新样本。此外,在某些公式中,我们还可以使用所学模型来评估观测数据或生成数据的似然性。

当前文献中有几个著名的研究方向,我们将仅在较高层次上简要介绍。生成对抗网络(GANs)对复杂分布的采样过程进行建模,这种建模是通过对抗方式学习的。另一类生成模型被称为“基于似然的”,旨在学习一个为观测数据样本分配高似然的模型。这包括自回归模型、归一化流和变分自编码器(VAEs)。另一种类似的方法是基于能量的建模,其中分布被学习为一个任意灵活的能量函数,然后进行归一化。

分数生成模型与之高度相关;它们不是直接学习对能量函数本身进行建模,而是通过神经网络学习基于能量模型的分数。在本文中,我们将探讨并回顾扩散模型,正如我们将展示的那样,扩散模型同时具有基于似然和基于分数的解释。我们将极其详细地展示这些模型背后的数学原理,旨在让任何人都能理解扩散模型是什么以及它们的工作原理。

阅读全文 »

全文翻译

摘要

我们提出了一种基于连续归一化流(CNFs)的生成式建模新范式,使我们能够以前所未有的规模训练CNFs。具体来说,我们提出了流匹配(FM)的概念,这是一种无需模拟的训练CNFs的方法,它基于对固定条件概率路径的向量场进行回归。流匹配与用于在噪声和数据样本之间进行转换的一般高斯概率路径族兼容,现有扩散路径是其中的特定实例。有趣的是,我们发现将FM与扩散路径结合使用,为训练扩散模型提供了一种更强大、更稳定的替代方法。此外,流匹配为使用其他非扩散概率路径训练CNFs开辟了道路。特别值得关注的一个实例是使用最优传输(OT)位移插值来定义条件概率路径。这些路径比扩散路径更高效,训练和采样速度更快,泛化性能也更好。在ImageNet数据集上使用流匹配训练CNFs,在似然性和样本质量方面均优于基于扩散的替代方法,并且使用现成的数值常微分方程(ODE)求解器就能快速可靠地生成样本。

阅读全文 »

全文翻译

摘要

去噪扩散概率模型(DDPM)是一类生成模型,最近研究表明,这类模型能够生成高质量样本。研究发现,通过一些简单的修改,DDPM在保持高样本质量的同时,还能获得具有竞争力的对数似然值。此外,研究人员还发现,对反向扩散过程的方差进行学习,可以在样本质量差异可忽略不计的情况下,将前向传递次数减少一个数量级,这对这些模型的实际应用至关重要。此外,研究人员使用精度和召回率来比较DDPM和生成对抗网络(GAN)对目标分布的覆盖程度。最后,研究表明,这些模型的样本质量和对数似然值会随着模型容量和训练计算量的增加而平稳提升,这使得它们易于扩展。研究人员已将代码发布在https://github.com/openai/improved-diffusion

阅读全文 »

全文翻译

摘要

扩散模型最近已被证明能够生成高质量的合成图像,尤其是在与引导技术相结合,以在多样性和逼真度之间进行权衡时。我们探索了用于文本条件图像合成问题的扩散模型,并比较了两种不同的引导策略:CLIP引导和无分类器引导。我们发现,在逼真度和字幕相似度方面,人类评估者更倾向于后者,并且它通常能生成逼真的样本。使用无分类器引导的35亿参数文本条件扩散模型生成的样本,即使在DALL-E使用昂贵的CLIP重排序的情况下,也更受人类评估者的青睐。此外,我们发现我们的模型可以进行微调以执行图像修复,从而实现强大的文本驱动图像编辑。我们在经过筛选的数据集上训练了一个较小的模型,并在https://github.com/openai/glide-text2im上发布了代码和权重。

阅读全文 »

全文翻译

摘要

本文基于条件扩散模型开发了一个统一的图像到图像转换框架,并在四项具有挑战性的图像到图像转换任务上对该框架进行了评估,这些任务分别是彩色化图像修复图像扩展JPEG图像恢复。我们对图像到图像扩散模型的简单实现,在所有任务上均优于强大的生成对抗网络(GAN)和回归基线方法,且无需针对特定任务进行超参数调整、架构定制,也无需使用任何辅助损失函数或复杂的新技术。我们揭示了去噪扩散目标中L2和L1损失对样本多样性的影响,并通过实证研究证明了自注意力机制在神经架构中的重要性。重要的是,我们倡导基于ImageNet建立统一的评估协议,采用人工评估样本质量评分(如FID、Inception Score、预训练ResNet50的分类准确率,以及与原始图像的感知距离)。我们期望这个标准化的评估协议能够推动图像到图像转换研究的发展。最后,我们展示了一个通用的多任务扩散模型,其性能与特定任务的专业模型相当,甚至更优。有关结果和代码的概述,请查看https://diffusionpalette.github.io/

阅读全文 »

Ps:本文转载于科研常用网站合集
记录科研常用网站,包括:论文检索、代码检索、学者信息、论文写作、科研论坛、截稿日期、电子书。本文持续更新。

Paper

Site Describe 推荐指数
ArXiv Daily 每日爬取 ArXiv 各个领域论文,适合速刷 ※※※※※
Daliy Papers 近期热点论文追踪,每天必刷! ※※※※※
Semantic Scholar 查看一篇论文的被引,按次数排序,更新速度很快 ※※※※
Connected Papers 连通图展示同领域论文,大小论文都适用 ※※※※
OpenReview 检索最新在投论文,追踪顶会动向,可以看到审稿意见 ※※※※
Paper Copilot 可以看到在投论文的分数排名等情况 ※※※※
Shcolar Inbox 将最新论文按照研究兴趣匹配程度进行排序并推送 ※※※※
ArXiv 预印版论文下载,适合占坑 ※※※
GitHub 偶尔会有好心人放出领域论文集 ※※※
Paper Digest 快速搜索领域论文、最新会议论文索引 + highlight ※※※
CVF Open Access CV 会议论文下载 ※※
AI-Paper-Search 国人开发的插件,支持关键词匹配 AI 顶会
思谋学术导航 谷歌学术镜像与 Sci-Hub 导航
深度学术搜索 谷歌学术镜像
ReadPaper 国内论文社区,可以看到别人对热点论文的笔记
其他途径 公众号、组会分享、学术主页、顶会 Accept List ※※※※
阅读全文 »