fbpx
维基百科

自编码器

自编码器(英語:autoencoder)也称自动编码器,是一种人工神经网络,用于学习无标签数据的有效编码;属一种无监督学习

一个具有3个全连接隐藏层的自动编码器网络结构。

自编码(autoencoding)的目的是:学习对高维度数据做低维度“表示”(“表征”或“编码”);因此, 通常用于降维。最近,自编码的概念广泛地用于数据的生成模型[1][2] 自2010年以来,一些先进的人工智能在深度学习网络中采用了采用堆叠式稀疏自编码。[3]

基本结构

自编码器有两个主要部分组成:编码器用于将输入编码,而解码器使用编码重构输入。

实现这个功能最简单的方式就是重复原始信号。然而,自编码器通常被迫近似地重构输入信号,重构结果仅仅包括原信号中最相关的部分。

自编码器的思想已经流行了几十年,其首次应用可以追溯到20世纪80年代。[4][5][6]自编码器最传统的应用是降维特征学习,现在这个概念已经推广到用于学习数据的生成模型。.[1][2]21世纪10年代的一些最强大的人工智能在深度神经网络中采用了自编码器。[3]

最简单的自编码器形式是一个前馈的、非循环的神经网络,用一层或多层隐藏层链接输入和输出。输出层节点数和输入层一致。其目的是重构输入(最小化输入和输出之间的差异),而不是在给定输入的情况下预测目标值,所以自编码器属于无监督学习。

最简单的自编码器形式是一个前馈的、非循环的神经网络,类似于多层感知器(MLP)中的单层感知器,用一层或多层隐藏层链接输入和输出。输出层具有与输入层相同数量的节点(神经元)。输出层节点数和输入层一致。其目的是重构输入(最小化输入和输出之间的差异),而不是在给定输入 的情况下预测目标值 , 所以自编码器属于无监督学习。

自编码器由编码器和解码器组成,二者可以被分别定义为变换    ,使得:

 
 
 

在最简单的情况下,给定一个隐藏层,自编码器的编码阶段接受输入 并将其映射到 

 

 通常表示编码、潜变量或潜在表示。 是一个逐元素的激活函数(例如sigmoid函数线性整流函数)。 是权重矩阵, 是偏置向量。权重和偏置通常随机初始化,并在训练期间通过反向传播迭代更新。自编码器的解码阶段映射 到重构 (与 形状一致):

 

其中解码器部分的  可能与编码器部分的 无关。

自编码器被训练来最小化重建误差(如平方误差),通常被称为 "损失":

 

其中 通常在训练集上平均。

如前所述,和其它前馈神经网络一样,自编码器的训练是通过误差的反向传播进行的。

当特征空间 的维度比输入空间 低时,特征向量 可以看作时输入 的压缩表示,这就是不完备自动编码(undercomplete autoencoders)的情况。如果隐藏层大于(过完备)或等于输入层的数量,或者隐藏单元的容量足够大,自编码器就可能学会恒等函数而变得无用。然而,实验结果表明过完备自编码器(overcomplete autoencoders)仍然可能学习到有用的特征。[7]在理想情况下,编码的维度和模型容量可以根据待建模数据分布的复杂性来设定,采用这种方式的一种途径是正则化自编码器。[4]

另見

參考

  1. ^ 1.0 1.1 Auto-Encoding Variational Bayes, Kingma, D.P. and Welling, M., ArXiv e-prints, 2013 arxiv.org/abs/1312.6114
  2. ^ 2.0 2.1 Generating Faces with Torch, Boesen A., Larsen L. and Sonderby S.K., 2015 torch.ch/blog/2015/11/13/gan.html
  3. ^ 3.0 3.1 Domingos, Pedro. 4. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. 2015. "Deeper into the Brain" subsection. ISBN 978-046506192-1. 
  4. ^ 4.0 4.1 Bengio, Yoshua; Courville, Aaron. Deep learning. . Cambridge, Massachusetts. 2016 [2022-06-06]. ISBN 0-262-03561-8. OCLC 955778308. (原始内容存档于2021-02-17). 
  5. ^ Schmidhuber, Jürgen. Deep learning in neural networks: An overview. Neural Networks. January 2015, 61: 85–117. PMID 25462637. S2CID 11715509. arXiv:1404.7828 . doi:10.1016/j.neunet.2014.09.003. 
  6. ^ Hinton, G. E., & Zemel, R. S. (1994). Autoencoders, minimum description length and Helmholtz free energy. In Advances in neural information processing systems 6 (pp. 3-10).
  7. ^ Bengio, Y. (PDF). Foundations and Trends in Machine Learning. 2009, 2 (8): 1795–7 [2022-06-06]. CiteSeerX 10.1.1.701.9550 . PMID 23946944. doi:10.1561/2200000006. (原始内容 (PDF)存档于2015-12-23). 

自编码器, 此條目可参照英語維基百科相應條目来扩充, 若您熟悉来源语言和主题, 请协助参考外语维基百科扩充条目, 请勿直接提交机械翻译, 也不要翻译不可靠, 低品质内容, 依版权协议, 译文需在编辑摘要注明来源, 或于讨论页顶部标记, href, template, translated, page, html, title, template, translated, page, translated, page, 标签, 英語, autoencoder, 也称自动编码器, 是一种人工神经网络, 用于学习无标签数. 此條目可参照英語維基百科相應條目来扩充 若您熟悉来源语言和主题 请协助参考外语维基百科扩充条目 请勿直接提交机械翻译 也不要翻译不可靠 低品质内容 依版权协议 译文需在编辑摘要注明来源 或于讨论页顶部标记 a href Template Translated page html title Template Translated page Translated page a 标签 自编码器 英語 autoencoder 也称自动编码器 是一种人工神经网络 用于学习无标签数据的有效编码 属一种无监督学习 一个具有3个全连接隐藏层的自动编码器网络结构 自编码 autoencoding 的目的是 学习对高维度数据做低维度 表示 表征 或 编码 因此 通常用于降维 最近 自编码的概念广泛地用于数据的生成模型 1 2 自2010年以来 一些先进的人工智能在深度学习网络中采用了采用堆叠式稀疏自编码 3 基本结构 编辑自编码器有两个主要部分组成 编码器用于将输入编码 而解码器使用编码重构输入 实现这个功能最简单的方式就是重复原始信号 然而 自编码器通常被迫近似地重构输入信号 重构结果仅仅包括原信号中最相关的部分 自编码器的思想已经流行了几十年 其首次应用可以追溯到20世纪80年代 4 5 6 自编码器最传统的应用是降维或特征学习 现在这个概念已经推广到用于学习数据的生成模型 1 2 21世纪10年代的一些最强大的人工智能在深度神经网络中采用了自编码器 3 最简单的自编码器形式是一个前馈的 非循环的神经网络 用一层或多层隐藏层链接输入和输出 输出层节点数和输入层一致 其目的是重构输入 最小化输入和输出之间的差异 而不是在给定输入的情况下预测目标值 所以自编码器属于无监督学习 最简单的自编码器形式是一个前馈的 非循环的神经网络 类似于多层感知器 MLP 中的单层感知器 用一层或多层隐藏层链接输入和输出 输出层具有与输入层相同数量的节点 神经元 输出层节点数和输入层一致 其目的是重构输入 最小化输入和输出之间的差异 而不是在给定输入X displaystyle X 的情况下预测目标值Y displaystyle Y 所以自编码器属于无监督学习 自编码器由编码器和解码器组成 二者可以被分别定义为变换 ϕ displaystyle phi 和ps displaystyle psi 使得 ϕ X F displaystyle phi mathcal X rightarrow mathcal F ps F X displaystyle psi mathcal F rightarrow mathcal X ϕ ps a r g m i n ϕ ps X ps ϕ X 2 displaystyle phi psi underset phi psi operatorname arg min mathcal X psi circ phi mathcal X 2 在最简单的情况下 给定一个隐藏层 自编码器的编码阶段接受输入x R d X displaystyle mathbf x in mathbb R d mathcal X 并将其映射到h R p F displaystyle mathbf h in mathbb R p mathcal F h s W x b displaystyle mathbf h sigma mathbf Wx mathbf b 像h displaystyle mathbf h 通常表示编码 潜变量或潜在表示 s displaystyle sigma 是一个逐元素的激活函数 例如sigmoid函数或线性整流函数 W displaystyle mathbf W 是权重矩阵 b displaystyle mathbf b 是偏置向量 权重和偏置通常随机初始化 并在训练期间通过反向传播迭代更新 自编码器的解码阶段映射h displaystyle mathbf h 到重构x displaystyle mathbf x 与x displaystyle mathbf x 形状一致 x s W h b displaystyle mathbf x sigma mathbf W h mathbf b 其中解码器部分的s W b displaystyle mathbf sigma mathbf W mathbf b 可能与编码器部分的s W b displaystyle mathbf sigma mathbf W mathbf b 无关 自编码器被训练来最小化重建误差 如平方误差 通常被称为 损失 L x x x x 2 x s W s W x b b 2 displaystyle mathcal L mathbf x mathbf x mathbf x mathbf x 2 mathbf x sigma mathbf W sigma mathbf Wx mathbf b mathbf b 2 其中x displaystyle mathbf x 通常在训练集上平均 如前所述 和其它前馈神经网络一样 自编码器的训练是通过误差的反向传播进行的 当特征空间F displaystyle mathcal F 的维度比输入空间X displaystyle mathcal X 低时 特征向量ϕ x displaystyle phi x 可以看作时输入x displaystyle x 的压缩表示 这就是不完备自动编码 undercomplete autoencoders 的情况 如果隐藏层大于 过完备 或等于输入层的数量 或者隐藏单元的容量足够大 自编码器就可能学会恒等函数而变得无用 然而 实验结果表明过完备自编码器 overcomplete autoencoders 仍然可能学习到有用的特征 7 在理想情况下 编码的维度和模型容量可以根据待建模数据分布的复杂性来设定 采用这种方式的一种途径是正则化自编码器 4 另見 编辑表征学习參考 编辑 1 0 1 1 Auto Encoding Variational Bayes Kingma D P and Welling M ArXiv e prints 2013 arxiv wbr org wbr abs wbr 1312 wbr 6114 2 0 2 1 Generating Faces with Torch Boesen A Larsen L and Sonderby S K 2015 torch wbr ch wbr blog wbr 2015 wbr 11 wbr 13 wbr gan wbr html 3 0 3 1 Domingos Pedro 4 The Master Algorithm How the Quest for the Ultimate Learning Machine Will Remake Our World Basic Books 2015 Deeper into the Brain subsection ISBN 978 046506192 1 4 0 4 1 Bengio Yoshua Courville Aaron Deep learning Deep Learning Cambridge Massachusetts 2016 2022 06 06 ISBN 0 262 03561 8 OCLC 955778308 原始内容存档于2021 02 17 Schmidhuber Jurgen Deep learning in neural networks An overview Neural Networks January 2015 61 85 117 PMID 25462637 S2CID 11715509 arXiv 1404 7828 doi 10 1016 j neunet 2014 09 003 Hinton G E amp Zemel R S 1994 Autoencoders minimum description length and Helmholtz free energy In Advances in neural information processing systems 6 pp 3 10 Bengio Y Learning Deep Architectures for AI PDF Foundations and Trends in Machine Learning 2009 2 8 1795 7 2022 06 06 CiteSeerX 10 1 1 701 9550 PMID 23946944 doi 10 1561 2200000006 原始内容 PDF 存档于2015 12 23 取自 https zh wikipedia org w index php title 自编码器 amp oldid 75979874, 维基百科,wiki,书籍,书籍,图书馆,

文章

,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。