python – Keras autoencoder简单的例子有一个奇怪的输出
作者:互联网
我正在尝试运行一个简单的自动编码器,所有的训练输入都是一样的.训练数据特征等于3,隐藏层中有3个节点.我用该输入训练自动编码器,然后我再次尝试预测它(编码/解码)(所以如果自动编码器按原样传递一切而没有任何改变它应该工作)
无论如何,情况并非如此,我有点难以理解为什么.我不确定我的代码或者我对autoencdoer实现的理解是否有问题.这是代码供参考.
附:我玩了一些epoches,训练集中的例子数量,批量大小,训练数据值在0-1之间,并跟踪损失值,但这也无济于事.
`
from keras.layers import Input, Dense
from keras.models import Model
import numpy as np
# this is the size of our encoded representations
encoding_dim = 3
x_train=np.array([[1,2,3],[1,2,3],[1,2,3],[1,2,3],[1,2,3],[1,2,3],[1,2,3],[1,2,3],[1,2,3]])
in= Input(shape=(3,))
encoded = Dense(encoding_dim, activation='relu')(in)
decoded = Dense(3, activation='sigmoid')(encoded)
# this model maps an input to its reconstruction
autoencoder = Model(in, decoded)
autoencoder.compile(optimizer='adadelta', loss='mse')
autoencoder.fit(x_train, x_train,
epochs=100,
batch_size=4)
autoencoder.predict(x_train)
`
我得到的输出应该与输入相同(或至少接近),但我得到了这个)
`Out[180]:
array([[ 0.80265796, 0.89038897, 0.9100889 ],
[ 0.80265796, 0.89038897, 0.9100889 ],
[ 0.80265796, 0.89038897, 0.9100889 ],
...,
[ 0.80265796, 0.89038897, 0.9100889 ],
[ 0.80265796, 0.89038897, 0.9100889 ],
[ 0.80265796, 0.89038897, 0.9100889 ]], dtype=float32)`
任何帮助将不胜感激,我很可能理解错误,所以希望这个问题不难回答.
解决方法:
错误在这里被解码=密集(3,激活=’sigmoid’)(编码).
你不应该使用sigmoid激活,因为它将限制输出范围(0,1),用线性替换sigmoid或只是删除它,你可以添加更多的时期,例如训练1000个时代.在这种情况下,我得到你需要的东西
[[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]
[ 0.98220336 1.98066235 2.98398876]]
此外,您应该使用其他名称替换输入,因为它是Python中的关键字:-).
标签:python,deep-learning,keras,autoencoder 来源: https://codeday.me/bug/20190717/1486932.html