MATLAB求出分類錯誤率最小的分類器,nn mnist 錯誤率 Matlab,(MNIST-GAN)鑒頻器和發生器的誤差在第一次迭代后接近于零...

 2023-10-18 阅读 26 评论 0

摘要:為了深入了解生成性對抗性網絡,我正在嘗試使用tensorflow實現基于這個Stanford university assignment的MNIST數據集的GAN。在我仔細復習和研究了我對給定練習的解決方案,并通過了測試。但是,我的發電機只會制造噪音。在我很確定我的helper函數是正確的&

為了深入了解生成性對抗性網絡,我正在嘗試使用tensorflow實現基于這個Stanford university assignment的MNIST數據集的GAN。在

我仔細復習和研究了我對給定練習的解決方案,并通過了測試。但是,我的發電機只會制造噪音。在

我很確定我的helper函數是正確的,所有的測試都通過了,我在網上找到了顯示完全相同實現的參考。所以在哪里可以

出錯的只是鑒別器和生成器架構:def discriminator(x):

MATLAB求出分類錯誤率最小的分類器。with tf.variable_scope("discriminator"):

l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None))

l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None))

logits = tf.layers.dense(l_2, 1, activation=None)

return logits

matlab異常數據剔除、def generator(z):

with tf.variable_scope("generator"):

l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0)

l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0)

img = tf.tanh(tf.layers.dense(l_2, 784, activation=None))

matlab對函數進行采樣和恢復,return img

我看到生成器和鑒別器的錯誤在第一次迭代中下降到接近于零。在

^{pr2}$

在較低的學習速率下,例如1e-7,鑒別器和生成器的錯誤率緩慢衰減,但最終會降到零,只會產生噪聲。在Iter: 0, D: 1.722, G:0.6772

Iter: 50, D: 1.704, G:0.665

matlab采樣周期怎么設置,Iter: 100, D: 1.698, G:0.661

Iter: 150, D: 1.663, G:0.6594

Iter: 200, D: 1.661, G:0.6574

...

我的實驗沒有解釋任何有意義的東西。

欠采樣后信號頻率怎么求、如果您有任何建議或可以推薦一種調試技術,我很樂意聽到。在

根據要求,以下是我的GAN-Loss代碼:def gan_loss(logits_real, logits_fake):

labels_real = tf.ones_like(logits_real)

labels_fake = tf.zeros_like(logits_fake)

d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real)

matlab誤差分析代碼、d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)

D_loss = tf.reduce_mean(d_loss_real + d_loss_fake)

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake))

return D_loss, G_loss

版权声明:本站所有资料均为网友推荐收集整理而来,仅供学习和研究交流使用。

原文链接:https://808629.com/154737.html

发表评论:

本站为非赢利网站,部分文章来源或改编自互联网及其他公众平台,主要目的在于分享信息,版权归原作者所有,内容仅供读者参考,如有侵权请联系我们删除!

Copyright © 2022 86后生记录生活 Inc. 保留所有权利。

底部版权信息