提问者:小点点

Tensorflow ReLU输出激活返回NaN


我有一个类似yolo的网络架构,在输出层上,我想用坐标(如x、y、宽度、高度)来预测边界框。当我使用线性激活函数时,一切都很好,但是我的模型有时会预测负值,这在我的情况下是没有意义的,因为所有要预测的值对于x、y来说都在0到1之间,对于宽度和高度来说是3或5。我想我可以用ReLU激活来代替我的输出,但是如果我这样做,我的网络会被NaN作为损失值卡住。

知道为什么会这样吗?


共1个答案

匿名用户

如果没有你给我们更多的数据,这很难说。然而,在输入数据没有正确归一化的情况下,这似乎是一个常见的问题。

这里有一些链接,也许可以看看。如果没有帮助,你可能需要提供更多的信息,以便有人给出有用的答案

https://discuss.tensorflow.org/t/getting-nan-for-loss/4826

训练回归网络时的NaN损失