交叉熵损失函数(如何直观地解释back propagation算法)
这个推导可以参考neuralnetworkanddeeplearning.com,上面的过程很详细,甚至有些啰嗦;要注意使用不同误差评估函数,公式的不同,交叉熵可能更方便些,加入正则化因子也是常用手段;如果最...
交叉熵损失函数(RNN为什么会梯度消失)
梯度消失/梯度爆炸的问题不仅仅是RNN有,而是深度神经网络所面临的问题。 这里简单地介绍一下RNN和RNN梯度消失的原因。 RNN RNN是循环神经网络的英文缩写(也是递归神经网络的英文缩...
-
共1页/2条