• 交叉熵损失函数(如何直观地解释back propagation算法)

    这个推导可以参考neuralnetworkanddeeplearning.com,上面的过程很详细,甚至有些啰嗦;要注意使用不同误差评估函数,公式的不同,交叉熵可能更方便些,加入正则化因子也是常用手段;如果最...

    22 2022-09-26 15:24

  • 交叉熵损失函数(RNN为什么会梯度消失)

    梯度消失/梯度爆炸的问题不仅仅是RNN有,而是深度神经网络所面临的问题。 这里简单地介绍一下RNN和RNN梯度消失的原因。 RNN RNN是循环神经网络的英文缩写(也是递归神经网络的英文缩...

    30 2022-09-24 09:27

    • 共1页/2条
    返回顶部小火箭