• 做WB为什么要用内参

    在深度学习模型中,权重和偏置参数被称为模型的“内参”(internal parameters)。使用内参进行批归一化(Batch Normalization)有以下几个重要原因:1. 解决梯度消失