11. dropout下(为什么Dropout与BN不和谐共处)
12. 在Backbone不变的情况下,若显存有限,如何增大训练时的batchsize
18. 具体阐述一下ResNet网络的细节,你知道的ResNet网络的相关变种有哪些
1. 全连接层前向与反向传播代码
2. Dropout前向与反向
3. 激活函数之ReLu/Sigmoid/Tanh前向与反向传播
4. 卷积层与池化层前向与反向传播
5. BatchNorm2d前向反向传播
6. Flatten层前向与反向传播
7. 交叉熵损失函数前向与反向传播
8. 优化器代码