- 2025/4/5 3.6 BatchNorm 为什么起作用-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 3.5 将 Batch 拟合进神经网络-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 3.4 归一化网络的激活函数-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 3.3 超参数训练实战:Pandas vs. Caviar-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 3.2 为超参数选择合适的范围-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 3.1 调试处理-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.11 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.10 局部最优的问题-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.9 学习率衰减-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.8 Adam 优化算法-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.7 RMSprop-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.6 动量梯度下降法-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.5 指数加权平均的偏差修正-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.4 理解指数加权平均-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.3 指数加权平均-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.2 理解 Mini-batch 梯度下降-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 2.1 Mini-batch 梯度下降-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.14 梯度检验应用的注意事项-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.13 梯度检验-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.11 神经网络的权重初始化-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.10 梯度消失与梯度爆炸-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.9 归一化输入-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.8 其他正则化方法-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.7 理解 Dropout-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.6 Dropout 正则化-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.5 为什么正则化有利于预防过拟合-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.4 正则化-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
- 2025/4/5 1.3 机器学习基础-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授