diff --git a/chap6.tex b/chap6.tex index b856fc2..054eee0 100644 --- a/chap6.tex +++ b/chap6.tex @@ -203,7 +203,7 @@ \section{介绍卷积网络} 5$ 块的图像表示,对应于\gls*{lrf}中的 $5 \times 5$ \gls*{weight}。白色块意味着一个小(典 型的,更小的负数)\gls*{weight},所以这样的特征映射对相应的输入像素有更小的响应。更暗的 块意味着一个更大的\gls*{weight},所以这样的特征映射对相应的输入像素有更大的响应。非常粗略 -地讲,上面的图像显示了卷基层作出响应的特征类型。 +地讲,上面的图像显示了卷积层作出响应的特征类型。 所以我们能从这些特征映射中得到什么结论?很明显这里有超出了我们期望的空间结构:这 些特征许多有清晰的亮和暗的子区域。这表示我们的网络实际上正在学习和空间结构相关的 @@ -220,7 +220,7 @@ \section{介绍卷积网络} $20 \times 26 = 520$ 个参数来定义卷积层。作为对比,假设我们有一个全连接的第一层, 具有 $784 = 28 \times 28$ 个输入神经元,和一个相对适中的 $30$ 个隐藏神经元,正如 我们在本书之前的很多例子中使用的。总共有 $784 \times 30$ 个\gls*{weight},加上额外的 $30$ -个\gls*{bias},共有 $23,550$个参数。换句话说,这个全连接的层有多达 $40$ 倍于卷基层的参 +个\gls*{bias},共有 $23,550$个参数。换句话说,这个全连接的层有多达 $40$ 倍于卷积层的参 数。 当然,我们不能真正做一个参数数量之间的直接比较,因为这两个模型的本质是不同的径。