Skip to content

Commit

Permalink
Merge pull request #77 from tigerneil/patch-7
Browse files Browse the repository at this point in the history
Update chap6.tex
  • Loading branch information
zhanggyb authored Nov 29, 2017
2 parents 07ed612 + c9e18b4 commit 6d98b19
Showing 1 changed file with 2 additions and 2 deletions.
4 changes: 2 additions & 2 deletions chap6.tex
Original file line number Diff line number Diff line change
Expand Up @@ -203,7 +203,7 @@ \section{介绍卷积网络}
5$ 块的图像表示,对应于\gls*{lrf}中的 $5 \times 5$ \gls*{weight}。白色块意味着一个小(典
型的,更小的负数)\gls*{weight},所以这样的特征映射对相应的输入像素有更小的响应。更暗的
块意味着一个更大的\gls*{weight},所以这样的特征映射对相应的输入像素有更大的响应。非常粗略
地讲,上面的图像显示了卷基层作出响应的特征类型
地讲,上面的图像显示了卷积层作出响应的特征类型

所以我们能从这些特征映射中得到什么结论?很明显这里有超出了我们期望的空间结构:这
些特征许多有清晰的亮和暗的子区域。这表示我们的网络实际上正在学习和空间结构相关的
Expand All @@ -220,7 +220,7 @@ \section{介绍卷积网络}
$20 \times 26 = 520$ 个参数来定义卷积层。作为对比,假设我们有一个全连接的第一层,
具有 $784 = 28 \times 28$ 个输入神经元,和一个相对适中的 $30$ 个隐藏神经元,正如
我们在本书之前的很多例子中使用的。总共有 $784 \times 30$\gls*{weight},加上额外的 $30$
\gls*{bias},共有 $23,550$个参数。换句话说,这个全连接的层有多达 $40$ 倍于卷基层的参
\gls*{bias},共有 $23,550$个参数。换句话说,这个全连接的层有多达 $40$ 倍于卷积层的参
数。

当然,我们不能真正做一个参数数量之间的直接比较,因为这两个模型的本质是不同的径。
Expand Down

0 comments on commit 6d98b19

Please sign in to comment.