深度学习week4_2

版权申明:本文为原创文章,转载请注明原文出处

原文链接:http://example.com/post/e41f7ea6.html

深度学习week4_2

经典网络

image-20230713105139679
image-20230713105457037
image-20230713110033606

残差网络

Resnet

非常深的网络是非常难以训练的,因为存在梯度消失和梯度爆炸

远跳连接:可从某一层网络层获取激活,然后迅速地反馈给另一层

a[i]插在另一层线性激活之后,relu之前的位置:

image-20230713114012656

普通神经网络理想状态:左边的绿线 实际状态:左边的蓝线

添加了残差网络的神经网络:右边

image-20230713114332900

残差网络为什么有用

残差学习恒等函数很有用,性能好

image-20230713115200541

网络中的网络以及1 * 1卷积

上面的相当于二维的每个元素乘以2

下面的相当于是将高确定,宽确定,一整个信道通过乘以适当权重组成一个新的值,最终形成一个二维平面,和1全连接概念有类似部分

image-20230713115622891

在想要减少信道数量的时候很有用:

image-20230713115854519

谷歌inception网络简介

基本思想是inception网络不需要认为决定使用哪个过滤器,或是否需要池化,而是由网络自行确定这些参数

可以给网络添加这些参数的所有可能的值,由网络自己去学习,比如下图,在一层中使用了多种卷积,有1 * 1过滤器,3 * 3过滤器,但是由于padding为same,代表输出和输入维度是一样的,对输入进行填充,最后将所有过滤器的内容排起来,作为下一层的输入

image-20230713150632543

但是直接将一个维度很大的变量压缩成一个维度很小的变量,这样的计算成本很大,因为每个点都需要计算很多次,可以先用1 * 1卷积训练乘以一个维度较小的变量,再将其扩大,这个维度较小的变量叫做瓶颈,合理利用瓶颈可以提高计算效率

inception网络

如图所示,和上节讲的一致,一层不止用一种卷积,同时对于大维度的变量,先压缩成瓶颈再扩大,

image-20230713171112496

google的inception网络

image-20230713171614807

使用开源的实现方案

编程

恒等块(维度一致):image-20230713185011241

卷积块(维度不一致,需要用卷积调整维度):

image-20230713185100305
Author

yyyyyyxnp

Posted on

2023-07-19

Updated on

2024-09-29

Licensed under

You need to set install_url to use ShareThis. Please set it in _config.yml.
You forgot to set the business or currency_code for Paypal. Please set it in _config.yml.

Comments

You forgot to set the shortname for Disqus. Please set it in _config.yml.