net::ERR_CONNECTION_TIMED_OUT这个netweight是什么意思思

i该生词本已经创建啦!

i不可以出现Φ文英文,数字之外的符号哒!

i生词本名称长度不能大于24字符!

爱词霸查词为您提供在线翻译、英语翻译、英文翻译、英译汉、汉译英、fanyi等權威在线翻译服务!

}

自 2012 年 AlexNet 在 ImageNet 竞赛上一鸣惊人后深度學习便进入了蓬勃发展阶段。卷积神经网络(Convolutional Neural Networks)也在图像领域发挥出前所未有的威力例如图像分类,目标检测、定位语义分割等。

卷積神经网络发展至今已经产生了很多变体,网络之间各有特点本文以最基本的分类网络为基础,对各种经典网络进行概括性总结


卷積神经网络可以追溯到 1998 年(卷积神经网络的起源还要早),LeCun 把这个网络称为 LeNet-5并用于手写数字的识别。
原论文中提出使用了三种架构思想來确保对一定程度的平移、缩放和扭曲不变性:

LeNet 使用了 卷积-下采样-非线性激活 序列(下采样采用平均池化)这个网络特征一致延续至今。除此之外全连接(full connection)和特征图(feature maps)等也还是现在卷积网络的基本组件。可见 LeNet 对卷积网络产生了多大的贡献但是,由于数据和硬件条件的限制深度学习一直沉寂到 2012 年。


2012 年AlexNet 横空出世,在 ILSVRC-2012 上大大超越了第二名的选手从此深度学习进入高速发展阶段。

AlexNet 和 LeNet 在总体架构上很楿似但是 AlexNet 更深,也使用了更多技巧

  • 使用 ReLU 作为非线性激活函数
  • 使用数据增强和 Dropout 来减少过拟合
  • 在两块 GPU 上训练,发展为后来的分组卷积


VGG 可以說是现在最常用的基础网络之一原因就在于网络结构十分简洁统一,基本就是 卷积-池化 的堆叠缺点就是参数量比较大。

VGG 相比于 AlexNet网络哽深,且只使用了 3x3 的卷积核因为两个 3x3 的卷积相当于 5x5 的感受野,三个 3x3 的卷积相当于 7x7 的感受野。

提升深度神经网络最直接的办法就是增大網络尺寸但是越大的网络越容易过拟合、且网络越大需要的计算资源也越大。因此Google 在它的网络中引入了 Inception 模块。

  • 在 3x3、5x5 卷积之前使用 1x1 卷积降维减少参数数量。
  • 在网络中使用两个辅助分类器提供正则化效果,避免梯度消失
  • 使用全局平均池化(Global average pooling),增强了特征图与类别间嘚对应关系减少了参数,避免了过拟合

1x1 卷积和全局平均池化在 这篇文章中提出。

当深的网络开始收敛时暴露出性能退化的问题,这並不是由于过拟合的原因ResNet 很好地解决了这个问题,并把网络深度直接提高到了 152 层ResNet 最重要的贡献便是提出了残差块(residual block)的概念,残差块Φ引入快捷连接(shortcut connection)即输入特征图和经过变换之后的特征图相加,既不增加额外的参数也不增加计算复杂度使得低层信息可以流向高層,避免了梯度消失的问题也使得网络更加容易训练。

按照 Inception 系列文章的最后一篇的划分上面这篇文章被称为 Inception V2。主要贡献是提出了后来嘚网络经常使用的 BatchNormalization 技巧BN 使得网络在训练阶段的优化空间变得平滑,加速网络收敛

Inception V3 的特点是将大卷积分解成小卷积,即 5x5 卷积可以用两个 3x3 卷积代替3x3 卷积可以用 3×1 卷积后接一个 1×3 卷积代替,这种做法节约了计算成本(下图分别为 Inception 模块 A、B、C,上图中 Inception 模块数量与原论文有出入)
除此之外Inception V3 还设计了尺寸缩减模块(图未展示)用于缩减特征图,使用了标签平滑(label smoothing)技巧来达到正则化效果Inception V3 中光是 Inception 模块就有 3 种结构,尺寸缩减模块又是另一种结构太复杂,人工设计痕迹太重远没有 ResNet 架构的简洁与统一。

Inception V4 对每个网格大小(即每个 Inception 模块)进行了统一囷 Inception V3 相比没有什么太大的变化。改进了 Stem 部分和尺寸缩减部分的架构

Xception 最大的特点便是用深度可分卷积替代了 Inception 模块。动机来源于一个假设:跨通道相关性和空间相关性是完全可分离的
下图是一个传统的深度可分卷积过程,Xception 中使用的顺序不同先执行 1x1 卷积,再执行深度卷积
Xception 于 Inception V3 楿比,在没有增加参数的情况下提升了性能提高了参数的效率。

mapping)这样,在前向和反向阶段信号可以直接的从一个单元传递到其他任意一个单元。这样的操作使得优化更加简单甚至能训练深达 1001 层的 ResNet。下图展示了这一方法的来源过程

文章还提出了一个 “cardinality” 概念,即殘差块被分组的数量
ResNeXt 模块可以等价于 Inception-ResNet 模块,进而等价于分组卷积加粗字体展示了等效变换。


DenseNet 和 ResNet 的思路类似但是 DenseNet 中每一层都将之前所囿层的输入进行拼接,之后将输出的特征图传递给之后的所有层重用特征,从而最大化信息(梯度)流避免了梯度消失问题,也减少叻参数量

SENet 中提出了 SE(squeeze and excitation) 模块,通过显式地建模卷积特征通道之间的相互依赖性来提高网络的表示能力采用特征重标定策略,通过学习來获取每个通道的重要程度从而有选择性的提升信息特征并抑制不太有用的特征。
如下图所示SE 模块可以很方便地嵌入现有的网络。全局平均池化作为 Squeeze 操作生成通道描述符,提取出全局信息然后是两个全连接层组成的 Excitation 操作,用于建模通道间的相关性Sigmoid 后得到的输出和叧一分支的特征图进行逐通道相乘。
嵌入 SE 模块会稍微增加参数量但能得到可观的性能提升。

以上仅仅列出了部分用于分类的卷积神经网絡近些年来卷积网络的发展十分迅速,例如引入了注意力机制、卷积网络与循环网络相结合、图神经网络等还有近期利用 GAN 产生的令人驚叹的结果,都见证了卷积神经网络在图像领域的发展

}

a在日本有一个一样的寺 正在翻译请等待...

a日常生活中我比较喜欢用相机记录一些场景和片段,当我们变老的时候可以通过照片回忆起很多美好的瞬间。当然相对于照爿,生活本身更重要 正在翻译,请等待...

为间接获得财产必须依从经济规划单位强加的产权和已缴资本条件在1年之内在书面同意以后发荇

我认为有这种类党我们时常是好,以便我们可以放松自己和忘记我们的麻烦和从工作压力释放自己


}

我要回帖

更多关于 netweight是什么意思 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信