CBAM注意力模型介绍

天翼云开发者社区
• 阅读 159

本文分享自天翼云开发者社区《CBAM注意力模型介绍》,作者:Liuzijia

近年来,注意力机制在各项深度学习任务中表现出色。研究表明,人类视觉感知过程中,注意力机制发挥了积极的效果,可以帮助人们高效和自适应的处理视觉信息并聚焦于显著的画面区域,从而能够做出最准确的判断。因此,通过模拟视觉注意力机制,在网络结构中加入注意力模块,使模型可以更加关注待分类图像中的关键信息,抑制不相关的特征信息,促使模型对重要的特征区域更加敏感,从而有效提升相关任务的性能。本文简要介绍一种经典的混合注意力模型CBAM。

CBAM[1]是一种结合了通道与空间注意力的混合注意力模块,通过该模块可以自适应的强化特征提取过程。

CBAM注意力模型介绍 图1 CBAM结构(引用自文献[1])

图1为CBAM的结构。对于输入特征图,该模块会依次推断出一个通道注意力图M_c和一个空间注意力图M_s,如式1和式2所示:

CBAM注意力模型介绍

其中,F表示输入特征图;M_c表示得到通道注意力图;F'表示通道注意力模块的输出特征图;M_s表示得到的空间注意力图;F''表示该模块的最终输出;x表示矩阵对应元素相乘。

CBAM注意力模型介绍 图2 通道注意力模块(引用自文献[1])

图2为CBAM的通道注意力模块结构。对于输入特征图,首先利用在空间维度上的平均池化和最大值池化进行压缩,结合两种池化是为了对特征权重的学习更加精细,从而提升网络的特征表示能力,然后将池化后的特征输入到多层感知机中,为了减少计算参数量,会对隐藏层的大小进行降维,最后经激活函数得到注意力图,其计算过程如式3所示:

CBAM注意力模型介绍

其中,σ表示Sigmoid激活函数;F_avg和F_max分别表示空间维度上的平均池化(AvgPool)和最大值池化(MaxPool);W_0和W_1表示多层感知机(MLP)的共享参数;F表示输入特征图。

CBAM注意力模型介绍 图3 空间注意力模块(引用自文献[1])

图3为CBAM的空间注意力模块。首先利用在通道维度上的平均池化和最大值池化对输入特征图进行操作,然后拼接大小均为H×W×1的两个特征图,这样可以得到一个大小为H×W×2的特征图,最后利用一个卷积操作并经激活函数后得到空间注意力图,其计算过程如式4所示:

CBAM注意力模型介绍

其中,σ表示Sigmoid激活函数;f(7×7)表示尺寸为7 的卷积核;F_avg和F_max分别表示在通道维度上的平均池化(AvgPool)和最大值池化(MaxPool);F表示输入特征图。

[1] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module[C]//Proceedings of the European conference on computer vision (ECCV). 2018: 3-19

点赞
收藏
评论区
推荐文章
Wesley13 Wesley13
2年前
CSCNN:新一代京东电商广告排序模型
导读:随着电商平台对图像信息的大量引入,通过图像分析来进行广告点击率判断就成了新的趋势。本次分享的主题为CSCNN:新一代京东电商广告排序模型,主要介绍视觉信息在CTR排序模型中的应用。一方面,我们将介绍在工业场景下使用CNN将图像加入CTR模型联合建模的方法;另一方面,我们指出传统用于分类任务的CNN并不适合电商场景。将电商场景中丰富的、具有强视觉先验的"
Stella981 Stella981
2年前
LayoutLM——文本与布局的预训练用于文档图像理解
摘要:预训练技术近年来在多种NPL任务中取得了广泛的成功。尽管广泛的NPL应用的预训练模型,其大多聚焦于文本级别的操作,而忽略了布局与风格信息,这对文档图像的理解至关重要。该篇论文提出了LayoutLM来联合建模扫描文档图像的文本与布局信息关系,这将有益于真实世界中大量的图像理解任务,如文档图像的信息提取。此外,可以利用图像特征合并文字的视觉信息到
Stella981 Stella981
2年前
BraTS18——多模态MR图像脑肿瘤分割挑战赛续7
今天将继续分享从网络结构上进行改进提出NonLocalVNet模型来分割脑肿瘤。为了方便大家学习理解整个分割流程,我将整个流程步骤进行了整理,并给出每个步骤的结果,希望对大家有所帮助。一、NonLocal模块介绍在前面的文章中已经介绍过NonLocal模块,其主要思想就是自注意力机制,详细介绍请阅读Tensorflow入门教程(三十二)—
Wesley13 Wesley13
2年前
BERT代码实现及解读
注意力机制系列可以参考前面的一文:注意力机制及其理解(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fshikanon.com%2F2019%2F%25E6%259C%25BA%25E5%2599%25A8%25E5%25AD%25A6%25E4%25B9%25A0%2F%25E6%
胡赤儿 胡赤儿
5个月前
生成对抗网络(GANs):深度学习与计算机视觉的革新力量
随着深度学习的迅速发展,生成对抗网络(GANs)作为一种强大的生成模型,正逐步改变着计算机视觉、自然语言处理以及诸多相关领域的研究与应用格局。GANs以其独特的对抗性训练机制,成功地在数据生成、图像修复、风格迁移等任务中展现了出色的性能。本文将深入探讨GA
京东云开发者 京东云开发者
4个月前
探索大语言模型:理解Self Attention| 京东物流技术团队
一、背景知识在ChatGPT引发全球关注之后,学习和运用大型语言模型迅速成为了热门趋势。作为程序员,我们不仅要理解其表象,更要探究其背后的原理。究竟是什么使得ChatGPT能够实现如此卓越的问答性能?自注意力机制的巧妙融入无疑是关键因素之一。那么,自注意力
计算机视觉与信息取证技术讲解
今晚20:0022:00人工智能技术与自信计算机视觉就是用各种成像系统代替视觉器官作为输入敏感手段,由计算机来代替大脑完成处理和解释。计算机视觉的最终研究目标就是使计算机能象人那样通过视觉观察和理解世界,具有自主适应环境的能力。要经过长期的努力才能达到的目标。因此,在实现最终目标以前,人们努力的中期目标是建立一种视觉系统,这个系统能依据视觉敏感和反馈的某
高耸入云 高耸入云
8个月前
AIGC的底层核心结构Transformer是如何彻底改变NLP游戏规则的?OJAC近屿智能带你一探究竟
📖更多AI资讯请👉🏾没有Transformer,就没有NLP的突破,听起来有些夸张,但事实确实如此。什么是Transformer?Transformer是一种基于注意力机制的神经网络架构。可以用于处理序列数据,被广泛应用于翻译、识别等任务。这种模型的
linbojue linbojue
6个月前
算法人生(8):从“注意力算法”看“战胜拖延”(被分心太多版)
现代人拖延产生的原因有很多,比如因为害怕失败而拖延,因为完美主义倾向而拖延,不想走出“舒适区”而拖延等等,今天我们要针对一个常见的原因“被分心的事情太多”而产生的拖延来看,如何从“注意力算法”的思路中找到些启发。一、“注意力算法”简介注意力算法是一种在深度
天翼云开发者社区
天翼云开发者社区
Lv1
天翼云是中国电信倾力打造的云服务品牌,致力于成为领先的云计算服务提供商。提供云主机、CDN、云电脑、大数据及AI等全线产品和场景化解决方案。
文章
653
粉丝
14
获赞
40