排序
Swin Transformer:窗口化的Transformer
0.引言 Swin Transformer是2021年微软研究院发表在ICCV(International Conference on Computer Vision)上的一篇文章,并且已经获得ICCV 2021最佳论文(Best Paper)的荣誉称号。Swin Transfor...
ShuffleNet:轻量化网络
1. ShuffleNet V1 ShuffleNet V1是由旷视科技在2017年底为移动设备打造的轻量级卷积神经网络。其创新之处在于采用了组卷积(Group Convolution)和通道打散(Channel Shuffle)的方法,保证网络...
Cycle-Consistent Adversarial Networks(CycleGAN)
引言 CycleGAN是一个革命性的技术,它在图像处理和计算机视觉领域开辟了新的可能性,尤其是在图像到图像的转换任务中。这项技术能够在没有成对示例的情况下,将一种风格的图像转换成另一种风格...
卷积的九大变体算法
引言 卷积神经网络(CNN)的核心在于其多样化的卷积技术,每种技术针对不同的应用和性能需求有着独特的优势。逐通道卷积和逐点卷积关注单独通道的特征提取和通道间信息的融合。深度可分离卷积结...
MobileNet:轻量化模型
1.MobileNet V1 MobileNet系列是由谷歌公司的Andrew G. Howard等人于2016年提出的轻量级网络结构,并于2017年发布在arXiv上。MobileNet系列的特点是模型小、计算速度快,适合部署到移动端或者嵌...
Vitis-AI量化编译MNIST手写数字识别
项目背景 在当前的数字化时代,快速准确的手写数字识别技术在各个领域都发挥着越来越重要的作用,尤其是在银行、邮政服务和数字化存档等行业。这些应用常常要在资源受限的环境中运行,例如嵌入...
VAN:基于卷积实现的注意力
0.引言 虽然Transformer最初是为自然语言处理任务而设计的,但最近已经在各种计算机视觉领域掀起了风暴。然而,图像是有空间信息的二维数据,这给计算机视觉中应用Transformer带来了三个挑战: ...
SENet:通道维度的注意力机制
0.引言 SENet于2017.9提出,其通过显式地建模卷积特征通道之间的相互依赖性来提高网络的表示能力。即通道维度上的注意力机制。SE模块仅需微小的计算成本,却产生了显著的性能改进。SENet Block...
ConvMixer: 创新之路,卷积与多层感知机的相互借鉴
0.引言 近年来,卷积神经网络一直是计算机视觉任务中的主要架构。然而,最近出现了基于Transformer模型的架构,例如ViT、Swin Transformer等,在许多任务中表现出引人注目的性能。相比于传统的...
Transformer算法详解
算法简介 Transformer架构于2017年6月推出。最初的研究重点是自然语言处理领域的翻译任务。随后,几个具有影响力的模型被引入,包括: (1)2018年6月:GPT,第一个预训练的Transformer模型,用...