深度学习 第3页
基于注意力机制的循环神经网络(Attention-Based RNN)-点头深度学习网站

基于注意力机制的循环神经网络(Attention-Based RNN)

算法原理 Attention-Based RNN 是一种基于注意力机制的 RNN 变体模型,它通过引入注意力机制来对序列中的不同部分进行加权,从而能够更好地捕捉序列数据中的重要信息。Attention-Based RNN...
点点的头像-点头深度学习网站点点6个月前
05514
长短期记忆网络(LSTM)和门控循环单元(GRU)算法详解-点头深度学习网站

长短期记忆网络(LSTM)和门控循环单元(GRU)算法详解

引言 传统循环神经网络在处理长序列时面临梯度消失或爆炸问题。梯度消失是指在训练过程中,误差反向传播时,梯度随着时间步数的增加而指数级衰减。梯度爆炸则正好相反,这会导致模型难以学习到...
点点的头像-点头深度学习网站点点6个月前
0539
自注意力机制(Self-Attention)-点头深度学习网站

自注意力机制(Self-Attention)

Transformer模型中最关键部分就是自注意力(Self-Attention)机制,正如 Transformer 的论文的标题是“Attention Is All You Need”!以文本问题为例来讲解这个机制。在处理文本问题时,自注意...
点点的头像-点头深度学习网站点点6个月前
05913
循环神经网络(RNN)算法详解-点头深度学习网站

循环神经网络(RNN)算法详解

引言 在第三章中,我们探讨了全连接神经网络(FCNN)和卷积神经网络(CNN)的结构,以及它们的训练方法和使用场景。值得注意的是,这两种网络结构都是处理独立的输入数据,即它们无法记忆或理解...
点点的头像-点头深度学习网站点点6个月前
0475
编码器-解码器模型(Encoder-Decoder)-点头深度学习网站

编码器-解码器模型(Encoder-Decoder)

编码器-解码器模型简介 Encoder-Decoder算法是一种深度学习模型结构,广泛应用于自然语言处理(NLP)、图像处理、语音识别等领域。它主要由两部分组成:编码器(Encoder)和解码器(Decoder)。...
点点的头像-点头深度学习网站点点6个月前
05612
AS-MLP:注意力驱动下的多层感知机升级-点头深度学习网站

AS-MLP:注意力驱动下的多层感知机升级

0.引言 AS-MLP模型出自上海科技大学和腾讯优图实验室共同合作发表的文章,题为AS-MLP: AN AXIAL SHIFTED MLP ARCHITECTURE FOR VISION。纯MLP网络架构专注于全局的信息交流,却忽略了局部信息的...
点点的头像-点头深度学习网站点点6个月前
06510
MLP-Mixer: 并肩卷积与自注意,多层感知机的神奇魔法-点头深度学习网站

MLP-Mixer: 并肩卷积与自注意,多层感知机的神奇魔法

0.引言 MLP-Mixer模型是谷歌AI团队于2021年初发表的文章,题为MLP-Mixer: An all-MLP Architecture for Vision。在计算机视觉领域的历史上,卷积神经网络一直是首选的模型。然而最近,注意力机...
点点的头像-点头深度学习网站点点6个月前
05214
VAN:基于卷积实现的注意力-点头深度学习网站

VAN:基于卷积实现的注意力

0.引言 虽然Transformer最初是为自然语言处理任务而设计的,但最近已经在各种计算机视觉领域掀起了风暴。然而,图像是有空间信息的二维数据,这给计算机视觉中应用Transformer带来了三个挑战: ...
点点的头像-点头深度学习网站点点6个月前
0696
ConvNeXt:卷积与设计策略的新篇章-点头深度学习网站

ConvNeXt:卷积与设计策略的新篇章

0.引言 自从ViT模型被提出以后,在过去的几年里,Transformer在深度学习领域大杀四方。回顾近几年,在计算机视觉领域发表的文章绝大多数都是基于Transformer模型的,比如2021年ICCV的Best Paper...
点点的头像-点头深度学习网站点点6个月前
06515
MetaFormer: 万法归一,构建未来的Transformer模板-点头深度学习网站

MetaFormer: 万法归一,构建未来的Transformer模板

0.引言 经过前几个MLP模型的介绍,相信很多读者都会思考一个问题:在计算机视觉任务中,哪种算法更适合呢?事实上,MetaFormer模型给出了答案:算法并不是最重要的,框架结构才是关键。MetaForm...
点点的头像-点头深度学习网站点点6个月前
07311