排序
BERT, ELMo大语言模型详解
引言 2018年,对于处理文本的机器学习模型来说,可谓是一个转折点(更准确地说,是自然语言处理或简称NLP领域)。我们对于如何最佳地表示词语和句子,以捕捉其潜在的含义和关系的理解正在迅速发...
MetaFormer: 万法归一,构建未来的Transformer模板
0.引言 经过前几个MLP模型的介绍,相信很多读者都会思考一个问题:在计算机视觉任务中,哪种算法更适合呢?事实上,MetaFormer模型给出了答案:算法并不是最重要的,框架结构才是关键。MetaForm...
ResNet:神来之“路”
0.引言 深度残差网络(Deep Residual Network, ResNet)的提出是基于卷积算法处理图像问题领域的一件里程碑事件。ResNet在2015年发表当年取得了图像分类、检测等5项大赛第一,并再次刷新了CNN模...
EfficientNet:轻量化网络
1.EfficientNetV1 EfficientNet源自Google Brain的论文EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks。从标题中可以看出,这篇论文最主要的创新点是模型缩放。论...
Graph Attention Networks(GAT)
本章来学习一下图注意力网络GAT,首先对标GCN,来谈谈它们的优缺点。 GCN是处理transductive任务的一把利器,transductive任务是指:训练阶段与测试阶段都基于同样的图结构,如下图所示。 ...
AS-MLP:注意力驱动下的多层感知机升级
0.引言 AS-MLP模型出自上海科技大学和腾讯优图实验室共同合作发表的文章,题为AS-MLP: AN AXIAL SHIFTED MLP ARCHITECTURE FOR VISION。纯MLP网络架构专注于全局的信息交流,却忽略了局部信息的...
AlexNet:深度学习崛起的标志
1.AlexNet理论 AlexNet模型与LeNet模型有很多相似之处,它可以被看作是LeNet的改进版本,都由卷积层和全连接层构成。然而,AlexNet之所以能够在ImageNet比赛中大获成功,还要归功于其独特...
扩散模型(Diffusion Model)
扩散模型的基本原理 Denoising Diffusion Probabilistic Models (DDPM) 是一种利用扩散过程来生成样本的深度学习模型。其主要的灵感来源于扩散过程,通过逐渐增加噪音来模糊一个初始的图像,并...
GPT-2:迈向先进语言模型的大步
2023年,我们见证了机器学习的一个耀眼应用——OpenAI的Chat GPT。这个模型不仅仅展现了写作连贯、充满激情的文章的能力,更超出了我们对当前语言模型能力的预期。Chat GPT虽然并非一个特别新颖...
ConvMixer: 创新之路,卷积与多层感知机的相互借鉴
0.引言 近年来,卷积神经网络一直是计算机视觉任务中的主要架构。然而,最近出现了基于Transformer模型的架构,例如ViT、Swin Transformer等,在许多任务中表现出引人注目的性能。相比于传统的...