排序
图神经网络:图的向量化
引言 图神经网络(Graph Neural Networks,GNNs)是一种专门用于处理图形数据的神经网络架构。图形数据是一种非欧几里得数据,其中主要包括节点(vertices)和边(edges),节点代表实体,边表...
Cycle-Consistent Adversarial Networks(CycleGAN)
引言 CycleGAN是一个革命性的技术,它在图像处理和计算机视觉领域开辟了新的可能性,尤其是在图像到图像的转换任务中。这项技术能够在没有成对示例的情况下,将一种风格的图像转换成另一种风格...
自注意力机制(Self-Attention)
Transformer模型中最关键部分就是自注意力(Self-Attention)机制,正如 Transformer 的论文的标题是“Attention Is All You Need”!以文本问题为例来讲解这个机制。在处理文本问题时,自注意...
ZFNet:卷积原理的深度解析
0.引言 ZFNet模型是由Matthew D. Zeiler和Rob Fergus在AlexNet的基础上提出的大型卷积网络,获得了2013年ILSVRC图像分类竞赛的冠军。其错误率为11.19%,较去年的AlexNet下降了5%。ZFNet解...
Improved GANs
“Improved Techniques for Training GANs”是一篇由Ian J. Goodfellow 和他的同事在 2016 年发表的论文,这篇论文对生成对抗网络(GANs)的训练过程做出了重要的改进和提议。这些改进主要集中...
MobileNet:轻量化模型
1.MobileNet V1 MobileNet系列是由谷歌公司的Andrew G. Howard等人于2016年提出的轻量级网络结构,并于2017年发布在arXiv上。MobileNet系列的特点是模型小、计算速度快,适合部署到移动端或者嵌...
编码器-解码器模型(Encoder-Decoder)
编码器-解码器模型简介 Encoder-Decoder算法是一种深度学习模型结构,广泛应用于自然语言处理(NLP)、图像处理、语音识别等领域。它主要由两部分组成:编码器(Encoder)和解码器(Decoder)。...
VGGNet: 探索深度的力量
1.VGGNet模型总览 2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员Karen Simonyan和Andrew Zisserman研发出了新的深度卷积神经网络:VGGNet,并在ILSVRC2...
BERT, ELMo大语言模型详解
引言 2018年,对于处理文本的机器学习模型来说,可谓是一个转折点(更准确地说,是自然语言处理或简称NLP领域)。我们对于如何最佳地表示词语和句子,以捕捉其潜在的含义和关系的理解正在迅速发...
MetaFormer: 万法归一,构建未来的Transformer模板
0.引言 经过前几个MLP模型的介绍,相信很多读者都会思考一个问题:在计算机视觉任务中,哪种算法更适合呢?事实上,MetaFormer模型给出了答案:算法并不是最重要的,框架结构才是关键。MetaForm...