排序
生成对抗网络(GAN)
引言 生成对抗网络(GAN)是深度学习领域的一个革命性概念,为数据生成提供了一种全新的方式。其名称中的“对抗”体现了核心思想:通过两个神经网络之间的相互竞争来生成数据。这两个网络分别是...
演员-评论家模型
1 算法介绍:演员-评论家(Actor-Critic)模型 演员-评论家(Actor-Critic)模型是一种结合了基于值的方法和基于策略的方法的强化学习框架。这个模型的核心思想是将策略决策(演员)和值函数估...
反向传播算法(Back Propagation)
反向传播算法 梯度下降和反向传播是神经网络训练过程中两个非常重要的概念,它们密切相关。梯度下降是一种常用的优化算法,它的目标是找到一个函数的最小值或最大值。在神经网络中,梯度下降算...
ShuffleNet:轻量化网络
1. ShuffleNet V1 ShuffleNet V1是由旷视科技在2017年底为移动设备打造的轻量级卷积神经网络。其创新之处在于采用了组卷积(Group Convolution)和通道打散(Channel Shuffle)的方法,保证网络...
强化学习基础概念
1 概念 在这个不断进步的技术世界中,强化学习(Reinforcement Learning, RL)作为机器学习的一个重要分支,正迅速发展成为理解人工智能(AI)和机器学习领域的关键。与传统的机器学习方法相比...
Swin Transformer:窗口化的Transformer
0.引言 Swin Transformer是2021年微软研究院发表在ICCV(International Conference on Computer Vision)上的一篇文章,并且已经获得ICCV 2021最佳论文(Best Paper)的荣誉称号。Swin Transfor...
神经网络算法详解
引言 神经网络,作为人工智能和机器学习领域的核心技术之一,具有极其重要的意义。它们通过模拟人类大脑的工作机制,使计算机能够学习和识别复杂的模式和数据。这种能力使得神经网络在诸多领域...
VAN:基于卷积实现的注意力
0.引言 虽然Transformer最初是为自然语言处理任务而设计的,但最近已经在各种计算机视觉领域掀起了风暴。然而,图像是有空间信息的二维数据,这给计算机视觉中应用Transformer带来了三个挑战: ...
Transformer算法详解
算法简介 Transformer架构于2017年6月推出。最初的研究重点是自然语言处理领域的翻译任务。随后,几个具有影响力的模型被引入,包括: (1)2018年6月:GPT,第一个预训练的Transformer模型,用...
变分自编码器(VAE)算法详解
VAE模型简明指导 VAE最想解决的问题是如何构造编码器和解码器,使得图片能够编码成易于表示的形态,并且这一形态能够尽可能无损地解码回原真实图像。 这似乎听起来与PCA(主成分分析)有些相似...