前馈神经网络(FNN)是一种最简单且最常用的人工神经网络模型。其基本特征是信息单向流动,即从输入层开始,经过一个或多个隐藏层,最终到达输出层,而没有循环或反馈。
前馈神经网络的基本组成部分
- 输入层(Input Layer):
- 接收外部输入数据的神经元。
- 输入层的神经元数量等于输入特征的数量。
- 隐藏层(Hidden Layers):
- 由一个或多个神经元层组成,位于输入层和输出层之间。
- 每一层中的神经元通过权重和偏置与前一层的神经元相连。
- 经过激活函数的非线性变换,使得网络可以学习复杂的模式和特征。
- 输出层(Output Layer):
- 提供最终预测或分类结果的神经元。
- 输出层的神经元数量取决于具体任务,例如二分类问题有一个神经元,多分类问题有多个神经元。
前馈神经网络的特点
- 单向流动:数据从输入层开始,经过隐藏层,最终到达输出层,中间没有循环或反馈。
- 全连接层:每层的每个神经元与下一层的每个神经元相连,形成全连接结构。
- 激活函数:隐藏层和输出层的神经元通常使用激活函数(如Sigmoid、ReLU、Tanh等)来引入非线性特性,提高模型的表达能力。
卷积神经网络(CNN):用于图像处理,提取局部特征。循环神经网络(RNN):用于处理序列数据,记忆序列中的信息。长短期记忆网络(LSTM):改进RNN,处理长期依赖问题。变压器网络(Transformer):基于自注意力机制,擅长处理序列数据并支持并行计算。生成对抗网络(GANs):用于生成逼真的数据样本,通过生成器和判别器的对抗训练提升性