0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

多层感知机(MLP)的设计与实现

CHANBAEK 来源:编程圈子 作者:编程圈子 2023-03-14 11:31 次阅读

一、概念

1. MLP

多层感知机(Multilayer Perceptron)缩写为MLP,也称作前馈神经网络(Feedforward Neural Network)。 它是一种基于神经网络的机器学习模型,通过多层非线性变换对输入数据进行高级别的抽象和分类。

与单层感知机相比,MLP有多个隐藏层,每个隐藏层由多个神经元组成,每个神经元通过对上一层的输入进行加权和处理,再通过激活函数进行非线性映射。

MLP的输出层通常是一个 softmax 层,用于多分类任务,或者是一个 sigmoid 层,用于二分类任务。

由于它的强大表达能力和灵活性,MLP被广泛应用于各种机器学习任务中。

2. 前向传播

由于有多个层,参数需要在这些层之间传递。 首先需要实现的就是参数的前向传播,计算过程如下:

  1. 将输入数据传递给第一个隐藏层的神经元;
  2. 对于每个神经元,计算其加权和,即将输入与对应的权重相乘并求和,再加上偏置项;
  3. 将加权和输入到激活函数中,得到激活值,作为该神经元的输出;
  4. 将每个神经元的输出传递到下一层的神经元,直至输出层。

在这个过程中,数据和权重是前向传播的主要传播内容。

3. 反向传播

利用链式法则对网络中的参数进行梯度更新。 在训练神经网络时,通常需要定义一个损失函数(loss function),用于评估模型预测结果与真实标签之间的差距。 反向传播算法的目标就是最小化这个损失函数。

在反向传播过程中,算法首先计算损失函数对最后一层的输出的梯度,然后根据链式法则逐层向前计算各层的梯度,并利用梯度下降法更新网络中的参数。 具体地,算法会先将损失函数对输出的梯度传回网络最后一层,然后依次向前计算各层的梯度。 在计算梯度的过程中,算法会利用反向传播公式来计算当前层的梯度,然后将这个梯度传递到前一层。 在更新网络参数时,算法会根据计算出的梯度和学习率来更新网络中的权重和偏置。

通过不断地反复迭代前向传播和反向传播两个阶段,可以不断地更新网络中的参数,从而逐渐提高模型的性能。

下面是一个Python计算反向传播的示例:

for epoch in range(num_epochs):
            for x, y_true in zip(x_train, y_train):
                # 前向传播
                hidden_layer = np.maximum(0, np.dot(x, self.weights1) + self.bias1)  # ReLU激活函数
                y_pred = np.dot(hidden_layer, self.weights2) + self.bias2

                # 计算损失和梯度,使用均方误差作为损失函数(Mean Squared Error,MSE)
                # 对于每一个样本,模型预测出来的输出与实际输出之间的差异会被平方,
                # 然后对所有样本的平方差进行求和并除以样本数,即可得到MSE作为模型的损失函数。
                loss = np.square(y_true - y_pred).sum()

                # 下面复杂的方法用来实现反向传播
                # 计算损失函数关于预测输出的导数
                d_loss_pred = -2.0 * (y_true - y_pred)
                # 计算输出层的梯度,
                d_weights2 = np.dot(hidden_layer.reshape(-1, 1), d_loss_pred.reshape(1, -1))
                # 计算输出层偏置的梯度,其值等于输出误差
                d_bias2 = d_loss_pred
                # 计算隐藏层误差,其中 self.weights2.T 代表输出层权重的转置,
                # 计算得到的结果是一个行向量,代表每个隐藏层节点的误差。
                d_hidden = np.dot(d_loss_pred, self.weights2.T)
                # 将隐藏层误差中小于等于 0 的部分置为 0,相当于计算 ReLU 激活函数的导数,
                # 这是因为 ReLU 函数在小于等于 0 的部分导数为 0
                d_hidden[hidden_layer <= 0] = 0  # ReLU激活函数的导数
                # 计算隐藏层权重的梯度,
                # 其中 x.reshape(-1, 1) 代表将输入变为列向量,
                # d_hidden.reshape(1, -1) 代表将隐藏层误差变为行向量,
                # 两者的点积得到的是一个矩阵,
                # 这个矩阵的行表示输入的维度(也就是输入节点的个数),
                # 列表示输出的维度(也就是隐藏层节点的个数),表示每个输入和每个隐藏层节点的权重梯度。
                d_weights1 = np.dot(x.reshape(-1, 1), d_hidden.reshape(1, -1))
                # 计算隐藏层偏置的梯度,其值等于隐藏层误差。
                d_bias1 = d_hidden

                # 更新权重和偏置
                self.weights2 -= learning_rate * d_weights2
                self.bias2 -= learning_rate * d_bias2
                self.weights1 -= learning_rate * d_weights1
                self.bias1 -= learning_rate * d_bias1

4. 评估模式与训练模式

  • 在训练阶段,需要调用 model.train() 来指定模型为训练模式,以便启用训练中需要的特性,如 dropout 和 batch normalization 等。
  • 如果在训练过程中需要评估模型的性能,可以在评估前调用 model.eval(),以确保模型处于评估模式,而不是训练模式。
  • 在测试阶段,需要调用 model.eval() 来指定模型为评估模式,以便禁用 dropout 和 batch normalization 等特性,以及启用测试中需要的特性,如在计算中间层的输出等。
  • 在预测阶段,需要调用 model.eval() 来指定模型为预测模式,以便禁用 dropout 和 batch normalization 等特性,并且只计算模型的前向传播,以生成模型的输出,而不更新模型的权重。

二、模型定义

1. 加载数据集

本示例使用 MNIST 数据集。

import torch
from torchvision import datasets, transforms
from torch.autograd import Variable
import time
import matplotlib.pyplot as plt

# 定义ToTensor和Normalize的transform
to_tensor = transforms.ToTensor()
normalize = transforms.Normalize((0.5,), (0.5,))

# 定义Compose的transform
transform = transforms.Compose([
    to_tensor,  # 转换为张量
    normalize  # 标准化
])

# 下载数据集
data_train = datasets.MNIST(root="..//data//",
                            transform=transform,
                            train=True,
                            download=True)

data_test = datasets.MNIST(root="..//data//",
                           transform=transform,
                           train=False,
                           download=True)
# 装载数据
data_loader_train = torch.utils.data.DataLoader(dataset=data_train,
                                                batch_size=64,
                                                shuffle=True)

data_loader_test = torch.utils.data.DataLoader(dataset=data_test,
                                               batch_size=64,
                                               shuffle=True)

2. 定义MLP层

下面定义一个有三个层的MLP。
对于这个MLP,它接收一个num_i的输入,输出为num_o的预测值。 隐藏层有2层,每层大小为num_h。
层的定义如下:

  • self.linear1:输入层到第一层隐藏层的线性转换,其中num_i为输入的特征数,num_h为第一层隐藏层的特征数。
  • self.relu:第一层隐藏层的激活函数,采用ReLU。
  • self.linear2:第一层隐藏层到第二层隐藏层的线性转换,其中num_h为第一层隐藏层的特征数,num_h为第二层隐藏层的特征数。
  • self.relu2:第二层隐藏层的激活函数,采用ReLU。
  • self.linear3:第二层隐藏层到输出层的线性转换,其中num_h为第二层隐藏层的特征数,num_o为输出的特征数(或者说类别数)。
class MLP(torch.nn.Module):

    def __init__(self, num_i, num_h, num_o):
        super(MLP, self).__init__()

        self.linear1 = torch.nn.Linear(num_i, num_h)
        self.relu = torch.nn.ReLU()
        self.linear2 = torch.nn.Linear(num_h, num_h)  # 2个隐层
        self.relu2 = torch.nn.ReLU()
        self.linear3 = torch.nn.Linear(num_h, num_o)

3. 前向传播

def forward(self, x):
        x = self.linear1(x)
        x = self.relu(x)
        x = self.linear2(x)
        x = self.relu2(x)
        x = self.linear3(x)
        return x

在前向传播时,输入x先通过第一层的线性转换,然后经过第一层隐藏层的激活函数,
再通过第二层的线性转换,再经过第二层隐藏层的激活函数,
最后输出预测值。

4. 优化器

本文将使用PyTorch的优化器工具用于反向传播 。
优化器(optimizer)是一个用于更新模型参数的工具,根据训练集的损失函数(loss function)和反向传播算法(backpropagation algorithm)计算梯度,并使用梯度下降算法(gradient descent algorithm)更新模型参数,以最小化损失函数的值。

PyTorch提供了许多常用的优化器,如随机梯度下降法(SGD)、Adam、Adagrad、RMSprop等。
这些优化器使用不同的更新策略,根据不同的训练任务和数据集选择合适的优化器可以提高训练效率和性能。

5. 反向传播

本文使用和PyTorch优化器的一个实例: torch.optim.Adam(),它使用反向传播算法计算梯度并更新模型的权重,从而调整模型参数以最小化损失函数。

三、训练

def train(model):

    cost = torch.nn.CrossEntropyLoss()
    optimizer = torch.optim.Adam(model.parameters())
    # 设置迭代次数
    epochs = 5
    for epoch in range(epochs):
        sum_loss = 0
        train_correct = 0
        for data in data_loader_train:
            # 获取数据和标签
            inputs, labels = data  # inputs 维度:[64,1,28,28]
            # 将输入数据展平为一维向量
            inputs = torch.flatten(inputs, start_dim=1)  # 展平数据,转化为[64,784]
            # 计算输出
            outputs = model(inputs)
            # 将梯度清零
            optimizer.zero_grad()
            # 计算损失函数
            loss = cost(outputs, labels)
            # 反向传播计算梯度
            loss.backward()
            # 使用优化器更新模型参数
            optimizer.step()

			# 返回 outputs 张量每行中的最大值和对应的索引,1表示从行维度中找到最大值
            _, id = torch.max(outputs.data, 1)
            # 将每个小批次的损失值 loss 累加,用于最后计算平均损失
            sum_loss += loss.data
            # 计算每个小批次正确分类的图像数量
            train_correct += torch.sum(id == labels.data)
        print('[%d/%d] loss:%.3f, correct:%.3f%%, time:%s' %
              (epoch + 1, epochs, sum_loss / len(data_loader_train),
               100 * train_correct / len(data_train),
               time.strftime('%Y-%m-%d %H:%M:%S', time.localtime())))
    model.eval()

四、测试与预测

# 测试模型
def test(model, test_loader):
    test_correct = 0
    for data in test_loader:
        inputs, lables = data
        inputs, lables = Variable(inputs).cpu(), Variable(lables).cpu()
        inputs = torch.flatten(inputs, start_dim=1)  # 展并数据
        outputs = model(inputs)
        _, id = torch.max(outputs.data, 1)
        test_correct += torch.sum(id == lables.data)
    print(f'Accuracy on test set: {100 * test_correct / len(data_test):.3f}%')

五、预测

在神经网络模型的推断(inference)阶段中,我们不需要进行反向传播,也不需要计算梯度,使用 with torch.no_grad(): 上下文管理器可以有效地减少内存消耗和计算时间

def predict(model, data):
    model.eval()
    with torch.no_grad():
        output = model(data)
        pred = output.data.max(1, keepdim=True)[1]
    return pred

1234567
  • output是模型在给定输入数据后的输出结果,每一行对应一个输入数据样本,每一列对应一个可能的输出类别。
  • output.data提取出了output中的数据部分,然后使用max()函数沿着第1个维度(即列)找到每一行中最大的值以及对应的索引。
  • keepdim=True参数使得输出结果保持和输入数据output相同的维度。 因此,pred包含每个输入样本的预测类别,是一个包含预测标签索引的一维张量

六、完整代码

import torch
from torchvision import datasets, transforms
from torch.autograd import Variable
import time
import matplotlib.pyplot as plt

# 定义ToTensor和Normalize的transform
to_tensor = transforms.ToTensor()
normalize = transforms.Normalize((0.5,), (0.5,))

# 定义Compose的transform
transform = transforms.Compose([
    to_tensor,  # 转换为张量
    normalize  # 标准化
])

# 下载数据集
data_train = datasets.MNIST(root="..//data//",
                            transform=transform,
                            train=True,
                            download=True)

data_test = datasets.MNIST(root="..//data//",
                           transform=transform,
                           train=False,
                           download=True)
# 装载数据
data_loader_train = torch.utils.data.DataLoader(dataset=data_train,
                                                batch_size=64,
                                                shuffle=True)

data_loader_test = torch.utils.data.DataLoader(dataset=data_test,
                                               batch_size=64,
                                               shuffle=True)


class MLP(torch.nn.Module):

    def __init__(self, num_i, num_h, num_o):
        super(MLP, self).__init__()

        self.linear1 = torch.nn.Linear(num_i, num_h)
        self.relu = torch.nn.ReLU()
        self.linear2 = torch.nn.Linear(num_h, num_h)  # 2个隐层
        self.relu2 = torch.nn.ReLU()
        self.linear3 = torch.nn.Linear(num_h, num_o)

    def forward(self, x):
        x = self.linear1(x)
        x = self.relu(x)
        x = self.linear2(x)
        x = self.relu2(x)
        x = self.linear3(x)
        return x


def train(model):
    # 损失函数,它将网络的输出和目标标签进行比较,并计算它们之间的差异。在训练期间,我们尝试最小化损失函数,以使输出与标签更接近
    cost = torch.nn.CrossEntropyLoss()
    # 优化器的一个实例,用于调整模型参数以最小化损失函数。
    # 使用反向传播算法计算梯度并更新模型的权重。在这里,我们使用Adam优化器来优化模型。model.parameters()提供了要优化的参数。
    optimizer = torch.optim.Adam(model.parameters())
    # 设置迭代次数
    epochs = 2
    for epoch in range(epochs):
        sum_loss = 0
        train_correct = 0
        for data in data_loader_train:
            inputs, labels = data  # inputs 维度:[64,1,28,28]
            #     print(inputs.shape)
            inputs = torch.flatten(inputs, start_dim=1)  # 展平数据,转化为[64,784]
            #     print(inputs.shape)
            outputs = model(inputs)
            optimizer.zero_grad()
            loss = cost(outputs, labels)
            loss.backward()
            optimizer.step()

            _, id = torch.max(outputs.data, 1)
            sum_loss += loss.data
            train_correct += torch.sum(id == labels.data)
        print('[%d/%d] loss:%.3f, correct:%.3f%%, time:%s' %
              (epoch + 1, epochs, sum_loss / len(data_loader_train),
               100 * train_correct / len(data_train),
               time.strftime('%Y-%m-%d %H:%M:%S', time.localtime())))
    model.train()


# 测试模型
def test(model, test_loader):
    model.eval()
    test_correct = 0
    for data in test_loader:
        inputs, lables = data
        inputs, lables = Variable(inputs).cpu(), Variable(lables).cpu()
        inputs = torch.flatten(inputs, start_dim=1)  # 展并数据
        outputs = model(inputs)
        _, id = torch.max(outputs.data, 1)
        test_correct += torch.sum(id == lables.data)
    print(f'Accuracy on test set: {100 * test_correct / len(data_test):.3f}%')


# 预测模型
def predict(model, data):
    model.eval()
    with torch.no_grad():
        output = model(data)
        pred = output.data.max(1, keepdim=True)[1]
    return pred


num_i = 28 * 28  # 输入层节点数
num_h = 100  # 隐含层节点数
num_o = 10  # 输出层节点数
batch_size = 64

model = MLP(num_i, num_h, num_o)
train(model)
test(model, data_loader_test)

# 预测图片,这里取测试集前10张图片
for i in range(10):
    # 获取测试数据中的第一张图片
    test_image = data_test[i][0]
    # 展平图片
    test_image = test_image.flatten()
    # 增加一维作为 batch 维度
    test_image = test_image.unsqueeze(0)
    # 显示图片
    plt.imshow(test_image.view(28, 28), cmap='gray')
    plt.show()
    pred = predict(model, test_image)
    print('Prediction:', pred.item())

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4574

    浏览量

    98749
  • 函数
    +关注

    关注

    3

    文章

    3880

    浏览量

    61309
  • 神经元
    +关注

    关注

    1

    文章

    284

    浏览量

    18322
  • 机器学习
    +关注

    关注

    66

    文章

    8122

    浏览量

    130567
  • MLP
    MLP
    +关注

    关注

    0

    文章

    56

    浏览量

    4074
收藏 人收藏

    评论

    相关推荐

    基于结构化平均感知的分词器Java实现

    的讲义《The Structured Perceptron》。 本文实现的AP分词器预测是整个句子的BMES标注序列,当然属于结构化预测问题了。感知二分类感知
    发表于 01-14 11:15

    如何使用Keras框架搭建一个小型的神经网络多层感知

    本文介绍了如何使用Keras框架,搭建一个小型的神经网络-多层感知器,并通过给定数据进行计算训练,最好将训练得到的模型提取出参数,放在51单片机上进行运行。
    发表于 11-22 07:00

    为什么使用cc2530ZigBee板来实现感知层?

    1.为什么使用cc2530ZigBee板来实现感知层?为什么不能直接使用单片采集数据呢?因为单片还连接了WiFi模块。WiFi模块会随着时间的推移而发热,如果直接用单片
    发表于 01-17 08:13

    基于MLP的快速医学图像分割网络UNeXt相关资料分享

    缓慢。这篇文章提出了基于卷积多层感知器(MLP)改进 U型架构的方法,可以用于图像分割。设计了一个 tokenized MLP 块有效地标记和投影卷积特征,使用 MLPs 来建模表示。
    发表于 09-23 14:53

    感知是什么?如何去理解它呢

    感知感知是什么? 感知字面理解: 具有感知功能
    发表于 11-15 15:23

    基于DELPHI的卷接机组MLP部分的实现

    卷接机组MLP 部分的实现包括人机界面和接口两部分,均用DELPHI 语言来编写,由于卷接机组的整套系统采用CANBUS 的总线通讯方式,所以MLP 的接口即为PC 机与CAN 控制器之间的并行接口
    发表于 06-19 11:05 14次下载

    人工智能–多层感知器基础知识解读

    感知器(Perceptron)是ANN人工神经网络的一个概念,由Frank Rosenblatt于1950s第一次引入。 MLP多层感知器是一种前向结构的ANN人工神经网络,
    发表于 07-05 14:45 5820次阅读

    AI从入门到放弃:用MLP做图像分类识别

    在没有CNN以及更先进的神经网络的时代,朴素的想法是用多层感知机(MLP)做图片分类的识别。
    的头像 发表于 07-09 10:09 7422次阅读

    解读CV架构回归多层感知机;自动生成模型动画

    本周的重要论文包括来自谷歌大脑的研究团队提出了一种舍弃卷积和自注意力且完全使用多层感知机(MLP)的视觉网络架构,在 ImageNet 数据集上实现了媲美 CNN 和 ViT 的性能表
    的头像 发表于 05-13 10:36 1866次阅读
    解读CV架构回归<b class='flag-5'>多层</b><b class='flag-5'>感知</b>机;自动生成模型动画

    基于多层感知机模型的自适应简化率预测

    基于多层感知机模型的自适应简化率预测
    发表于 06-21 16:27 8次下载

    在时空表示学习框架中使用 MLP 所面临的挑战

    美图影像研究院(MT Lab)与新加坡国立大学提出高效的 MLP多层感知机模型)视频主干网络,用于解决极具挑战性的视频时空建模问题。
    的头像 发表于 09-05 14:42 758次阅读

    基于MLP网络的VR一体机全身Avatar动捕方案

    这项研究使用了基于MLP的架构,团队发现精心设计的MLP网络已经可以实现与最先进方法相当的性能。然而,MLP网络的预测运动可能包含抖动伪影。
    发表于 03-07 13:48 591次阅读

    PyTorch教程5.2之多层感知器的实现

    电子发烧友网站提供《PyTorch教程5.2之多层感知器的实现.pdf》资料免费下载
    发表于 06-05 15:32 0次下载
    PyTorch教程5.2之<b class='flag-5'>多层</b><b class='flag-5'>感知</b>器的<b class='flag-5'>实现</b>

    PyTorch教程-5.2. 多层感知器的实现

    在 SageMaker Studio Lab 中打开笔记本 多层感知器 (MLP) 的实现并不比简单的线性模型复杂多少。关键的概念差异是我们现在连接多个层。 火炬网路网贾克斯张量流
    的头像 发表于 06-05 15:43 515次阅读
    PyTorch教程-5.2. <b class='flag-5'>多层</b><b class='flag-5'>感知</b>器的<b class='flag-5'>实现</b>

    深度学习算法mlp介绍

    深度学习算法mlp介绍  深度学习算法是人工智能领域的热门话题。在这个领域中,多层感知机(multilayer perceptron,MLP)模型是一种常见的神经网络结构。
    的头像 发表于 08-17 16:11 2700次阅读