从零开始实现神经网络(一)_NN神经网络

news2024/11/16 22:43:41

参考文章:神经网络介绍

一、神经元

        这一神经网络的基本单元,神经元接受输入,对它们进行一些数学运算,并产生一个输出。

这里有三步。

        首先,将每个输入(X1)乘以一个权重

        x_1 * w_1

        x_2 * w_2

        接下来,将所有加权输入与偏置相加:

        ( x_1 * w _1 ) + ( x_2 * w_2 ) + b

        最后,总和通过激活函数传递:

        y = f(w_1*x_1 + w_2 * x_2 + b)

激活函数

激活函数用于将无界输入转换为具有良好、可预测形式的输出。常用的激活函数是sigmoid功能:

你可以把它想象成,压缩零到负无穷的数字到[-1,0],压缩0到正无穷的数字到[0,1]

举个例子:

        这里写成向量形式,假设权重W = {w1,w2} = {0,1},输入X = {x1,x2} = {2,3},偏置b为1。

        那么有一下计算:

        (X\cdot W ) + b = ( x_1 * w _1 ) + ( x_2 * w_2 ) + b

                                = 0 * 2 +1*3 +4

                                =7

        y = f(w_1*x_1 + w_2 * x_2 + b) = f(7) = 0.9999

下面来实现下代码:

import numpy as np

def sigmoid(x):
  # Our activation function: f(x) = 1 / (1 + e^(-x))
  return 1 / (1 + np.exp(-x))

class Neuron:
  def __init__(self, weights, bias):
    self.weights = weights
    self.bias = bias

  def feedforward(self, inputs):
    # Weight inputs, add bias, then use the activation function
    total = np.dot(self.weights, inputs) + self.bias
    return sigmoid(total)

weights = np.array([0, 1]) # w1 = 0, w2 = 1
bias = 4                   # b = 4
n = Neuron(weights, bias)

x = np.array([2, 3])       # x1 = 2, x2 = 3
print(n.feedforward(x))    # 0.9990889488055994

二. 将神经元组合成神经网络

        神经网络只不过是一堆连接在一起的神经元。下面是一个简单的神经网络的样子:

该网络有 2 个输入(x1和x2),一个带有 2 个神经元的隐藏层 (ℎ1​和ℎ2​),以及具有 1 个神经元 (o1​).请注意,输入o1​是来自ℎ1​和h2​- 这就是使它成为一个网络的原因。

隐藏层是输入(第一层)和输出(最后一层)之间的任何。可以有多个隐藏层!

示例:前馈

让我们使用上图的网络,并假设所有神经元具有相同的权重w=[0,1],相同的偏差b=0,以及相同的 S 形激活函数。让h1​,h2​,o1​表示它们所代表的神经元的输出

如果我们传入输入会发生什么x=[2,3]?

用于输入的神经网络的输出x=[2,3]是0.7216很简单,对吧?

神经网络可以有任意数量的,这些层中可以有任意数量的神经元。基本思想保持不变:通过网络中的神经元向前馈送输入,以在最后获得输出。为简单起见,在本文的其余部分,我们将继续使用上图的网络。

神经网络的代码实现:

import numpy as np

# ... code from previous section here

class OurNeuralNetwork:
  '''
  A neural network with:
    - 2 inputs
    - a hidden layer with 2 neurons (h1, h2)
    - an output layer with 1 neuron (o1)
  Each neuron has the same weights and bias:
    - w = [0, 1]
    - b = 0
  '''
  def __init__(self):
    weights = np.array([0, 1])
    bias = 0

    # The Neuron class here is from the previous section
    self.h1 = Neuron(weights, bias)
    self.h2 = Neuron(weights, bias)
    self.o1 = Neuron(weights, bias)

  def feedforward(self, x):
    out_h1 = self.h1.feedforward(x)
    out_h2 = self.h2.feedforward(x)

    # The inputs for o1 are the outputs from h1 and h2
    out_o1 = self.o1.feedforward(np.array([out_h1, out_h2]))

    return out_o1

network = OurNeuralNetwork()
x = np.array([2, 3])
print(network.feedforward(x)) # 0.7216325609518421

三. 训练神经网络,第 1 部分

假设我们有以下测量值:

名字重量(磅)高度(英寸)
爱丽丝13365F
鲍勃16072M
查理15270M
黛安娜12060F

让我们训练我们的网络,根据某人的体重和身高预测他们的性别:

我们将用0代表男性1代表女性,我们还将处理数据以使其更易于使用:

名字重量(减去 135)高度(减去 66)
爱丽丝-2-11
鲍勃2560
查理1740
黛安娜-15-61

我随意选择了减去的数值(135和66) 以使数值看起来更好。通常,会按平均值移动。

损失

在我们训练网络之前,我们首先需要一种方法来量化它做得有多“好”,以便它可以尝试做得“更好”。这就是损失所在。

        我们将使用均方误差 (MSE) 损失:

        MSE = \frac{1}{n}\sum^n_{i=1} (yTrue - yPred)^2

让我们分解一下:

  • n是样本数,即4(爱丽丝,鲍勃,查理,戴安娜)。
  • y表示要预测的变量,即性别。
  • yTrue​是变量的真实值(“正确答案”)。例如yTRue​因为爱丽丝的性别为1(女)。
  • yPred​是变量的预测值。这是我们的网络输出的任何内容。

(yTrue - yPred)^2称为平方误差。我们的损失函数只是取所有平方误差的平均值(因此得名方误差)。我们的预测越好,我们的损失就越低!

更好的预测=更低的损失。

训练网络=试图将其损失降至最低。

损失计算示例

假设我们的网络总是输出0换句话说,它相信所有人类都是男性🤔。我们的损失会是什么?

名字yTRueyPRED(yTrue - yPred)^2
爱丽丝101
鲍勃000
查理000
黛安娜101

        MSE=\frac{1}{4}(1+0+0+1) = 0.5

均方误差的代码实现:

import numpy as np

def mse_loss(y_true, y_pred):
  # y_true and y_pred are numpy arrays of the same length.
  return ((y_true - y_pred) ** 2).mean()

y_true = np.array([1, 0, 0, 1])
y_pred = np.array([0, 0, 0, 0])

print(mse_loss(y_true, y_pred)) # 0.5

四. 训练神经网络,第 2 部分

反向传播

我们现在有一个明确的目标:尽量减少神经网络的损失。我们知道我们可以改变网络的权重和偏差来影响其预测,但是我们如何以减少损失的方式做到这一点呢?

为简单起见,让我们假设我们的数据集中只有 爱丽丝:

名字重量(减去 135)高度(减去66)
爱丽丝-2-11

        那么只是爱丽丝的均方误差损失(最后会带入yTrue的值进去):

        MSE = \frac{1}{1}\sum^1_{i=1} (yTrue - yPred)^2

        =(yTrue - yPred)^2

        =(1 - yPred)^2

另一种考虑损失的方法是作为权重和偏差的函数。让我们标记网络中的每个权重和偏差:

 

然后,我们可以将损失写为多变量函数:

        L(w1​,w2​,w3​,w4​,w5​,w6​,b1​,b2​,b3​)

想象一下,我们想调整w1​.损失将如何L如果我们改变了,就改变w1​?

这是一个偏导数的问题 \frac{\partial L}{\partial w_1}可以回答。我们如何计算它?

首先,让我们根据以下方法(链式法则)重写偏导数:

        \frac{\partial L}{\partial w_1} =\frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial w_1}

这里\frac{\partial L}{\partial yPred}我们可以求得,由于前面的MSE均方误差计算的就是神经网络的误差,MSE作为损失函数,所以有等式:

        L(w1,w2,w3,w4,w5,w6,b1,b2,b3) = (1 - yPred)^2

所以可以得出:

         \frac{\partial L}{\partial yPred} = \frac{\partial (1 - yPred)^2}{\partial yPred} = -2(1 - yPred)

然后我们再搞清楚\frac{\partial yPred}{\partial w_1},由于yPred是预测值,而预测值由激活函数输出,所以能够得到等式:

        yPred = o_1 = f(w_5*h_1 + w_6 * h_2 + b_3)

由于改变w1只对h1有影响,所以可以写成: 

我们再对h1做同样的步骤(h1是上一层的激活函数),\frac{\partial h_1}{\partial w_1}

对于激活函数sigmoid的倒数:

最终整合起来:

这种通过逆向计算偏导数的系统称为反向传播。

推导当前神经网络反向传播所用到的所有偏导公式:

\frac{\partial L}{\partial w_1} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_1} * \frac{\partial h_1}{\partial w_1}

\frac{\partial L}{\partial w_2} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_1} * \frac{\partial h_1}{\partial w_2}

\frac{\partial L}{\partial w_3} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_2} * \frac{\partial h_2}{\partial w_3}

\frac{\partial L}{\partial w_4} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_2} * \frac{\partial h_2}{\partial w_4}

\frac{\partial L}{\partial w_5} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial w_5}

\frac{\partial L}{\partial w_6} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial w_6}

\frac{\partial L}{\partial b_1} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_1} * \frac{\partial h_1}{\partial b_1}

\frac{\partial L}{\partial b_2} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial h_2} * \frac{\partial h_2}{\partial b_2}

\frac{\partial L}{\partial b_3} = \frac{\partial L}{\partial yPred} * \frac{\partial yPred}{\partial b_3}

例子:

我们将继续假设数据集中只有 爱丽丝:

名字重量(减去 135)高度(减去 66)
爱丽丝-2-11

让我们将所有权重初始化为1以及所有偏置为0.如果我们通过网络进行前馈传递,我们会得到:

网络输出yPred​=0.524,这并不强烈支持男性 或女性 .让我们计算一下\frac{\partial L}{\partial w_1}

这里用到了上面所求得的sigmoid的倒数。

我们成功了!这告诉我们,由于\frac{\partial L}{\partial w_1}所求的偏导结果为0.0214,是个正数,函数单调递增,所以

如果我们要增加w1(权重)​,L(损失)结果会增大一点点。

训练:随机梯度下降

我们现在拥有训练神经网络所需的所有工具!我们将使用一种称为随机梯度下降 (SGD) 的优化算法,该算法告诉我们如何改变权重和偏差以最小化损失。

就是这个方程式:

η是一个称为学习率的常数,它控制着我们训练的速度。我们所做的只是用旧权重减去学习率*偏导值​:

  • 如果\frac{\partial L}{\partial w_1}的值为正数,w1​的减少,会使得L减少。
  • 如果\frac{\partial L}{\partial w_1}的值为负数,w1​的增加,会使得L减少。

如果我们对网络中的每个权重和偏差都这样做,损失将慢慢减少,我们的网络将得到改善。

我们的训练过程将如下所示:

  1. 从我们的数据集中选择一个样本。这就是它随机梯度下降的原因——我们一次只对一个样本进行操作。
  2. 计算所有损失相对于权重或偏差的偏导数(例如​\frac{\partial L}{\partial w_1}​,\frac{\partial L}{\partial w_2}​等)。
  3. 使用更新公式更新每个权重和偏差。
  4. 返回步骤 1。

让我们看看它的实际效果吧!

代码:一个完整的神经网络

终于到了实现一个完整的神经网络的时候了:

名字重量(减去 135)高度(减去 66)
爱丽丝-2-11
鲍勃2560
查理1740
黛安娜-15-61
import numpy as np

def sigmoid(x):
  # Sigmoid activation function: f(x) = 1 / (1 + e^(-x))
  return 1 / (1 + np.exp(-x))

def deriv_sigmoid(x):
  # Derivative of sigmoid: f'(x) = f(x) * (1 - f(x))
  fx = sigmoid(x)
  return fx * (1 - fx)

def mse_loss(y_true, y_pred):
  # y_true and y_pred are numpy arrays of the same length.
  return ((y_true - y_pred) ** 2).mean()

class OurNeuralNetwork:
  '''
  A neural network with:
    - 2 inputs
    - a hidden layer with 2 neurons (h1, h2)
    - an output layer with 1 neuron (o1)

  *** DISCLAIMER ***:
  The code below is intended to be simple and educational, NOT optimal.
  Real neural net code looks nothing like this. DO NOT use this code.
  Instead, read/run it to understand how this specific network works.
  '''
  def __init__(self):
    # Weights
    self.w1 = np.random.normal()
    self.w2 = np.random.normal()
    self.w3 = np.random.normal()
    self.w4 = np.random.normal()
    self.w5 = np.random.normal()
    self.w6 = np.random.normal()

    # Biases
    self.b1 = np.random.normal()
    self.b2 = np.random.normal()
    self.b3 = np.random.normal()

  def feedforward(self, x):
    # x is a numpy array with 2 elements.
    h1 = sigmoid(self.w1 * x[0] + self.w2 * x[1] + self.b1)
    h2 = sigmoid(self.w3 * x[0] + self.w4 * x[1] + self.b2)
    o1 = sigmoid(self.w5 * h1 + self.w6 * h2 + self.b3)
    return o1

  def train(self, data, all_y_trues):
    '''
    - data is a (n x 2) numpy array, n = # of samples in the dataset.
    - all_y_trues is a numpy array with n elements.
      Elements in all_y_trues correspond to those in data.
    '''
    learn_rate = 0.1
    epochs = 1000 # number of times to loop through the entire dataset

    for epoch in range(epochs):
      for x, y_true in zip(data, all_y_trues):
        # --- Do a feedforward (we'll need these values later)
        sum_h1 = self.w1 * x[0] + self.w2 * x[1] + self.b1
        h1 = sigmoid(sum_h1)

        sum_h2 = self.w3 * x[0] + self.w4 * x[1] + self.b2
        h2 = sigmoid(sum_h2)

        sum_o1 = self.w5 * h1 + self.w6 * h2 + self.b3
        o1 = sigmoid(sum_o1)
        y_pred = o1

        # --- Calculate partial derivatives.
        # --- Naming: d_L_d_w1 represents "partial L / partial w1"
        d_L_d_ypred = -2 * (y_true - y_pred)

        # Neuron o1
        d_ypred_d_w5 = h1 * deriv_sigmoid(sum_o1)
        d_ypred_d_w6 = h2 * deriv_sigmoid(sum_o1)
        d_ypred_d_b3 = deriv_sigmoid(sum_o1)

        d_ypred_d_h1 = self.w5 * deriv_sigmoid(sum_o1)
        d_ypred_d_h2 = self.w6 * deriv_sigmoid(sum_o1)

        # Neuron h1
        d_h1_d_w1 = x[0] * deriv_sigmoid(sum_h1)
        d_h1_d_w2 = x[1] * deriv_sigmoid(sum_h1)
        d_h1_d_b1 = deriv_sigmoid(sum_h1)

        # Neuron h2
        d_h2_d_w3 = x[0] * deriv_sigmoid(sum_h2)
        d_h2_d_w4 = x[1] * deriv_sigmoid(sum_h2)
        d_h2_d_b2 = deriv_sigmoid(sum_h2)

        # --- Update weights and biases
        # Neuron h1
        self.w1 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w1
        self.w2 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w2
        self.b1 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_b1

        # Neuron h2
        self.w3 -= learn_rate * d_L_d_ypred * d_ypred_d_h2 * d_h2_d_w3
        self.w4 -= learn_rate * d_L_d_ypred * d_ypred_d_h2 * d_h2_d_w4
        self.b2 -= learn_rate * d_L_d_ypred * d_ypred_d_h2 * d_h2_d_b2

        # Neuron o1
        self.w5 -= learn_rate * d_L_d_ypred * d_ypred_d_w5
        self.w6 -= learn_rate * d_L_d_ypred * d_ypred_d_w6
        self.b3 -= learn_rate * d_L_d_ypred * d_ypred_d_b3

      # --- Calculate total loss at the end of each epoch
      if epoch % 10 == 0:
        y_preds = np.apply_along_axis(self.feedforward, 1, data)
        loss = mse_loss(all_y_trues, y_preds)
        print("Epoch %d loss: %.3f" % (epoch, loss))

# Define dataset
data = np.array([
  [-2, -1],  # Alice
  [25, 6],   # Bob
  [17, 4],   # Charlie
  [-15, -6], # Diana
])
all_y_trues = np.array([
  1, # Alice
  0, # Bob
  0, # Charlie
  1, # Diana
])

# Train our neural network!
network = OurNeuralNetwork()
network.train(data, all_y_trues)

随着网络学习,我们的损失稳步减少:

我们现在可以使用网络来预测性别:

# Make some predictions
emily = np.array([-7, -3]) # 128 pounds, 63 inches
frank = np.array([20, 2])  # 155 pounds, 68 inches
print("Emily: %.3f" % network.feedforward(emily)) # 0.951 - F
print("Frank: %.3f" % network.feedforward(frank)) # 0.039 - M

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1150951.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何备份和恢复微信聊天记录?微信聊天记录1分钟轻松备份和恢复。

微信是一个非常流行的应用程序,不仅在中国,而且在全世界。这个应用程序允许来自其他国家的用户与他们的中国朋友进行群聊、语音消息、视频通话、发送贴纸或 GIF 以及照片。它可以为学生和商人/女性发送重要文件,以及位置共享以防游客在访问中…

内网穿透实现在外远程访问NAS威联通(QNAP)

文章目录 前言1. 威联通安装cpolar内网穿透2. 内网穿透2.1 创建隧道2.2 测试公网远程访问 3. 配置固定二级子域名3.1 保留二级子域名3.2 配置二级子域名 4. 使用固定二级子域名远程访问 前言 购入威联通NAS后,很多用户对于如何在外在公网环境下的远程访问威联通NAS…

系列四十、请谈一下Spring中事务的传播行为

一、概述 事务的传播行为指的是当一个事务方法被另一个事务方法调用时,这个事务方法应该如何进行。事务的传播行为至少发生在两个事务方法的嵌套调用中才会出现。 二、传播行为分类

专门解决数学问题的大模型

01 项目介绍 LLEMMA:一个专门解决数学问题的开源大语言模型,能力超过所有已知的开源模型 LLEMMA由多个大学和Eleuther AI公司共同研发,模型能够理解和生成数学表达式、解决数学问题,并与其他计算工具(如Python解释器…

Jenkins Gerrit Trigger插件配置

安装Jenkins 以Jenkins 2.361.1版本为例 docker pull jenkins/jenkins:2.361.1运行容器,将主机的8080端口映射到容器的8080端口,同时将主机的50000端口映射到容器的50000端口(用于构建代理) docker run -d -p 8080:8080 -p 500…

操作系统(Linux)外壳程序shell 、用户、权限

文章目录 操作系统和shell外壳Linux用户普通用户的创建和删除用户的切换 Linux 权限Linux 权限分类文件访问权限修改文件的权限权限掩码粘滞位 大家好,我是纪宁。 这篇文章将介绍 Linux的shell外壳程序,Linux用户切换机Linux权限的内容。 操作系统和shel…

基于SpringBoot的养老院信息管理系统

基于SpringBoot的养老院信息管理系统,java项目,springboot项目,idea都能打开运行。 推荐环境配置:idea jdk1.8 maven mysql5.5/mysql5.7 主要技术: SpringBoot,MySql,ajax,MyBatis 本系统的主要…

Vue 路由指南:畅游单页应用的地图(Vue Router 和 <router-view>)

🤍 前端开发工程师(主业)、技术博主(副业)、已过CET6 🍨 阿珊和她的猫_CSDN个人主页 🕠 牛客高级专题作者、在牛客打造高质量专栏《前端面试必备》 🍚 蓝桥云课签约作者、已在蓝桥云…

STM32F407的系统定时器

文章目录 系统定时器SysTick滴答定时器寄存器STK_CTRL 控制寄存器STK_LOAD 重载寄存器STK_VAL 当前值寄存器STK_CALRB 校准值寄存器 初始化 Systick 定时器SysTick_InitSysTick_CLKSourceConfig delay_us寄存器delay_us库函数delay_xms短时delay_ms长时SysTick_Config 系统定时…

电阻距离------Resistance distance

原来的解释来自维基百科:https://en.wikipedia.org/wiki/Resistance_distance 在图论中,简单连通图G的两个顶点之间的电阻距离等于电网上两个等效点之间的电阻,电网被构造为与G相对应,每条边被一欧姆的电阻代替。它是图上的度量。…

Jenkins安装(Jenkins 2.429)及安装失败解决(Jenkins 2.222.4)

敏捷开发与持续集成 敏捷开发 敏捷开发以用户的需求进化为核心,采用迭代、循序渐进的方法进行软件开发。在敏捷开发中,软件项目在构建初期被切分成多个子项目,各个子项目的成果都经过测试,具备可视、可集成和可运行使用的特征。…

geatpy-遗传算法

参考: geatpy 官网 关注的点 在实操过程中,主要遇到以下问题: 不等式约束代码里怎么写?几种书写方式之间有何细节差别要注意入门案例一 包含不等式约束 import geatpy as ea import numpy as np# 构建问题 r = 1 # 目标函数需要用到的额外数据 @ea.Problem.single def …

黑豹程序员-架构师学习路线图-百科:PowerDesigner数据库建模的行业标准

PowerDesigner最初由Xiao-Yun Wang(王晓昀)在SDP Technologies公司开发完成。 目前PowerDesigner是Sybase的企业建模和设计解决方案,采用模型驱动方法,将业务与IT结合起来,可帮助部署有效的企业体系架构,并…

公众号推送消息自动化的简单方法

作为公众号运营者,你是否厌烦了每天都要手动推送内容给用户?现在,有了乔拓云公众号助手工具,你可以告别手动推送的繁琐,实现公众号的自动推送功能。下面,我们来看看如何操作。 第一步:注册并登录…

ThreadLocal 会出现内存泄漏吗?

ThreadLocal ThreadLocal 是一个用来解决线程安全性问题的工具。它相当于让每个线程都开辟一块内存空间,用来存储共享变量的副本。然后每个线程只需要访问和操作自己的共享变量副本即可,从而避免多线程竞争同一个共享资源。它的工作原理很简单&#xff0…

k8s中label标签、deployment控制器、service、ipvs管理简介

目录 一.label管理 1.label的作用和特点 2.标签的查询和筛选 (1)等式型 (2)集合型 3.命令行打标签用法示例 (1)为资源对象添加多个标签 (2)更该原有标签 (3&…

Tomcat安装与配置文件解读

简介 Tomcat是Apache软件基金会(Apache Software Foundation)项目中的一个核心项目,由Apache、Sun和其他一些公司及个人共同开发而成。 Tomcat服务器是一个免费的开放源代码的Web应用服务器,属于轻量级应用服务器,在…

什么是神经网络,它的原理是啥?(1)

参考:https://www.youtube.com/watch?vmlk0rddP3L4&listPLuhqtP7jdD8CftMk831qdE8BlIteSaNzD 视频1: 简单介绍神经网络的基本概念,以及一个训练好的神经网络是怎么使用的 分类算法中,神经网络在训练过程中会学习输入的 pat…

通过arthas vmtool 调用线上正在运行的service方法

通过arthas vmtool 调用线上正在运行的service方法 场景 场景具体描述业务上有某个缓存需要删除,但是没有写删除 key 的远程接口通过arthas执行 service 方法,删除缓存 key 1.前期准备 1.1下载arthas 官网地址 https://arthas.gitee.io/doc/quick-…