史上最简洁实用人工神经元网络c++编写202301

news2024/10/6 4:04:51

这是史上最简单、清晰……
C++语言编写的 带正向传播、反向传播(Forward ……和Back Propagation)……任意Nodes数的人工神经元神经网络……。

大一学生、甚至中学生可以读懂。

适合于,没学过高数的程序员……照猫画虎编写人工智能、深度学习之神经网络……


著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 

“我在网上看到过很多神经网络的实现方法,但这一篇是最简单、最清晰的。”

一位来自Umass的华人小哥Along Asong,写了篇神经网络入门教程,在线代码网站Repl.it联合创始人Amjad Masad看完以后,给予如是评价。

 这篇教程发布仅一天时间,就在Hacker News论坛上收获了574赞。程序员们纷纷夸赞这篇文章的代码写得很好,变量名很规范,让人一目了然。

下面就让我们一起从零开始学习神经网络吧:

 c++写一完整人工神经网络,要求输入层有9个Nodes,一个隐藏层有12个Nodes,输出层有5个Nodes,……含有反向传播、梯度下降法更新权重和偏置等。

  1. 神经网络的结构
  2. 前向传播(Forward Propagation)
  3. 反向传播(Back Propagation)
  4. 更新权重和偏置(梯度下降法)

下面是一个基本的实现:

// c++人工神经网络反向传播梯度下降更新权重偏置230810a18.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
#include <iostream>
#include <vector>
#include <cmath>
#include <ctime>
#include <cstdlib>
#include <string>
#include <sstream>
#include <iomanip>  // 引入setprecision

int Ninpu9t = 9; //输入层Nodes数
int Nhidde12n = 12;//隐藏层Nodes数 4;// 11;
int nOutpu2t = 5;//输出层Nodes数 2;// 3;

double Lost001 = 9.0;

// 使用sigmoid作为激活函数
double sigmoid(double x) {
    return 1.0 / (1.0 + std::exp(-x));
}

double sigmoid_derivative(double x) {
    double s = sigmoid(x);
    return s * (1 - s);
}

class NeuralNetwork {
private:
    std::vector<std::vector<double>> weights1, weights2; // weights
    std::vector<double> bias1, bias2;                     // biases
    double learning_rate;

public:
    NeuralNetwork() : learning_rate(0.1) {  //01) {
        srand(time(nullptr));

        // 初始化权重和偏置
        weights1.resize(Ninpu9t, std::vector<double>(Nhidde12n));
        weights2.resize(Nhidde12n, std::vector<double>(nOutpu2t));

        bias1.resize(Nhidde12n);
        bias2.resize(nOutpu2t);

        for (int i = 0; i < Ninpu9t; ++i)
            for (int j = 0; j < Nhidde12n; ++j)
                weights1[i][j] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]

        for (int i = 0; i < Nhidde12n; ++i) {//for1100i
            bias1[i] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]

            for (int j = 0; j < nOutpu2t; ++j)
                weights2[i][j] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]
        }//for1100i

        for (int i = 0; i < nOutpu2t; ++i)
            bias2[i] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]
    }

    std::vector<double> forward(const std::vector<double>& input) {
        std::vector<double> hidden(Nhidde12n);
        std::vector<double> output(nOutpu2t);

        for (int i = 0; i < Nhidde12n; ++i) {//for110i
            hidden[i] = 0;
            for (int j = 0; j < Ninpu9t; ++j)
            {
                hidden[i] += input[j] * weights1[j][i];
            }
            hidden[i] += bias1[i];
            hidden[i] = sigmoid(hidden[i]);
        }//for110i

        for (int i = 0; i < nOutpu2t; ++i) {//for220i
            output[i] = 0;
            for (int j = 0; j < Nhidde12n; ++j)
            {
                output[i] += hidden[j] * weights2[j][i];
            }
            output[i] += bias2[i];
            output[i] = sigmoid(output[i]);
        }//for220i

        return output;
    }

    void train(const std::vector<double>& input, const std::vector<double>& target) {
        // Forward
        std::vector<double> hidden(Nhidde12n);
        std::vector<double> output(nOutpu2t);
        std::vector<double> hidden_sum(Nhidde12n, 0);
        std::vector<double> output_sum(nOutpu2t, 0);

        for (int i = 0; i < Nhidde12n; ++i) {
            for (int j = 0; j < Ninpu9t; ++j)
            {
                hidden_sum[i] += input[j] * weights1[j][i];
            }
            hidden_sum[i] += bias1[i];
            hidden[i] = sigmoid(hidden_sum[i]);
        }//for110i

        for (int i = 0; i < nOutpu2t; ++i) {//for220i
            for (int j = 0; j < Nhidde12n; ++j)
                output_sum[i] += hidden[j] * weights2[j][i];    //注意 output_sum[]
            output_sum[i] += bias2[i];
            output[i] = sigmoid(output_sum[i]);     //激活函数正向传播
        }//for220i

        //反向传播Backpropagation
        std::vector<double> output_errors(nOutpu2t);
        for (int i = 0; i < nOutpu2t; ++i) {//for2240i
            output_errors[i] = target[i] - output[i];
            //算损失综合总和:
            Lost001 = 0.0;
            Lost001 += fabs(output_errors[i]);

    }//for2240i

        
        std::vector<double> d_output(nOutpu2t);
        for (int i = 0; i < nOutpu2t; ++i)
            d_output[i] = output_errors[i] * sigmoid_derivative(output_sum[i]); //对output_sum[]做 激活函数的 导数 传播

        std::vector<double> hidden_errors(Nhidde12n, 0);
        for (int i = 0; i < Nhidde12n; ++i) {//for440i
            for (int j = 0; j < nOutpu2t; ++j)
                hidden_errors[i] += weights2[i][j] * d_output[j];
        }//for440i

        std::vector<double> d_hidden(Nhidde12n);
        for (int i = 0; i < Nhidde12n; ++i)
            d_hidden[i] = hidden_errors[i] * sigmoid_derivative(hidden_sum[i]); //对 hidden_errors层 做激活函数的 导数 传播

        // Update weights and biases
        for (int i = 0; i < Nhidde12n; ++i) {//for66i
            for (int j = 0; j < nOutpu2t; ++j)
                weights2[i][j] += learning_rate * d_output[j] * hidden[i]; //修改 隐藏层的 weights2
        }//for66i

        for (int i = 0; i < nOutpu2t; ++i)
            bias2[i] += learning_rate * d_output[i];

        for (int i = 0; i < Ninpu9t; ++i) {//for990i
            for (int j = 0; j < Nhidde12n; ++j)
                weights1[i][j] += learning_rate * d_hidden[j] * input[i];   //修改输入层的 weight1
        }//for990i

        for (int i = 0; i < Nhidde12n; ++i)
            bias1[i] += learning_rate * d_hidden[i];

    }//void train(const std::vector<double>& input, const std::vector<double>& target
}; //class NeuralNetwork {

int main() {
    NeuralNetwork nn;

    // Example
    std::vector<double> input[5];
    input[0] = { 0,1,0, 0,1,0, 0,1,0 };      //1“竖线”或 “1”字{ 1.0, 0.5, 0.25, 0.125 };
    input[1] = { 0,0,0, 1,1,1,0,0,0 };      //-“横线”或 “-”减号{ 1.0, 0.5, 0.25, 0.125 };
    input[2] = { 0,1,0, 1,1,1, 0,1,0 };      //+“+”加号{ 1.0, 0.5, 0.25, 0.125 };
    input[3] = { 0,1,0, 0,2, 0,  0,3, 0.12 };   // '1'或 '|'字型{ 1.0, 0.5, 0.25, 0.125 };
    input[4] = { 1,1,0, 9,0,9.8,  1,1,1 };      //“口”字型+{ 1.0, 0.5, 0.25, 0.125 };
    std::vector<double> target[5];
    target[0] = { 1.0, 0,0,0,0 };//1 , 0}; //0.0, 1.0, 0.5};      //{ 0.0, 1.0 };
    target[1] = { 0, 1.0 ,0,0,0};//- 91.0, 0};// , 0, 0}; //
    target[2] = { 0,0,1.0,0,0 };//+ 1.0, 0.5};
    target[3] = { 1.0 ,0,0, 0.5 ,0}; //1
    target[4] = { 0,0,0,0,1.0 }; //“口”

    // Training
    for (int i = 0; i < 50000/*00 */; ++i) {//for220i
        for (int jj = 0; jj < 4; ++jj) {
            nn.train(input[jj], target[jj]);
        }//for2230jj
        if (0 == i % 10000) {//if2250
            printf(".");
            std::cout << "[Lost:" << Lost001 << std::endl;
            Lost001 = 0;
    }//if2250
}//for220i

    // Test
    input[0] = { 0,1,0, 0,1,0, 0,1,0 };      //1{ 1.0, 0.5, 0.25, 0.125 };

    std::vector<double> output = nn.forward(input[0]);
    for (auto& val : output)
        std::cout << val << " ";
    std::cout << std::endl;

    input[1] = { 0,0,0, 1,1,1, 0,0,0 };
    //std::vector<double> 
        output = nn.forward(input[1]);
    for (auto& val : output)
        std::cout << val << " ";
    std::cout << std::endl;



    //-----------------------------------------------
    std::string S;
 //   int D[9];

    do {
        std::cout << std::endl << "请输入一个包含9个由逗号分隔的数字的字符串: ";
        std::getline(std::cin, S);

        std::stringstream ss(S);
        for (int i = 0; i < 9; ++i) {
            std::string temp;
            std::getline(ss, temp, ',');

            input[1][i] = (double)std::stof(temp); // 将字符串转化为整数
        }

        std::cout << "数字数组为: ";
        for (int i = 0; i < 9; ++i) {
            std::cout << input[1][i] << " ";
        }

        output = nn.forward(input[1]);
        std::cout << std::endl;
        for (auto& val : output)
            std::cout <<std::fixed<< std::setprecision(9)<< val << " ";

    } while (1 == 1);

    //====================================================

    return 0;
}//main

运行结果:

 

完整神经网络程序、和用法 可以私信或者 Email联系本人……

本人长期从事人工智能,神经网络,嵌入式 C/C++语言开发、培训……欢迎咨询!

41313989

41313989#QQ.com

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/904857.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Android OpenCV(七十五): 看看刚”转正“的条形码识别

前言 2021年,我们写过一篇《OpenCV 条码识别 Android 平台实践》,当时的条形码识别模块位于 opencv_contrib 仓库,但是 OpenCV 4.8.0 版本开始, 条形码识别模块已移动到 OpenCV 主仓库,至此我们无需自行编译即可轻松地调用条形码识别能力。 Bar code detector and decoder…

Perl兼容正则表达式函数-PHP8知识详解

在php8中有两类正则表达式函数&#xff0c;一类是perl兼容正则表达式函数&#xff0c;另一类是posix扩展正则表达式函数。二者区别不大&#xff0c;我们推荐使用Perl兼容正则表达式函数。 1、使用正则表达式对字符串进行匹配 用正则表达式对目标字符串进行匹配是正则表达式的主…

59.C++ string容器

目录 1.1string容器的基本概念 1.2string构造函数 1.3string赋值操作 1.4string字符串拼接 1.5string查找和替换 1.6string字符串比较 1.7string字符串存取 1.8string字符串插入和删除 1.9string子串 1.1string容器的基本概念 本质&#xff1a; string是C风格的字…

五家项目进度管理工具,哪家好?

项目进度管理十分依赖项目经理对于项目信息的掌握程度&#xff0c;数字化工具可以很好的解决项目信息不统一的问题。一款好用的项目进度十分重要。目前市面上项目进度管理工具哪家好&#xff1f; 1、Zoho Projects&#xff1b;2、Microsoft Project&#xff1b;3、Trello&#…

解决charles无法抓取localhost数据包

我们有时候在本地调试的时候&#xff0c;使用charles抓取向本地服务发送的请求的&#xff0c;发现无法抓取。 charles官方也作了相应说明&#xff1a; 大概意思就是 某些系统使用的是硬编码不能使用localhost进行传输&#xff0c;所以当我们连接到 localhost的时候&#xff0c…

(查看,和保存)windows下通过cmd命令符窗口查看、保存文件目录结构

背景 有时候我们查看目录结构&#xff0c;或者保存目录结构信息&#xff0c;来对项目进行说明 一、查看文件结构 1. tree /? 查看tree命令操作 2. tree&#xff08;只展示文件夹&#xff09; tree 3.tree /F&#xff08;文件夹文件都展示&#xff09; tree /F 二、保存文件…

Dockerfile创建 LNMP 服务+Wordpress 网站平台

文章目录 一.环境及准备工作1.项目环境2.服务器环境3.任务需求 二.Linux 系统基础镜像三.docker构建Nginx1.建立工作目录上传安装包2.编写 Dockerfile 脚本3.准备 nginx.conf 配置文件4.生成镜像5.创建自定义网络6.启动镜像容器7.验证 nginx 四.docker构建Mysql1. 建立工作目录…

JWT令牌验证

目录 一、JWT介绍 二、安装依赖 三、登陆接口 1、令牌工具类 2、接口代码 四、说明 一、JWT介绍 JWT全称&#xff1a;JSON Web Token &#xff08;官网&#xff1a;JSON Web Tokens - jwt.io&#xff09; 定义了一种简洁的、自包含的格式&#xff0c;用于在通信双方以json…

用户登录实现

参考博文&#xff1a; 01 技术太卷我学APEX-定制验证方案_白龙马5217的博客-CSDN博客https://blog.csdn.net/html5builder/article/details/128662070 创建函数 添加参数 函数 create or replace function "F_LOGIN" (p_username in VARCHAR2,p_password in varch…

【文化课学习笔记】【化学】非金属及其化合物

【化学】必修一&#xff1a;非金属及其化合物 硅及其化合物 硅单质 物理性质 单晶硅的结构与金刚石类似&#xff0c;为正四面体的立体网状结构。晶体中每个硅原子与其他四个硅原子相连接。\(1\mathrm{mol}\) 硅单质还有 \(\mathrm{2N_A}\) 个 \(\mathrm{Si-Si}\) 键&#xff1b…

安装pyrender和OSMesa

1&#xff09;安装 pyrender Pyrender是一个基于OpenGL的库&#xff0c;可以加载和渲染三维网格、点云、相机等对象3。 pip install pyrender 2&#xff09;理解PyOpenGL和OSMesa的关系是: PyOpenGL是Python的OpenGL绑定库&#xff08;接口壳子&#xff09;,它提供了在Python中…

openstack搭建

1 设置root密码&#xff1a;sudo passwd root 2 网络配置&#xff1a;虚拟机安装是选择nat映射&#xff0c;系统安装成功后直接配置vmnet8的地址段即可&#xff08;操作系统正常安装即可&#xff0c;虚拟机内存大于4G即可&#xff09;&#xff1b; 3 安装ssh 在命令行输入 “su…

【C语言】美元名字和面额对应问题

题目 美元硬币从小到大分为1美分&#xff08;penny&#xff09;5美分&#xff08;nickel&#xff09;10美分&#xff08;dime&#xff09;25美分&#xff08;quarter&#xff09;和50美分&#xff08;half-dollar&#xff09;&#xff0c;写一个程序实现当给出一个数字面额可以…

2023面试八股文 ——Java基础知识

Java基础知识 一.Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性&#xff1f;原理是什么Java语言有哪些特点什么是字节码&#xff1f;采用字节码的大好处是什么什么是Java程序的主类&#xff1f;应用程序和小程序的主类有何不同&#xff1f…

Android学习之路(8) Activity

本节引言&#xff1a; 本节开始讲解Android的四大组件之一的Activity(活动)&#xff0c;先来看下官方对于Activity的介绍&#xff1a; 移动应用体验与桌面体验的不同之处在于&#xff0c;用户与应用的互动并不总是在同一位置开始&#xff0c;而是经常以不确定的方式开始。例如&…

【自动化测试】测试开发工具大合集

收集和整理各种测试工具&#xff0c;自动化测试工具&#xff0c;自动化测试框架&#xff0c;觉得有帮助记得三连一下。 欢迎提交各类测试工具到本博客。 通用测试框架 JUnit: 最著名的xUnit类的单元测试框架&#xff0c;但是不仅仅可以做单元测试。TestNG: 更强大的Java测试框…

pytorch 线性层Linear详解

线性层就是全连接层&#xff0c;以一个输入特征数为2&#xff0c;输出特征数为3的线性层为例&#xff0c;其网络结构如下图所示&#xff1a; 输入输出数据的关系如下&#xff1a; 写成矩阵的形式就是&#xff1a; 下面通过代码进行验证&#xff1a; import torch.nn as nn …

十三、Linux中必须知道的几个快捷键!!!

1、强制停止 当某些代码正在运行时&#xff0c;你想让其停止&#xff0c;只需要按下如下快捷键即可&#xff1a; 【CTRL】【C】 示例&#xff1a; 2、退出 Linux系统自带python3解释器&#xff0c;当你进入python3解释器之后&#xff0c;需要退出时&#xff0c;只需要按下&am…

VSCode\PyCharm23.2+PyQGIS插件开发配置相关要点

近期利用VSCode\PyCharmPyQGIS进行插件开发&#xff0c;现将要点总结一下&#xff1a; 一、VSCode&#xff0c;我没有配置成功&#xff0c;主要是最后一个阶段调试的时候老是不成功。以后会持续关注。但是有几个要点&#xff1a; 1、VSCodePyQIS开发&#xff0c;智能提示的设…

2023年目标检测研究进展

综述 首先关于写这个笔记&#xff0c;我个人思考了很久关于以下几点。1&#xff1a;19年开始从做OCR用到图像和文本这种多模态联合处理的后&#xff0c;也就有意识的开始关注自然语言处理&#xff0c;这样的结果导致可能停留在前期图像上的学习和实践&#xff0c;停滞的研究如…