神经网络|(十三)|SOM神经网络

news2025/3/6 20:24:49

【1】引言

前序已经对神经网络有了基础认识,今天先学习SOM神经网络。

前序学习文章链接包括且不限于:

神经网络|(十一)|神经元和神经网络-CSDN博客

神经网络|(十二)|常见激活函数-CSDN博客

【2】SOM神经网络

SOM神经网络是一种结构比较简单、但是理解起来稍微复杂的神经网络。

结构简单是因为它只有两层,第一层是输入层,第二层是输出层。

和之前学习文章中提及到的一样:输入层的每一个元素都会直接作用到输出层的每一个元素。

【3】代码测试

这里逐步给出代码,通过代码的学习,大家对SOM算法的理解会相对深入。

【3.1】准备工作

首先引入必要的模块:

import numpy as np  #引入numpy模块
import matplotlib.pyplot as plt  #引入matplotlib模块

然后定义数据集:

# 生成 100行2列的位于[0,1)区间内,符合均匀分布的随机数
data = np.random.rand(100, 2)

之后为SOM算法准备一些初始数据:

# SOM 参数设置
# 输出层网格的大小(行数和列数)
# grid_size是存储数据的元组,不是矩阵
grid_size = (10, 10)
# 输入数据的维度
# input_dim取到的是data数组的列数
input_dim = data.shape[1]
# 最大迭代次数
max_iterations = 100
# 初始学习率
initial_learning_rate = 0.5
# 初始邻域半径
# 内置函数max()在元组grid_size中遍历每个元素,然后取出最大值
initial_radius = max(grid_size) / 2
# 时间常数,用于控制学习率和邻域半径的衰减速度
# 时间常数有多种定义方式,这是其中的一种
time_constant = max_iterations / np.log(initial_radius)

# 初始化 SOM 权重
# 权重矩阵的形状为 (行数, 列数, 输入维度)
# weights是一个grid_size[0]层,每一层的行列为(grid_size[1], input_dim)形式的矩阵
weights = np.random.rand(grid_size[0], grid_size[1], input_dim)

【3.2】子函数

【3.2.1】decay_function()函数
# 定义学习率和邻域半径的衰减函数
def decay_function(initial_value, iteration, time_constant):
    return initial_value * np.exp(-iteration / time_constant)
【3.2.2】calculate_distances()函数
# 计算输入向量与所有神经元权重之间的欧氏距离
# 使用 for 循环代替 np.linalg.norm()
def calculate_distances(input_vector, weights):
    # 提取weights数组的结构属性:深度、行数、列数
    rows, cols, _ = weights.shape
    # 定义一个纯0矩阵
    distances = np.zeros((rows, cols))
    for i in range(rows):
        for j in range(cols):
            # diff=第i层第j行的weights数据-input_vector
            # input_dim取到的是data数组的列数,所以第i层第j行的weights数据有input_dim数据
            # input_vector是从data的所有行里面随机提取的一行,列数=input_dim
            # diff=每一行的weights数据-input_vector
            # squared_diff=(weights数据-input_vector)的平方
            # sum_squared_diff=(weights数据-input_vector)的平方和
            # distances[i, j]是(weights数据-input_vector)的平方和再开方
            # 随着i和j的增加,diff会增加,distances[i, j]也会增加
            diff = weights[i, j] - input_vector
            squared_diff = diff ** 2
            sum_squared_diff = np.sum(squared_diff)
            distances[i, j] = np.sqrt(sum_squared_diff)
    return distances
【3.2.3】find_bmu()函数
# 找到最佳匹配单元(BMU)
def find_bmu(distances):
    # np.argmin(distances)求出distance的最小值
    # np.unravel_index返回distance的最小值在distance中的索引位置
    return np.unravel_index(np.argmin(distances), distances.shape)
【3.2.4】update_weights()函数
# 更新 BMU 及其邻域内神经元的权重
def update_weights(input_vector, bmu, weights, radius, learning_rate):
    # 提取weights数组的结构属性:深度、行数、列数
    rows, cols, _ = weights.shape
    for i in range(rows):
        for j in range(cols):
            # 计算当前神经元与 BMU 之间的距离
            dist_to_bmu = np.sqrt((i - bmu[0]) ** 2 + (j - bmu[1]) ** 2)
            if dist_to_bmu <= radius:
                # 计算邻域函数值
                influence = np.exp(-(dist_to_bmu ** 2) / (2 * radius ** 2))
                # 更新权重
                weights[i, j] += learning_rate * influence * (input_vector - weights[i, j])
    return weights
【3.2.5】SOM训练函数
# 训练 SOM
for iteration in range(max_iterations):
    # 随机选择一个输入向量
    # input_vector是从data的所有行里面随机提取的一行
    input_vector = data[np.random.randint(0, data.shape[0])]
    # 计算当前的学习率和邻域半径
    current_learning_rate = decay_function(initial_learning_rate, iteration, time_constant)
    current_radius = decay_function(initial_radius, iteration, time_constant)
    # 计算输入向量与所有神经元权重之间的距离
    distances = calculate_distances(input_vector, weights)
    # 找到 BMU
    bmu = find_bmu(distances)
    # 更新权重
    weights = update_weights(input_vector, bmu, weights, current_radius, current_learning_rate)

【3.3】SOM可视化

# 可视化 SOM 结果
plt.figure(figsize=(10, 10))
# 绘制数据点
plt.scatter(data[:, 0], data[:, 1], c='b', label='Data Points')
# 绘制 SOM 网格
for i in range(grid_size[0]):
    for j in range(grid_size[1]):
        # 绘制神经元的位置
        plt.scatter(weights[i, j, 0], weights[i, j, 1], c='r', s=100)
        # 绘制水平连接
        if j < grid_size[1] - 1:
            plt.plot([weights[i, j, 0], weights[i, j + 1, 0]],
                     [weights[i, j, 1], weights[i, j + 1, 1]], 'k-')
        # 绘制垂直连接
        if i < grid_size[0] - 1:
            plt.plot([weights[i, j, 0], weights[i + 1, j, 0]],
                     [weights[i, j, 1], weights[i + 1, j, 1]], 'k-')

plt.title('Self - Organizing Map')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.legend()
plt.show()

此时获得的完整代码为:

import numpy as np
import matplotlib.pyplot as plt

# 生成示例数据
# 这里我们生成 100行2列的位于[0,1)区间内,符合均匀分布的随机数
data = np.random.rand(100, 2)
#print(data)
# SOM 参数设置
# 输出层网格的大小(行数和列数)
# grid_size是存储数据的元组,不是矩阵
grid_size = (10, 10)
# 输入数据的维度
# input_dim取到的是data数组的列数
input_dim = data.shape[1]
# 最大迭代次数
max_iterations = 100
# 初始学习率
initial_learning_rate = 0.5
# 初始邻域半径
# 内置函数max()在元组grid_size中遍历每个元素,然后取出最大值
initial_radius = max(grid_size) / 2
# 时间常数,用于控制学习率和邻域半径的衰减速度
# 时间常数有多种定义方式,这是其中的一种
time_constant = max_iterations / np.log(initial_radius)

# 初始化 SOM 权重
# 权重矩阵的形状为 (行数, 列数, 输入维度)
# weights是一个grid_size[0]层,每一层的行列为(grid_size[1], input_dim)形式的矩阵
weights = np.random.rand(grid_size[0], grid_size[1], input_dim)
print('weights =',weights)
# 定义学习率和邻域半径的衰减函数
def decay_function(initial_value, iteration, time_constant):
    return initial_value * np.exp(-iteration / time_constant)

# 计算输入向量与所有神经元权重之间的欧氏距离
# 使用 for 循环代替 np.linalg.norm()
def calculate_distances(input_vector, weights):
    # 提取weights数组的结构属性:深度、行数、列数
    rows, cols, _ = weights.shape
    # 定义一个纯0矩阵
    distances = np.zeros((rows, cols))
    for i in range(rows):
        for j in range(cols):
            # diff=第i层第j行的weights数据-input_vector
            # input_dim取到的是data数组的列数,所以第i层第j行的weights数据有input_dim数据
            # input_vector是从data的所有行里面随机提取的一行,列数=input_dim
            # diff=每一行的weights数据-input_vector
            # squared_diff=(weights数据-input_vector)的平方
            # sum_squared_diff=(weights数据-input_vector)的平方和
            # distances[i, j]是(weights数据-input_vector)的平方和再开方
            # 随着i和j的增加,diff会增加,distances[i, j]也会增加
            diff = weights[i, j] - input_vector
            squared_diff = diff ** 2
            sum_squared_diff = np.sum(squared_diff)
            distances[i, j] = np.sqrt(sum_squared_diff)
    return distances

# 找到最佳匹配单元(BMU)
def find_bmu(distances):
    # np.argmin(distances)求出distance的最小值
    # np.unravel_index返回distance的最小值在distance中的索引位置
    return np.unravel_index(np.argmin(distances), distances.shape)

# 更新 BMU 及其邻域内神经元的权重
def update_weights(input_vector, bmu, weights, radius, learning_rate):
    # 提取weights数组的结构属性:深度、行数、列数
    rows, cols, _ = weights.shape
    for i in range(rows):
        for j in range(cols):
            # 计算当前神经元与 BMU 之间的距离
            dist_to_bmu = np.sqrt((i - bmu[0]) ** 2 + (j - bmu[1]) ** 2)
            if dist_to_bmu <= radius:
                # 计算邻域函数值
                influence = np.exp(-(dist_to_bmu ** 2) / (2 * radius ** 2))
                # 更新权重
                weights[i, j] += learning_rate * influence * (input_vector - weights[i, j])
    return weights

# 训练 SOM
for iteration in range(max_iterations):
    # 随机选择一个输入向量
    # input_vector是从data的所有行里面随机提取的一行
    input_vector = data[np.random.randint(0, data.shape[0])]
    # 计算当前的学习率和邻域半径
    current_learning_rate = decay_function(initial_learning_rate, iteration, time_constant)
    current_radius = decay_function(initial_radius, iteration, time_constant)
    # 计算输入向量与所有神经元权重之间的距离
    distances = calculate_distances(input_vector, weights)
    # 找到 BMU
    bmu = find_bmu(distances)
    # 更新权重
    weights = update_weights(input_vector, bmu, weights, current_radius, current_learning_rate)

# 可视化 SOM 结果
plt.figure(figsize=(10, 10))
# 绘制数据点
plt.scatter(data[:, 0], data[:, 1], c='b', label='Data Points')
# 绘制 SOM 网格
for i in range(grid_size[0]):
    for j in range(grid_size[1]):
        # 绘制神经元的位置
        plt.scatter(weights[i, j, 0], weights[i, j, 1], c='r', s=100)
        # 绘制水平连接
        if j < grid_size[1] - 1:
            plt.plot([weights[i, j, 0], weights[i, j + 1, 0]],
                     [weights[i, j, 1], weights[i, j + 1, 1]], 'k-')
        # 绘制垂直连接
        if i < grid_size[0] - 1:
            plt.plot([weights[i, j, 0], weights[i + 1, j, 0]],
                     [weights[i, j, 1], weights[i + 1, j, 1]], 'k-')

plt.title('Self - Organizing Map')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.legend()
plt.show()

代码运行获得的图像为:

图1 SOM算法运行效果

【4】算法分析

实际上,SOM 算法本身因为涉及索引操作,所以理解起来比较复杂。

在最初的理解层面:输入层的每一个元素都会直接作用到输出层的每一个元素。

需要再叠加一层:输入层和输出层的每一个位置索引都相关。

为便于理解,直接看核心的SOM 算法执行过程:

# 训练 SOM
# 这是实质的SOM 主函数
for iteration in range(max_iterations):
    # 随机选择一个输入向量
    # input_vector是从data的所有行里面随机提取的一行
    # 第一维度代表矩阵的行数,data.shape[0]获得data二维数组的行数
    # 由于每一次挑选input_vector都是随机的,所以存在全部data行都被选中的可能
    input_vector = data[np.random.randint(0, data.shape[0])]
    # 计算当前的学习率和邻域半径
    current_learning_rate = decay_function(initial_learning_rate, iteration, time_constant)
    current_radius = decay_function(initial_radius, iteration, time_constant)
    # 计算输入向量与所有神经元权重之间的距离
    distances = calculate_distances(input_vector, weights)
    # 找到 BMU
    # find_bmu函数是取出distances矩阵数组中最小的distances所在的位置索引
    # bmu只是位置函数
    bmu = find_bmu(distances)
    # 更新权重
    weights = update_weights(input_vector, bmu, weights, current_radius, current_learning_rate)

先取了input_vector数组,它是一个一维数组,是SOM算法的输入;

然后定义了学习率和领域半径,这两个参数的作用是用于调整权重向量weights;

在调整权重向量weights之前,需要计算输入和各个weights之间的距离;

距离计算完之后,需要获得最小距离对应的位置索引;

更新权重向量时,需要以最小距离所在的位置为参考,在一定的领域半径范围内才会对权重向量更新,否则就保持原值。

总结下来,先获得一个最小的输入量和weights量的差,然后在差最小,也就是最接近输入量的位置处,往周围拓展赋值。

按照这个思路理解,再回头去看各个子函数,对算法的理解会更深入。

文章里的代码使用了常规的for循环,而非已经成型的内置函数,读懂代码对理解SOM算法的本质意义有很大帮助。

【5】总结

学习了SOM算法的基本原理,使用python代码实现了SOM算法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2310682.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

IP协议、DNS协议、DHCP协议、Telent协议的记忆总结

首先记忆一下几个协议的端口号 HTTP&#xff1a;超文本传输协议 80 HTTPS&#xff1a;安全传输协议 443 DHCP&#xff1a;动态主机配置协议 67/68 DNS&#xff1a;域名解析协议 53 FTP&#xff1a;文件传输协议 20/21 TFTP&#xff1a;简单文件传输协议 69 TELENT&#xff1a;远…

Pico 4 Enterprise(企业版)与Unity的交互-有线串流调试篇

入手了Pico 4 E做VR开发&#xff0c;谁知入了天坑...根据官方文档&#xff0c;尝试了串流助手、企业串流、PICO Developer Center&#xff0c;陷入了各种版本问题、环境问题的陷阱。而且Pico4E的OS自24年12开始就不再更新&#xff0c;头盔中预装的企业串流版本也较低&#xff0…

DeepSeek-R1:使用KTransformers实现高效部署指南

KTransformers作为一个开源框架&#xff0c;专门为优化大规模语言模型的推理过程而设计。它支持GPU/CPU异构计算&#xff0c;并针对MoE架构的稀疏性进行了特别优化&#xff0c;可以有效降低硬件要求&#xff0c;允许用户在有限的资源下运行像DeepSeek-R1这样庞大的模型。 硬件…

任务9:交换机基础及配置

CSDN 原创主页&#xff1a;不羁https://blog.csdn.net/2303_76492156?typeblog 一、交换机基础 交换机的概念&#xff1a;交换机是一种网络设备&#xff0c;用于连接多台计算机或网络设备&#xff0c;实现数据包在局域网内的快速交换。交换机基于MAC地址来转发数据包&#x…

Notepad++ 8.6.7 安装与配置全攻略(Windows平台)

一、软件定位与核心优势 Notepad 是开源免费的代码/文本编辑器&#xff0c;支持超过80种编程语言的高亮显示&#xff0c;相比系统自带记事本具有以下优势&#xff1a; 轻量高效&#xff1a;启动速度比同类软件快30%插件扩展&#xff1a;支持NppExec、JSON Viewer等200插件跨文…

SpringMVC请求处理流程:DispatcherServlet工作原理

文章目录 引言一、DispatcherServlet概述二、DispatcherServlet初始化过程三、请求接收与处理器匹配四、请求参数绑定与处理器执行五、视图解析与渲染六、异常处理机制总结 引言 SpringMVC框架是Java Web开发中最流行的MVC框架之一&#xff0c;其核心组件DispatcherServlet作为…

解锁数据潜能,永洪科技以数据之力简化中粮可口可乐决策之路

企业数字化转型是指企业利用数字技术和信息通信技术来改变自身的商业模式、流程和增值服务&#xff0c;以提高企业的竞争力和创新能力。数字化转型已经成为企业发展的重要战略&#xff0c;尤其在当前信息技术高速发展的时代。数字化转型还涉及到企业与消费者之间的互动和沟通。…

双链路提升网络传输的可靠性扩展可用带宽

为了提升网络传输的可靠性或增加网络可用带宽&#xff0c; 通常使用双链路冗余备份或者双链路聚合的方式。 本文介绍几种双链路网络通信的案例。 5GWiFi冗余传输 双Socket绑定不同网络接口&#xff1a;通过Android的ConnectivityManager绑定5G蜂窝网络和WiFi的Socket连接&…

前端性能优化之同时插入100000个元素页面不卡顿

面试官&#xff1a;同时插入100000个元素怎么让页面不卡顿 优化前写法 首先我们来看下面的一段&#xff0c;点击按钮后&#xff0c;循环100000次&#xff0c;每次都插入一个元素&#xff0c;并且插入区域上方还有一个小球在滚动&#xff0c;在插入的过程中我们可以观察小球的…

Exoplayer2源码编译FFmpeg拓展模块实现音频软解码

在前面文章最新版本Exoplayer扩展FFmpeg音频软解码保姆级教程中介绍了最新版本的Exoplayer(androidx.Media3)编译FFmpeg模块的流程&#xff0c;有就是media3版本的explayer最低支持的sdk版本是21也就是Android5.x,但是市面上还是有很多IOT设备是很老的android4.4(sdk19)的&…

Docker安装嵌入框架Text Embeddings Inference (TEI)

Docker安装Text Embeddings Inference (TEI) 1 简单介绍 文本嵌入推理&#xff08;TEI&#xff0c;Text Embeddings Inference &#xff09;是HuggingFace研发的一个用于部署和服务开源文本嵌入和序列分类模型的工具包。TEI兼容OpenAI的嵌入模型的规范。 # 官网地址 https:/…

MAUI(C#)安卓开发起步

初级代码游戏的专栏介绍与文章目录-CSDN博客 我的github&#xff1a;codetoys&#xff0c;所有代码都将会位于ctfc库中。已经放入库中我会指出在库中的位置。 这些代码大部分以Linux为目标但部分代码是纯C的&#xff0c;可以在任何平台上使用。 源码指引&#xff1a;github源…

PPT小黑第26套

对应大猫28 层次级别是错的&#xff0c;看着是十页&#xff0c;导入ppt之后四十多页 选中所有 红色蓝色黑色 文本选择标题&#xff1a;选择 -格式相似文本&#xff08;检查有没有漏选 漏选的话 按住ctrl 点下一个&#xff09; 要求新建幻灯片中不包含原素材中的任何格式&…

【Linux-网络】HTTP的清风与HTTPS的密语

&#x1f3ac; 个人主页&#xff1a;谁在夜里看海. &#x1f4d6; 个人专栏&#xff1a;《C系列》《Linux系列》《算法系列》 ⛰️ 道阻且长&#xff0c;行则将至 目录 &#x1f4da; 引言 &#x1f4da; 一、HTTP &#x1f4d6; 1.概述 &#x1f4d6; 2.URL &#x1f5…

解决docker认证问题 failed to authorize: failed to fetch oauth token

报错信息[bash1]解决方案 全局代理打开“buildkit”: false &#xff0c;见[图1] [bash1] >docker build -t ffpg . [] Building 71.8s (3/3) FINISHED docker:desktop-linux> [internal] load bui…

无人机应用探索:玻纤增强复合材料的疲劳性能研究

随着无人机技术的快速发展&#xff0c;轻量化已成为其结构设计的核心需求。玻纤增强复合材料凭借高强度、低密度和优异的耐环境性能&#xff0c;成为无人机机身、旋翼支架等关键部件的理想选择。然而&#xff0c;无人机在服役过程中需应对复杂多变的环境&#xff1a;高空飞行时…

Visual Studio工具

高亮显示匹配的标签&#xff08;小括号&#xff0c;中括号&#xff0c;大括号&#xff09;

STM32Cubemx配置E22-xxxT22D lora模块实现定点传输

文章目录 一、STM32Cubemx配置二、定点传输**什么是定点传输&#xff1f;****定点传输的特点****定点传输的工作方式****E22 模块定点传输配置****如何启用定点传输&#xff1f;****示例** **应用场景****总结** **配置 1&#xff1a;C0 00 07 00 02 04 62 00 17 40****解析** …

WPF+WebView 基础

1、基于.NET8&#xff0c;通过NuGet添加Microsoft.Web.WebView2。 2、MainWindow.xaml代码如下。 <Window x:Class"Demo.MainWindow"xmlns"http://schemas.microsoft.com/winfx/2006/xaml/presentation"xmlns:x"http://schemas.microsoft.com/win…

蓝桥杯算法——铠甲合体

问题描述 暗影大帝又开始搞事情了&#xff01;这次他派出了 MM 个战斗力爆表的暗影护法&#xff0c;准备一举摧毁 ERP 研究院&#xff01;MM 个暗影护法的战斗力可分别用 B1,⋯,BMB1​,⋯,BM​ 表示。 ERP 研究院紧急召唤了 NN 位铠甲勇士前来迎战&#xff01;每位铠甲勇士都…