人工智能知识分享第五天-正则化.损失函数案例

news2025/1/5 9:13:05

正则化

欠拟合与过拟合

过拟合:一个假设 在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据 (体现在准确率下降),此时认为这个假设出现了过拟合的现象。(模型过于复杂)

欠拟合:一个假设 在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据 ,此时认为这个假设出现了欠拟合的现象。(模型过于简单)

过拟合和欠拟合的区别:
在这里插入图片描述
欠拟合在训练集和测试集上的误差都较大

过拟合在训练集上误差较小,而测试集上误差较大
在这里插入图片描述

损失函数案例

波士顿房价预测
案例背景介绍

数据介绍
在这里插入图片描述
在这里插入图片描述
给定的这些特征,是专家们得出的影响房价的结果属性。不需要自己去探究特征是否有用,只需要使用这些特征。

案例分析

回归当中的数据大小不一致,是否会导致结果影响较大。所以需要做标准化处理。

  • 数据分割与标准化处理
  • 回归预测
  • 线性回归的算法效果评估
回归性能评估

均方误差(Mean Squared Error, MSE)评价机制

  • 均方误差回归损失
  • y_true:真实值
  • y_pred:预测值
  • return:浮点数结果

波士顿房价预测_正规方程解法

"""
案例:
    波士顿房价预测, 正规方程解法.

回顾:
    正规方程解法 和 梯度下降的区别:
        相同点: 都可以用来找 损失函数的极小值, 评估 回归模型.
        不同点:
            正规方程: 一次性求解, 资源开销较大, 适合于小批量干净的数据集, 如果数据没有逆, 也无法计算.
            梯度下降: 迭代求解, 资源开销相对较小, 适用于大批量的数据集, 实际开发 更推荐.
                分类:
                    全梯度下降
                    随机梯度下降
                    小批量梯度下降
                    随机平均梯度下降

    线性回归模型 评估的方案:
        方案1: 平均绝对误差, Mean Absolute Error,  误差绝对值的和 的 平均值.
        方案2: 均方误差, Mean Squared Error, 误差的平方和的平均值
        方案3: 均方根误差, Root Mean Squared Error, 误差的平方和的平均值的 平方根.

    机器学习项目的研发流程:
        1. 获取数据.
        2. 数据的预处理.
        3. 特征工程.
            特征提取, 特征预处理(标准化, 归一化), 特征降维, 特征选取, 特征组合.
        4. 模型训练.
        5. 模型评估.
        6. 模型预测.
"""

# 导包


# from sklearn.datasets import load_boston           # 数据集
from sklearn.preprocessing import StandardScaler  # 特征处理
from sklearn.model_selection import train_test_split  # 数据集划分
from sklearn.linear_model import LinearRegression  # 正规方程的回归模型
from sklearn.metrics import mean_squared_error, mean_absolute_error, root_mean_squared_error  # 均方误差评估 平均绝对值误差评估 均方根误差评估
import pandas as pd
import numpy as np

# 1. 获取数据.
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]

# 查看数据 以及数量
# print(f'特征: {len(data)}, {data[:5]}')
# print(f'目标: {len(target)}, {target[:5]}')
# 2. 数据的预处理.
x_train, x_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=22)

# 3. 特征工程, 特征提取, 特征预处理(标准化, 归一化), 特征降维, 特征选取, 特征组合.
# 3.1 创建标准化对象.
transfer = StandardScaler()
# 3.2 对训练和 和 测试集的 特征进行标准化处理.
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)

# 4. 模型训练.
# 4.1 创建 线性回归之 正规方程对象.
# 参数: fit_intercept: 是否计算截距(bias, 偏置), 默认是: True
estimator = LinearRegression(fit_intercept=True)
# 4.2 模型训练.
estimator.fit(x_train, y_train)

# 5. 模型预测.
y_predict = estimator.predict(x_test)
print(f'预测值为:{y_predict}')
print(f'权重:{estimator.coef_}')
print(f'偏置:{estimator.intercept_}')

# 6. 模型评估.
# 参1: 真实值, 参2: 预测值
# MAE(平均绝对误差) 和 RMSE(均方根误差) 都可以衡量模型的预测效果, 如果更关注异常值, 就用 RMSE

print(f'平均绝对误差: {mean_absolute_error(y_test, y_predict)}')
print(f'均方误差: {mean_squared_error(y_test, y_predict)}')  # 20.77068478427006

print(f'均方根误差: {root_mean_squared_error(y_test, y_predict)}')  # 4.557486674063903
print(f'均方根误差: {np.sqrt(mean_squared_error(y_test, y_predict))}')  # 4.557486674063903, 效果同上, sqrt全称是: square root

波士顿房价预测_梯度下降解法

"""
案例:
    波士顿房价预测, 梯度下降解法.

回顾:
    正规方程解法 和 梯度下降的区别:
        相同点: 都可以用来找 损失函数的极小值, 评估 回归模型.
        不同点:
            正规方程: 一次性求解, 资源开销较大, 适合于小批量干净的数据集, 如果数据没有逆, 也无法计算.
            梯度下降: 迭代求解, 资源开销相对较小, 适用于大批量的数据集, 实际开发 更推荐.
                分类:
                    全梯度下降
                    随机梯度下降
                    小批量梯度下降
                    随机平均梯度下降

    线性回归模型 评估的方案:
        方案1: 平均绝对误差, Mean Absolute Error,  误差绝对值的和 的 平均值.
        方案2: 均方误差, Mean Squared Error, 误差的平方和的平均值
        方案3: 均方根误差, Root Mean Squared Error, 误差的平方和的平均值的 平方根.

    机器学习项目的研发流程:
        1. 获取数据.
        2. 数据的预处理.
        3. 特征工程.
            特征提取, 特征预处理(标准化, 归一化), 特征降维, 特征选取, 特征组合.
        4. 模型训练.
        5. 模型评估.
        6. 模型预测.
"""

# 导包
# from sklearn.datasets import load_boston                # 数据
from sklearn.preprocessing import StandardScaler  # 特征处理
from sklearn.model_selection import train_test_split  # 数据集划分
from sklearn.linear_model import LinearRegression  # 正规方程的回归模型
from sklearn.linear_model import SGDRegressor  # 梯度下降的回归模型
from sklearn.metrics import mean_squared_error, mean_absolute_error, \
    root_mean_squared_error  # 均方误差评估, 平均绝对值误差评估, 均方根误差评估
import pandas as pd
import numpy as np

# 1. 获取数据.
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]
print(f'特征: {len(data)}, {data[:3]}')
print(f'标签: {len(target)}, {target[:3]}')

# 2. 数据的预处理.                                            特征   标签    测试集占比           随机种子
x_train, x_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=22)

# 3. 特征工程, 特征提取, 特征预处理(标准化, 归一化), 特征降维, 特征选取, 特征组合.
# 3.1 创建标准化对象.
transfer = StandardScaler()
# 3.2 对训练和 和 测试集的 特征进行标准化处理.
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)

# 4. 模型训练.
# 4.1 创建 线性回归之 梯度下降对象.
# 参数: fit_intercept: 是否计算截距(bias, 偏置), 默认是: True
# estimator = LinearRegression(fit_intercept=True)
#                            参1: 是否计算偏置   参2 : 学习率固定为常量     参3: 学习率的值
estimator = SGDRegressor(fit_intercept=True, learning_rate='constant', eta0=0.008)
# 4.2 模型训练.4
estimator.fit(x_train, y_train)

# 5. 模型预测.
y_predict = estimator.predict(x_test)
print(f'权重: {estimator.coef_}')
print(f'偏置: {estimator.intercept_}')
print('-' * 22)

# 6. 模型评估.
# 参1: 真实值, 参2: 预测值
# MAE(平均绝对误差) 和 RMSE(均方根误差) 都可以衡量模型的预测效果, 如果更关注异常值, 就用 RMSE
print(f'平均绝对误差: {mean_absolute_error(y_test, y_predict)}')
print(f'均方误差: {mean_squared_error(y_test, y_predict)}')

print(f'均方根误差: {root_mean_squared_error(y_test, y_predict)}')
print(f'均方根误差: {np.sqrt(mean_squared_error(y_test, y_predict))}')

正则化解决过拟合案例

"""
案例:
    演示正则化解决 拟合问题.

回顾:
    拟合: 指的是 模型和数据之间存在关系, 即: 预测值 和 真实值之间的关系.
    欠拟合: 模型在训练集, 测试集标签都不好.
        原因: 模型过于简单了.
    过拟合: 模型在训练集表现好, 在测试集表现不好.
        原因: 模型过于复杂了, 数据不纯, 数据量少.
    正好拟合(泛化): 模型在训练集, 测试集都好

    奥卡姆剃刀: 在误差相同(泛化程度一样)的情况下, 优先选择简单的模型.

正则化解释:
    概述:
        正则化: 是一种对模型复杂度的一种控制, 通过 降低特征的权重 实现.
    分类:
        L1正则化, 指的是: Lasso模块, 会 降低权重, 甚至可能降为0 -> 特征选取.
        L2正则化, 指的是: Ridge模块, 会 降低权重, 但不会降为0.
"""
# 导包
import numpy as np  # 主要是做数学相关运算操作等.
import matplotlib.pyplot as plt  # Matplotlib绘图的
from sklearn.linear_model import LinearRegression, Lasso, Ridge  # 线性回归的 正规方程解法, L1正则化, L2正则化.
from sklearn.metrics import mean_squared_error, root_mean_squared_error, mean_absolute_error  # 计算均方误差, 均方根误差, 平均绝对误差
from sklearn.model_selection import train_test_split  # 切割测试集和训练集.


# 1. 定义函数, 演示: 欠拟合情况.
def dm01_模型欠拟合():
    # 1. 生成数据.
    # 1.1 指定随机数种子, 种子一样, 则每次生成的随机数的规则都是相同的.
    np.random.seed(22)
    # 1.2 生成x轴的坐标.
    x = np.random.uniform(-3, 3, size=100)
    # 1.3 基于x轴的值, 结合线性公式, 生成y轴的值.
    # 回顾一元线性回归公式: y = kx + b, 这里为了数据效果更好, 加入噪声...
    # 即: y = 0.5x² + x + 2 + 噪声(正太分布生成的随机数).
    #  np.random.normal(0, 1, size=100)意思是: 生成正态分布的随机数, 均值是0, 标准差是1, 随机数个数是100.
    y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)
    # 1.4 查看数据集.
    print(f'x轴的值: {x}')     #  [1, 2, 3]
    print(f'y轴的值: {y}')

    # 2. 数据的预处理.
    X1 = x.reshape(-1, 1)
    print(f'处理后, X: {X1}')   # [[1], [2], [3]]

    # 3. 创建模型(算法)对象.
    # 3.1 线性回归的 正规方程对象.
    estimator = LinearRegression()
    # 3.2 模型训练.
    estimator.fit(X1, y)

    # 4. 模型预测.
    y_predict = estimator.predict(X1)
    print(f'预测值: {y_predict}')

    # 5. 模型评估.
    print(f'均方误差: {mean_squared_error(y, y_predict)}')
    print(f'均方根误差: {root_mean_squared_error(y, y_predict)}')
    print(f'平均绝对误差: {mean_absolute_error(y, y_predict)}')

    # 6. 绘制图形.
    plt.scatter(x, y)                           # 真实值的x轴, y轴 绘制散点图.
    plt.plot(x, y_predict, color='red')   # 预测值的x轴, y轴 绘制折线图(充当拟合回归线)
    plt.show()


# 2. 定义函数, 演示: 正好拟合的情况.
def dm02_模型正好拟合():
    # 1. 生成数据.
    # 1.1 指定随机数种子, 种子一样, 则每次生成的随机数的规则都是相同的.
    np.random.seed(22)
    # 1.2 生成x轴的坐标.
    x = np.random.uniform(-3, 3, size=100)
    # 1.3 基于x轴的值, 结合线性公式, 生成y轴的值.
    # 回顾一元线性回归公式: y = kx + b, 这里为了数据效果更好, 加入噪声...
    # 即: y = 0.5x² + x + 2 + 噪声(正太分布生成的随机数).
    #  np.random.normal(0, 1, size=100)意思是: 生成正态分布的随机数, 均值是0, 标准差是1, 随机数个数是100.
    y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)
    # 1.4 查看数据集.
    print(f'x轴的值: {x}')     # [1, 2, 3]
    print(f'y轴的值: {y}')

    # 2. 数据的预处理.
    X1 = x.reshape(-1, 1)
    # np.hstack()解释: 垂直合并, 即: 竖直方向合并.
    X2 = np.hstack([X1, X1 ** 2])
    print(f'处理后, X1: {X1}')   # [[1], [2], [3]]
    print(f'处理后, X2: {X2}')   # [[1, 1], [2, 4], [3, 9]]

    # 3. 创建模型(算法)对象.
    # 3.1 线性回归的 正规方程对象.
    estimator = LinearRegression()
    # 3.2 模型训练.
    estimator.fit(X2, y)

    # 4. 模型预测.
    y_predict = estimator.predict(X2)
    print(f'预测值: {y_predict}')

    # 5. 模型评估.
    print(f'均方误差: {mean_squared_error(y, y_predict)}')
    print(f'均方根误差: {root_mean_squared_error(y, y_predict)}')
    print(f'平均绝对误差: {mean_absolute_error(y, y_predict)}')

    # 6. 绘制图形.
    # 6.1 真实值的x轴, y轴 绘制散点图.
    plt.scatter(x, y)
    # 6.2 根据预测值的x轴(升序排序), y轴值, 绘制折线图(充当拟合回归线).
    plt.plot(np.sort(x), y_predict[np.argsort(x)], color='red')   # 预测值的x轴, y轴 绘制折线图(充当拟合回归线)
    plt.show()


# 3. 定义函数, 演示: 过拟合的情况.
def dm03_模型过拟合():
    # 1. 生成数据.
    # 1.1 指定随机数种子, 种子一样, 则每次生成的随机数的规则都是相同的.
    np.random.seed(22)
    # 1.2 生成x轴的坐标.
    x = np.random.uniform(-3, 3, size=100)
    # 1.3 基于x轴的值, 结合线性公式, 生成y轴的值.
    # 回顾一元线性回归公式: y = kx + b, 这里为了数据效果更好, 加入噪声...
    # 即: y = 0.5x² + x + 2 + 噪声(正太分布生成的随机数).
    #  np.random.normal(0, 1, size=100)意思是: 生成正态分布的随机数, 均值是0, 标准差是1, 随机数个数是100.
    y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)
    # 1.4 查看数据集.
    print(f'x轴的值: {x}')     # [1, 2, 3]
    print(f'y轴的值: {y}')

    # 2. 数据的预处理.
    X1 = x.reshape(-1, 1)
    # np.hstack()解释: 垂直合并, 即: 竖直方向合并.
    X3 = np.hstack([X1, X1 ** 2, X1 ** 3, X1 ** 4, X1 ** 5, X1 ** 6, X1 ** 7, X1 ** 8, X1 ** 9, X1 ** 10])
    print(f'处理后, X1: {X1}')   # [[1], [2], [3]]
    print(f'处理后, X3: {X3}')   # [[1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [2, 4, 8, 16, 32, 64, 128, 256, 512, 1024], [3, 9, 27...]]

    # 3. 创建模型(算法)对象.
    # 3.1 线性回归的 正规方程对象.
    estimator = LinearRegression()
    # 3.2 模型训练.
    estimator.fit(X3, y)

    # 4. 模型预测.
    y_predict = estimator.predict(X3)
    print(f'预测值: {y_predict}')

    # 5. 模型评估.
    print(f'均方误差: {mean_squared_error(y, y_predict)}')
    print(f'均方根误差: {root_mean_squared_error(y, y_predict)}')
    print(f'平均绝对误差: {mean_absolute_error(y, y_predict)}')

    # 6. 绘制图形.
    # 6.1 真实值的x轴, y轴 绘制散点图.
    plt.scatter(x, y)
    # 6.2 根据预测值的x轴(升序排序), y轴值, 绘制折线图(充当拟合回归线).
    plt.plot(np.sort(x), y_predict[np.argsort(x)], color='red')   # 预测值的x轴, y轴 绘制折线图(充当拟合回归线)
    plt.show()


# 4. 定义函数, 演示: L1正则化 解决 过拟合.
def dm04_L1正则化():
    # 1. 生成数据.
    # 1.1 指定随机数种子, 种子一样, 则每次生成的随机数的规则都是相同的.
    np.random.seed(22)
    # 1.2 生成x轴的坐标.
    x = np.random.uniform(-3, 3, size=100)
    # 1.3 基于x轴的值, 结合线性公式, 生成y轴的值.
    # 回顾一元线性回归公式: y = kx + b, 这里为了数据效果更好, 加入噪声...
    # 即: y = 0.5x² + x + 2 + 噪声(正太分布生成的随机数).
    #  np.random.normal(0, 1, size=100)意思是: 生成正态分布的随机数, 均值是0, 标准差是1, 随机数个数是100.
    y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)
    # 1.4 查看数据集.
    print(f'x轴的值: {x}')     # [1, 2, 3]
    print(f'y轴的值: {y}')

    # 2. 数据的预处理.
    X1 = x.reshape(-1, 1)
    # np.hstack()解释: 垂直合并, 即: 竖直方向合并.
    X3 = np.hstack([X1, X1 ** 2, X1 ** 3, X1 ** 4, X1 ** 5, X1 ** 6, X1 ** 7, X1 ** 8, X1 ** 9, X1 ** 10])
    print(f'处理后, X1: {X1}')   # [[1], [2], [3]]
    print(f'处理后, X3: {X3}')   # [[1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [2, 4, 8, 16, 32, 64, 128, 256, 512, 1024], [3, 9, 27...]]

    # 3. 创建模型(算法)对象.
    # 3.1 线性回归的 正规方程对象.
    # estimator = LinearRegression()

    # 创建 L1正则化对象.
    # 参数alpha: 正则化的(惩罚)系数, (惩罚)系数越大, 则正则化项的权重越小.
    estimator = Lasso(alpha=0.1)

    # 3.2 模型训练.
    estimator.fit(X3, y)

    # 4. 模型预测.
    y_predict = estimator.predict(X3)
    print(f'预测值: {y_predict}')

    # 5. 模型评估.
    print(f'均方误差: {mean_squared_error(y, y_predict)}')
    print(f'均方根误差: {root_mean_squared_error(y, y_predict)}')
    print(f'平均绝对误差: {mean_absolute_error(y, y_predict)}')

    # 6. 绘制图形.
    # 6.1 真实值的x轴, y轴 绘制散点图.
    plt.scatter(x, y)
    # 6.2 根据预测值的x轴(升序排序), y轴值, 绘制折线图(充当拟合回归线).
    plt.plot(np.sort(x), y_predict[np.argsort(x)], color='red')   # 预测值的x轴, y轴 绘制折线图(充当拟合回归线)
    plt.show()


# 5. 定义函数, 演示: L2正则化 解决 过拟合.
def dm05_L2正则化():
    # 1. 生成数据.
    # 1.1 指定随机数种子, 种子一样, 则每次生成的随机数的规则都是相同的.
    np.random.seed(22)
    # 1.2 生成x轴的坐标.
    x = np.random.uniform(-3, 3, size=100)
    # 1.3 基于x轴的值, 结合线性公式, 生成y轴的值.
    # 回顾一元线性回归公式: y = kx + b, 这里为了数据效果更好, 加入噪声...
    # 即: y = 0.5x² + x + 2 + 噪声(正太分布生成的随机数).
    #  np.random.normal(0, 1, size=100)意思是: 生成正态分布的随机数, 均值是0, 标准差是1, 随机数个数是100.
    y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)
    # 1.4 查看数据集.
    print(f'x轴的值: {x}')     # [1, 2, 3]
    print(f'y轴的值: {y}')

    # 2. 数据的预处理.
    X1 = x.reshape(-1, 1)
    # np.hstack()解释: 垂直合并, 即: 竖直方向合并.
    X3 = np.hstack([X1, X1 ** 2, X1 ** 3, X1 ** 4, X1 ** 5, X1 ** 6, X1 ** 7, X1 ** 8, X1 ** 9, X1 ** 10])
    print(f'处理后, X1: {X1}')   # [[1], [2], [3]]
    print(f'处理后, X3: {X3}')   # [[1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [2, 4, 8, 16, 32, 64, 128, 256, 512, 1024], [3, 9, 27...]]

    # 3. 创建模型(算法)对象.
    # 3.1 线性回归的 正规方程对象.
    # estimator = LinearRegression()

    # 创建 L1正则化对象.
    # 参数alpha: 正则化的(惩罚)系数, (惩罚)系数越大, 则正则化项的权重越小.
    # estimator = Lasso(alpha=0.1)

    # 创建 L2正则化对象.
    estimator = Ridge(alpha=0.1)

    # 3.2 模型训练.
    estimator.fit(X3, y)

    # 4. 模型预测.
    y_predict = estimator.predict(X3)
    print(f'预测值: {y_predict}')

    # 5. 模型评估.
    print(f'均方误差: {mean_squared_error(y, y_predict)}')
    print(f'均方根误差: {root_mean_squared_error(y, y_predict)}')
    print(f'平均绝对误差: {mean_absolute_error(y, y_predict)}')

    # 6. 绘制图形.
    # 6.1 真实值的x轴, y轴 绘制散点图.
    plt.scatter(x, y)
    # 6.2 根据预测值的x轴(升序排序), y轴值, 绘制折线图(充当拟合回归线).
    plt.plot(np.sort(x), y_predict[np.argsort(x)], color='red')   # 预测值的x轴, y轴 绘制折线图(充当拟合回归线)
    plt.show()


# 6. 在main方法中测试.
if __name__ == '__main__':
    # dm01_模型欠拟合()
    # dm02_模型正好拟合()
    # dm03_模型过拟合()
    # dm04_L1正则化()
    dm05_L2正则化()

坚持分享 共同进步 如有错误 欢迎指出

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2269680.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

CSS2笔记

一、CSS基础 1.CSS简介 2.CSS的编写位置 2.1 行内样式 2.2 内部样式 2.3 外部样式 3.样式表的优先级 4.CSS语法规范 5.CSS代码风格 二、CSS选择器 1.CSS基本选择器 通配选择器元素选择器类选择器id选择器 1.1 通配选择器 1.2 元素选择器 1.3 类选择器 1.4 ID选择器 1.5 基…

如何在 Ubuntu 22.04 上优化 Apache 以应对高流量网站教程

简介 在本教程中,我们将学习如何优化 Apache 以应对高流量网站。 当运行高流量网站时,确保你的 Apache Web 服务器得到优化对于有效处理负载至关重要。在本指南中,我们将介绍配置 Apache 以提高性能和可扩展性的基本技巧。 为高流量网站优…

安装教程:慧集通集成平台(DataLinkX)智能体客户端安装操作(Linux/windows/mac)

1.下载客户端 使用提供的账号登录集成平台后台(https://www.datalinkx.cn/),点击左侧菜单栏【智能体】→【智能体】进入到智能体列表界面,在该界面我们找到功能栏中的下载按钮点击则会弹出下载界面,在该界面我们可以选择不同的系统操作系统来下载对应版…

Spring boot + Hibernate + MySQL实现用户管理示例

安装MySQL Windows 11 Mysql 安装及常用命令_windows11 mysql-CSDN博客 整体目录 pom.xml <?xml version"1.0" encoding"UTF-8"?> <project xmlns"http://maven.apache.org/POM/4.0.0" xmlns:xsi"http://www.w3.org/2001/XMLS…

大模型Weekly 03|OpenAI o3发布;DeepSeek-V3上线即开源!

大模型Weekly 03&#xff5c;OpenAI o3发布&#xff1b;DeepSeek-V3上线即开源&#xff01;DeepSeek-V3上线即开源&#xff1b;OpenAI 发布高级推理模型 o3https://mp.weixin.qq.com/s/9qU_zzIv9ibFdJZ5cTocOw?token47960959&langzh_CN 「青稞大模型Weekly」&#xff0c;持…

电路学习之前言

1.作为一名嵌入式开发者&#xff0c;去学习电路是必经之路。如果是一名嵌入式软件开发者&#xff0c;可能对电路和硬件的开发要求是能看懂电路图即可&#xff0c;但是&#xff0c;学习电路可以进一步提高看电路图的能力&#xff0c;可以提升自己的整体实力水平。而且&#xff0…

Java反射详解(二)

上一篇博客&#xff1a;Java反射详解&#xff08;一&#xff09; 写在前面&#xff1a;大家好&#xff01;我是晴空๓。如果博客中有不足或者的错误的地方欢迎在评论区或者私信我指正&#xff0c;感谢大家的不吝赐教。我的唯一博客更新地址是&#xff1a;https://ac-fun.blog.c…

zentao ubuntu上安装

#下载ZenTaoPMS-21.2-zbox_amd64.tar.gz&#xff08;https://www.zentao.net/downloads.html&#xff09; https://dl.zentao.net/zentao/21.2/ZenTaoPMS-21.2-zbox_amd64.tar.gzcd /opt tar -zxvf ZenTaoPMS-21.2-zbox_amd64.tar.gz#启动 /opt/zbox/zbox start /opt/zbox/zbox…

逆境清醒文章总目录表

逆境清醒文章总目录表 零、时光宝盒&#x1f33b; &#xff08;https://blog.csdn.net/weixin_69553582 逆境清醒&#xff09; 《你的答案》歌曲原唱&#xff1a;阿冗&#xff0c;填 词&#xff1a;林晨阳、刘涛&#xff0c;谱曲&#xff1a;刘涛 也许世界就这样&#xff0c…

【嵌入式硬件】嵌入式显示屏接口

数字显示串行接口&#xff08;Digital Display Serial Interface&#xff09; SPI 不过多赘述。 I2C-bus interface 不过多赘述 MIPI DSI MIPI (Mobile Industry Processor Interface) Alliance, DSI (Display Serial Interface) 一般用于移动设备&#xff0c;下面是接口…

AI证件照制作 API 快速生成示例

AI证件照制作 API 快速生成证件照示例 本文将介绍一种 AI证件照制作 API 对接说明&#xff0c;它是可以通过输入人像照片URL以及自己喜欢的模板来制作各种风格的证件照。 接下来介绍下 AI证件照制作 API 的对接说明。 申请流程 要使用 API&#xff0c;需要先到 AI证件照制作…

一个在ios当中采用ObjectC和opencv来显示图片的实例

前言 在ios中采用ObjectC编程利用opencv来显示一张图片&#xff0c;并简单绘图。听上去似乎不难&#xff0c;但是实际操作下来&#xff0c;却不是非常的容易的。本文较为详细的描述了这个过程&#xff0c;供后续参考。 一、创建ios工程 1.1、选择ios工程类型 1.2、选择接口模…

006-Jetpack Compose for Android之传感器数据

需求分析 想要看看手机的传感器数据&#xff0c;看看滤波一下能玩点什么无聊的。先搞个最简单的&#xff0c;手机本身的姿态。 需求&#xff1a;采集手机姿态数据&#xff0c;显示在界面上。 那么我们需要&#xff1a; 一个文本标签类似的控件&#xff0c;显示手机姿态数据…

SpringBoot3 快速启动框架

文章目录 1 SpringBoot3 介绍 1.1 SpringBoot3 简介1.2 快速入门1.3 入门总结 2 SpringBoot3 配置文件 2.1 统一配置管理概述2.2 属性配置文件使用2.3 YAML配置文件使用2.4 批量配置文件注入2.5 多环境配置和使用 3 SpringBoot 整合 springMVC 3.1 实现过程3.2 web相关配置3.3…

大型ERP系统GL(总账管理)模块需求分析

主要介绍了GL系统的需求分析&#xff0c;包括系统概述、功能描述、帐薄管理、报表管理、期末处理、财务报表以及凭证的快速输入方式、可用性设计、保存、自动审核和打印等方面的内容。系统概述部分介绍了系统的功能结构和模块流程图。 功能描述部分详细描述了系统的基础资料和业…

利用python将图片转换为pdf格式的多种方法,实现批量转换,内置模板代码,全网最全,超详细!!!

文章目录 前言1、img2pdf库的使用1.2 安装img2pdf库1.3 案例演示&#xff08;模板代码&#xff09; 2、Pillow库的使用2.1 pillow库的安装2.2 案例演示&#xff08;模板代码&#xff09; 3、PyMuPDF库的使用3.1 安装pymupdf库3.2 案例演示&#xff08;模板代码&#xff09;2.3 …

协议幻变者:DeviceNet转ModbusTCP网关开启机器手臂智能新纪元

技术背景DeviceNet是一种广泛应用于工业自动化领域的现场总线标准&#xff0c;它能够实现控制器与现场设备之间的高效通信&#xff0c;常用于连接各种传感器、执行器以及其他工业设备&#xff0c;如机器人、电机驱动器等&#xff0c;具有实时性强、可靠性高的特点。而ModbusTCP…

Linux 安装运行gatk的教程

1.下载安装 wget https://github.com/broadinstitute/gatk/releases/download/4.1.8.1/gatk-4.1.8.1.zip2.解压 unzip *.zip3.查看 gatk --help 如下显示表示安装成功&#xff1a; 注意&#xff1a;仅限在该包所在位置的路径下能使用

使用Xilinx PCIE XDMA框架读写访问DDR3内容

在 FPGA 开发中&#xff0c;使用 XDMA&#xff08;PCIe DMA&#xff09;是实现主机和 FPGA 之间数据传输的常见方法。xdma_rw.exe 是一个官方提供的命令行工具&#xff0c;用于与 FPGA 进行读写操作&#xff0c;支持从 PCIe 总线读取或写入数据。我利用xdma框架实现了DDR3内存的…

【论文笔记之 Mega-TTS2】Boosting Prompting Mechanisms For Zero-Shot Speech Synthesis

本文对 Ziyue Jiang 等人于 2024 年发表的论文进行简单地翻译。如有表述不当之处欢迎批评指正。欢迎任何形式的转载&#xff0c;但请务必注明出处。 论文链接&#xff1a;https://arxiv.org/pdf/2307.07218 目录 Abstract1. 介绍2. 背景3. 方法3.1. 解耦出韵律和音色3.2. 压缩…