文章目录
- 一、算法概念
- 二、算法原理
- (一) FM表达式
- (二)时间复杂度
- (三)回归和分类
- 三、算法优缺点
- (一)优点
- (二)缺点
- 四、FM分类任务实现对比
- (一)数据加载和样本分区
- 1、Python代码
- 2、Sentosa_DSML社区版
- (二)模型训练
- 1、Python代码
- 2、Sentosa_DSML社区版
- (三)模型评估和模型可视化
- 1、Python代码
- 2、Sentosa_DSML社区版
- 五、FM回归任务实现对比
- (一)数据加载和样本分区
- 1、Python代码
- 2、Sentosa_DSML社区版
- (二)模型训练
- 1、Python代码
- 2、Sentosa_DSML社区版
- (三)模型评估和模型可视化
- 1、Python代码
- 2、Sentosa_DSML社区版
- 六、总结
一、算法概念
因子分解机(Factorization Machines, FM)是一种基于矩阵分解的机器学习算法,主要解决高维稀疏数据下的特征交互和参数估计问题。FM 通过引入特征组合和隐向量的矩阵分解来提升模型表现,特别适合处理推荐系统等场景中的数据稀疏性和特征交互复杂性。
FM 可以用于分类和回归任务,是线性模型的扩展,能够高效地捕捉特征之间的交互作用。FM 的核心是通过低维向量的内积表示特征交互,使得其参数数量随维度线性增长,从而降低计算复杂度。
FM 的主要特点:
∙
\bullet
∙有监督学习模型,适用于回归和分类任务。
∙
\bullet
∙通过低维向量的内积表示特征交互,模型结构保持线性。
∙
\bullet
∙常用训练方法:随机梯度下降(SGD)、交替最小二乘法(ALS)和马尔可夫链蒙特卡洛(MCMC)。
FM 模型通过矩阵分解对特征交互建模,并且在处理稀疏数据时有显著优势,常用于推荐系统。
二、算法原理
(一) FM表达式
为了使系统能够进行预测,它依赖于由用户事件记录生成的可用数据。这些数据是表示兴趣和意图的交易记录,例如:下载、购买、评分。
对于一个电影评论系统来说,交易数据记录了用户
u
∈
U
u \in U
u∈U 在某一时间
t
∈
R
t \in R
t∈R 对电影(物品)
i
∈
I
i \in I
i∈I 给出的评分
r
∈
{
1
,
2
,
3
,
4
,
5
}
r \in\{1, 2, 3, 4, 5 \}
r∈{1,2,3,4,5} ,由此产生的数据集可以表示如下:
用于预测的数据表示为一个矩阵
X
∈
R
m
×
n
X \in\mathbb{R}^{m \times n}
X∈Rm×n ,其中包含总共
m
m
m 个观测值,每个观测值由一个实值特征向量
x
∈
R
n
x \in\mathbb{R}^{n}
x∈Rn 组成。来自上述数据集的特征向量可以表示为:
其中,
n
=
∣
U
∣
+
∣
I
∣
+
∣
T
∣
n=| U |+| I |+| T |
n=∣U∣+∣I∣+∣T∣ ,即
x
∈
R
n
x \in\mathbb{R}^{n}
x∈Rn 也可以表示为
x
∈
R
∣
U
∣
+
∣
I
∣
+
∣
T
∣
x \in\mathbb{R}^{| U |+| I |+| T |}
x∈R∣U∣+∣I∣+∣T∣ ,其中训练数据集的表达式为
D
=
{
(
x
(
1
)
,
y
(
1
)
)
,
(
x
(
2
)
,
y
(
2
)
)
,
…
,
(
x
(
m
)
,
y
(
m
)
)
}
D=\{( x^{( 1 )}, y^{( 1 )} ), ( x^{( 2 )}, y^{( 2 )} ), \ldots, ( x^{( m )}, y^{( m )} ) \}
D={(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))} 。训练目标是估计一个函数
y
^
(
x
)
:
R
n
→
R
\hat{y} ( x ) : \mathbb{R}^{n} \to\mathbb{R}
y^(x):Rn→R ,当提供第
i
i
i 行
x
i
∈
R
n
x_{i} \in\mathbb{R}^{n}
xi∈Rn 作为输入时,能够正确预测对应的目标值
y
i
∈
R
y_{i} \in\mathbb{R}
yi∈R 。
FM模型的计算表达式如下所示:
<
v
i
,
v
j
>
< {\mathbf{v}}_{i}, {\mathbf{v}}_{j} >
<vi,vj> 是交叉特征的参数,可以由一组参数定义:
<
v
i
,
v
j
>
=
w
^
i
,
j
=
∑
f
=
1
k
v
i
,
f
×
v
j
,
f
< {\mathbf{v}}_{i}, {\mathbf{v}}_{j} >=\hat{w}_{i, j}=\sum_{f=1}^{k} v_{i, f} \times v_{j, f}
<vi,vj>=w^i,j=f=1∑kvi,f×vj,f
当
k
k
k 足够大时,对于任意对称正定的实矩阵
W
^
∈
R
n
×
n
\widehat{W} \in\mathbb{R}^{n \times n}
W
∈Rn×n ,均存在实矩阵
V
∈
R
n
×
k
V \, \in\, \mathbb{R}^{n \times k}
V∈Rn×k ,使得
W
^
=
V
V
⊤
\widehat{W}=V V^{\top}
W
=VV⊤成立:
W
^
=
[
w
^
1
,
1
w
^
1
,
2
⋯
w
^
1
,
n
w
^
2
,
1
w
^
2
,
2
⋯
w
^
2
,
n
⋮
⋮
⋱
⋮
w
^
n
,
1
w
^
n
,
2
⋯
w
^
n
,
n
]
=
V
T
V
=
[
v
1
T
v
2
T
⋮
v
n
T
]
[
v
1
v
2
⋯
v
n
]
\hat{\mathbf{W}} = \begin{bmatrix} \hat{w}_{1,1} & \hat{w}_{1,2} & \cdots & \hat{w}_{1,n} \\ \hat{w}_{2,1} & \hat{w}_{2,2} & \cdots & \hat{w}_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ \hat{w}_{n,1} & \hat{w}_{n,2} & \cdots & \hat{w}_{n,n} \end{bmatrix} = \mathbf{V}^{T} \mathbf{V} = \begin{bmatrix} {\mathbf{v}}_1^{T} \\ {\mathbf{v}}_2^{T} \\ \vdots \\ {\mathbf{v}}_n^{T} \end{bmatrix} \begin{bmatrix} {\mathbf{v}}_1 &{\mathbf{v}}_2 & \cdots & {\mathbf{v}}_n \end{bmatrix}
W^=
w^1,1w^2,1⋮w^n,1w^1,2w^2,2⋮w^n,2⋯⋯⋱⋯w^1,nw^2,n⋮w^n,n
=VTV=
v1Tv2T⋮vnT
[v1v2⋯vn]
其中,模型待求解的参数为:
w
0
∈
R
,
w
∈
R
n
,
V
∈
R
n
×
k
w_{0} \in\mathbb{R}, \quad\mathbf{w} \in\mathbb{R}^{n}, \quad\mathbf{V} \in\mathbb{R}^{n \times k}
w0∈R,w∈Rn,V∈Rn×k
其中:
∙
\bullet
∙
w
0
w_{0}
w0 表示全局偏差。
∙
\bullet
∙
w
i
w_{i}
wi 用于捕捉第
i
i
i 个特征和目标之间的关系。
∙
\bullet
∙
w
^
i
,
j
\hat{w}_{i, j}
w^i,j 用于捕捉
(
i
,
j
)
( i, j )
(i,j) 二路交叉特征和目标之间的关系。
∙
\bullet
∙
v
i
{\mathbf{v}}_{i}
vi 代表特征
i
i
i 的表示向量,它是
V
\mathbf{V}
V 的第
i
i
i 列。
(二)时间复杂度
根据FM模型计算表达式,可以得到模型的计算复杂度如下:
{
n
+
(
n
−
1
)
}
+
{
n
(
n
−
1
)
2
[
k
+
(
k
−
1
)
+
2
]
+
n
(
n
−
1
)
2
−
1
}
+
2
=
O
(
k
n
2
)
,
\{n+( n-1 ) \}+\left\{\frac{n ( n-1 )} {2} [ k+( k-1 )+2 ]+\frac{n ( n-1 )} {2}-1 \right\}+2={ O} ( k n^{2} ),
{n+(n−1)}+{2n(n−1)[k+(k−1)+2]+2n(n−1)−1}+2=O(kn2),
通过对交叉项的分解和计算,可以降低时间复杂度为
O
(
k
n
)
{ O} ( k n )
O(kn),计算过程如下所示:
对于交叉特征,它们的交叉矩阵是一个对称矩阵,这里通过对一个 3x3 对称矩阵的详细分析,展示如何通过减少自交互项和利用对称性来优化计算。最终的结果是简化方程,并且将计算复杂度从二次方降低为线性级别,使模型能够更加高效地处理稀疏数据场景。
首先,使用一个 3x3 的对称矩阵,图中表达式为计算目标:
对目标表达式进行展开,展开后对内积进行计算,左式表示 3x3 对称矩阵的一半(对称矩阵的上三角部分)
右式表示需要从左式中减去的部分,右式为对称矩阵中自交互的部分,即对角线部分的计算。
最终推导,得到:
y
^
(
x
)
=
w
0
+
∑
i
=
1
n
w
i
×
x
i
+
1
2
∑
f
=
1
k
(
(
∑
i
=
1
n
v
i
,
f
×
x
i
)
2
−
∑
i
=
1
n
v
i
,
f
2
×
x
i
2
)
\hat{y} ( {\bf x} )=w_{0}+\sum_{i=1}^{n} w_{i} \times x_{i}+\frac{1} {2} \sum_{f=1}^{k} \left( \left( \sum_{i=1}^{n} v_{i, f} \times x_{i} \right)^{2}-\sum_{i=1}^{n} v_{i, f}^{2} \times x_{i}^{2} \right)
y^(x)=w0+i=1∑nwi×xi+21f=1∑k
(i=1∑nvi,f×xi)2−i=1∑nvi,f2×xi2
其计算复杂度为
O
(
k
n
)
{ O} ( k n )
O(kn):
k
{
[
n
+
(
n
−
1
)
+
1
]
+
[
3
n
+
(
n
−
1
)
]
+
1
}
+
(
k
−
1
)
+
1
=
O
(
k
n
)
k \{[ n+( n-1 )+1 ]+[ 3 n+( n-1 ) ]+1 \}+( k-1 )+1={\cal O} ( k n )
k{[n+(n−1)+1]+[3n+(n−1)]+1}+(k−1)+1=O(kn)
(三)回归和分类
FM 模型可以用于求解分类问题,也可以用于求解回归问题。在回归任务中,FM 的输出
y
^
(
x
)
\hat{y} ( {\bf x} )
y^(x)可以直接作为连续型预测变量。目标是优化回归损失函数,
最小二乘误差(MSE):最小化预测值与实际值之间的均方误差。损失函数表达式如下所示:
l
(
y
^
(
x
)
,
y
)
=
(
y
^
(
x
)
−
y
)
2
l(\hat{y}(x), y) = (\hat{y}(x) - y)^2
l(y^(x),y)=(y^(x)−y)2
对于二分类问题,使用的是Logit或Hinge损失函数:
l
(
y
^
(
x
)
,
y
)
=
−
ln
σ
(
y
^
(
x
)
y
)
l(\hat{y}(x), y) = -\ln \sigma(\hat{y}(x) y)
l(y^(x),y)=−lnσ(y^(x)y)
其中,σ 是Sigmoid(逻辑函数),𝑦∈{−1,1}。在二分类任务中,模型输出的是类别的概率,Sigmoid函数将其转换为0到1之间的概率值,而损失函数则度量预测值与真实分类之间的偏差。FMs 容易出现过拟合问题,因此应用 L2 正则化来防止过拟合。正则化有助于减少模型的复杂性,防止模型在训练数据上过度拟合,从而提升模型在新数据上的泛化能力。
模型训练好后,就可以利用
y
^
(
x
)
\widehat{y} ( \mathbf{x} )
y
(x) 的正负符号来预测
x
\mathbf{x}
x 的分类了。
最后,FM 模型方程的梯度可以表示如下:
∂
∂
θ
y
^
(
x
)
=
{
1
,
如果
θ
是
w
0
x
i
,
如果
θ
是
w
i
x
i
∑
j
=
1
n
v
j
f
x
j
−
v
i
f
x
i
2
,
如果
θ
是
v
i
,
f
\frac{\partial}{\partial \theta} \hat{y}(x) = \begin{cases} 1, & \text{如果} \, \theta \, \text{是} \, w_0 \\ x_i, & \text{如果} \, \theta \, \text{是} \, w_i \\ x_i \sum_{j=1}^{n} v_j^f x_j - v_i^f x_i^2, & \text{如果} \, \theta \, \text{是} \, v_{i,f} \end{cases}
∂θ∂y^(x)=⎩
⎨
⎧1,xi,xi∑j=1nvjfxj−vifxi2,如果θ是w0如果θ是wi如果θ是vi,f
其中,
∙
\bullet
∙ 当参数是
w
0
w_{0}
w0 时,梯度为常数1。
∙
\bullet
∙ 当参数是
w
i
w_{i}
wi 时,梯度为
x
i
x_{i}
xi ,即特征
i
i
i 的值。
∙
\bullet
∙ 当参数是
v
i
,
f
v_{i, f}
vi,f 时,梯度更复杂,包含一个交互项
x
i
∑
j
=
1
n
v
j
f
x
j
x_{i} \sum_{j=1}^{n} v_{j}^{f} x_{j}
xi∑j=1nvjfxj 减去一个二次项
v
i
f
x
i
2
v_{i}^{f} x_{i}^{2}
vifxi2 。这里
v
j
f
v_{j}^{f}
vjf 是对应特征
j
j
j 的因子向量的第
f
f
f 个元素。
求和项
∑
j
=
1
n
v
j
f
x
j
\sum_{j=1}^{n} v_{j}^{f} x_{j}
∑j=1nvjfxj 与
i
i
i 无关,因此可以提前计算。这样,每个梯度都可以在常数时间
O
(
1
)
O ( 1 )
O(1) 内计算出来,而所有参数的更新可以在
O
(
k
n
)
O(kn)
O(kn) 或稀疏条件下的
O
(
k
N
z
(
x
)
)
O(kN_z(x))
O(kNz(x))内完成,其中
k
k
k是因子维度,
n
n
n是特征数量,
N
z
(
x
)
N_z(x)
Nz(x)是非零特征的数量。
三、算法优缺点
(一)优点
1、解决了特征稀疏的问题,能够在非常系数数据的情况下进行预估
2、解决了特征组合的问题
3、FM是一个通用模型,适用于大部分场景
4、线性复杂度,训练速度快
(二)缺点
虽然考虑了特征的交互,但是表达能力仍然有限,不及深度模型;通过矩阵结构来建模特征之间的二阶交互交互作用,假设所有特征的权重都可以通过隐式支持来串联,但实际上某些特征交互可能比其他特征交互更重要,这种统一的串联有时无法捕捉复杂的交互关系。
四、FM分类任务实现对比
使用 PySpark 的 FMClassifier 进行分类任务
(一)数据加载和样本分区
1、Python代码
# 创建 Spark 会话
spark = SparkSession.builder \
.appName("FMClassifierExample") \
.getOrCreate()
# 加载 Iris 数据集
from sklearn.datasets import load_iris
iris = load_iris()
X = iris.data
y = iris.target
# 将数据转换为 DataFrame
df = pd.DataFrame(X, columns=iris.feature_names)
df['label'] = y
# 将 pandas DataFrame 转换为 Spark DataFrame
spark_df = spark.createDataFrame(df)
# 将特征列组合成一个单独的特征列
assembler = VectorAssembler(inputCols=iris.feature_names, outputCol="features")
spark_df = assembler.transform(spark_df).select(col("label"), col("features"))
# 划分训练集和测试集
train_df, test_df = spark_df.randomSplit([0.8, 0.2], seed=42)
2、Sentosa_DSML社区版
首先通过数据读入算子读取数据,中间可以接任意个数据处理算子(例,行处理,列处理等),
然后,连接行处理中的样本分区算子对数据进行训练集和测试集的划分,比例为8:2,
再接类型算子,设置Feature列和Label列。
(二)模型训练
1、Python代码
from pyspark.sql import SparkSession
from pyspark.ml.classification import FMClassifier
# 创建 FMClassifier 模型
fm = FMClassifier(
featuresCol="features",
labelCol="label",
predictionCol="prediction",
probabilityCol="probability",
rawPredictionCol="rawPrediction",
factorSize=8,
fitIntercept=True,
fitLinear=True,
regParam=0.01,
miniBatchFraction=1.0,
initStd=0.01,
maxIter=100,
stepSize=0.01,
tol=1e-06,
solver="adamW",
thresholds=[0.5], # 设置分类阈值
seed=42
)
# 训练模型
fm_model = fm.fit(train_df)
# 进行预测
predictions = fm_model.transform(test_df)
# 显示预测结果
predictions.select("features", "label", "prediction", "probability").show()
2、Sentosa_DSML社区版
连接因子分解机分类算子,右侧设置模型参数等信息,点击应用后,右击算子并执行,得到因子分解机分类模型。如下图所示,
(三)模型评估和模型可视化
1、Python代码
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, confusion_matrix
import matplotlib.pyplot as plt
import seaborn as sns
# 从 PySpark DataFrame 提取预测结果
predictions_df = predictions.select("label", "prediction").toPandas()
y_test_sklearn = predictions_df['label'].values
y_pred_sklearn = predictions_df['prediction'].values
# 评估模型
accuracy = accuracy_score(y_test_sklearn, y_pred_sklearn)
precision = precision_score(y_test_sklearn, y_pred_sklearn, average='weighted')
recall = recall_score(y_test_sklearn, y_pred_sklearn, average='weighted')
f1 = f1_score(y_test_sklearn, y_pred_sklearn, average='weighted')
# 打印评估结果
print(f"FM 模型的准确率: {accuracy:.2f}")
print(f"加权精度 (Weighted Precision): {precision:.2f}")
print(f"加权召回率 (Weighted Recall): {recall:.2f}")
print(f"F1 值 (Weighted F1 Score): {f1:.2f}")
# 计算混淆矩阵
cm = confusion_matrix(y_test_sklearn, y_pred_sklearn)
2、Sentosa_DSML社区版
模型后可接任意个数据处理算子,比如图表分析算子或数据写出算子,形成算子流执行,也可接评估算子,对模型的分类结果进行评估。如下图所示:
得到训练集和测试集的评估结果如下:
右击模型,可以查看模型的模型信息,模型信息如下图所示:
五、FM回归任务实现对比
利用python代码,结合 PySpark 和 pandas 处理数据,主要应用了 Spark 的 FMRegressor 进行回归分析。
(一)数据加载和样本分区
1、Python代码
# 读取 winequality 数据集
df = pd.read_csv("D:/sentosa_ML/Sentosa_DSML/mlServer/TestData/winequality.csv")
df = df.dropna() # 处理缺失值
# 将 pandas DataFrame 转换为 Spark DataFrame
spark_df = spark.createDataFrame(df)
# 将特征列组合成一个单独的特征列
feature_columns = df.columns.tolist()
feature_columns.remove('quality')
assembler = VectorAssembler(inputCols=feature_columns, outputCol="features")
spark_df = assembler.transform(spark_df).select("features", "quality")
# 划分训练集和测试集
train_df, test_df = spark_df.randomSplit([0.8, 0.2], seed=42)
2、Sentosa_DSML社区版
先读取需要数据集,
然后连接样本分区算子对数据集进行训练集和测试集的划分,划分比例为8:2,
再接类型算子设置Feature列和Label列(Label列需满足:能转换为Double类型或者就是Double类型)
(二)模型训练
1、Python代码
# 创建 FMRegressor 模型
fm_regressor = FMRegressor(
featuresCol="features",
labelCol="quality",
predictionCol="prediction",
factorSize=8,
fitIntercept=True,
fitLinear=True,
regParam=0.01,
miniBatchFraction=1.0,
initStd=0.01,
maxIter=100,
stepSize=0.01,
tol=1e-06,
solver="adamW",
seed=42
)
# 训练模型
fm_model = fm_regressor.fit(train_df)
# 对测试集进行预测
predictions = fm_model.transform(test_df)
2、Sentosa_DSML社区版
连接因子分解机回归算子,
右击算子,点击运行,得到因子分解机回归模型。如下图所示:
(三)模型评估和模型可视化
1、Python代码
# 评估模型
evaluator = RegressionEvaluator(
predictionCol="prediction",
labelCol="quality",
metricName="r2"
)
r2 = evaluator.evaluate(predictions)
evaluator_mae = RegressionEvaluator(predictionCol="prediction", labelCol="quality", metricName="mae")
mae = evaluator_mae.evaluate(predictions)
evaluator_mse = RegressionEvaluator(predictionCol="prediction", labelCol="quality", metricName="mse")
mse = evaluator_mse.evaluate(predictions)
rmse = np.sqrt(mse)
# 打印评估结果
print(f"R²: {r2:.4f}")
print(f"MAE: {mae:.4f}")
print(f"MSE: {mse:.4f}")
print(f"RMSE: {rmse:.4f}")
# 将预测值转换为 Pandas DataFrame 以便绘图
predictions_pd = predictions.select("quality", "prediction").toPandas()
y_test = predictions_pd["quality"]
y_pred = predictions_pd["prediction"]
# 绘制实际值与预测值的对比图
plt.figure(figsize=(8, 6))
plt.scatter(y_test, y_pred, color="blue", alpha=0.6)
plt.plot([min(y_test), max(y_test)], [min(y_test), max(y_test)], 'r--')
plt.xlabel('Actual Quality')
plt.ylabel('Predicted Quality')
plt.title('Actual vs Predicted Wine Quality')
plt.show()
# 计算残差
residuals = y_test - y_pred
# 使用 Seaborn 绘制带核密度估计的残差直方图
plt.figure(figsize=(8, 6))
sns.histplot(residuals, kde=True, bins=20)
plt.title('Residuals Histogram with KDE')
plt.xlabel('Residuals')
plt.ylabel('Frequency')
plt.grid(True)
plt.show()
2、Sentosa_DSML社区版
模型后接评估算子,对模型结果进行评估。算子流如下图所示:
训练集和测试集的评估结果如下:
右击模型,查看模型的模型信息:
六、总结
相比传统代码方式,利用Sentosa_DSML社区版完成机器学习算法的流程更加高效和自动化,传统方式需要手动编写大量代码来处理数据清洗、特征工程、模型训练与评估,而在Sentosa_DSML社区版中,这些步骤可以通过可视化界面、预构建模块和自动化流程来简化,有效的降低了技术门槛,非专业开发者也能通过拖拽和配置的方式开发应用,减少了对专业开发人员的依赖。
Sentosa_DSML社区版提供了易于配置的算子流,减少了编写和调试代码的时间,并提升了模型开发和部署的效率,由于应用的结构更清晰,维护和更新变得更加容易,且平台通常会提供版本控制和更新功能,使得应用的持续改进更为便捷。
为了非商业用途的科研学者、研究人员及开发者提供学习、交流及实践机器学习技术,推出了一款轻量化且完全免费的Sentosa_DSML社区版。以轻量化一键安装、平台免费使用、视频教学和社区论坛服务为主要特点,能够与其他数据科学家和机器学习爱好者交流心得,分享经验和解决问题。文章最后附上官网链接,感兴趣工具的可以直接下载使用
https://sentosa.znv.com/