在机器学习中, 张量(Tensor) 是一个核心数学概念,用于表示和操作多维数据。以下是关于张量的详细解析:
一、数学定义与本质
张量在数学和物理学中的定义具有多重视角:
-
多维数组视角
传统数学和物理学中,张量被定义为多维数组,其分量在坐标变换时遵循协变或逆变规则。例如,标量(0阶张量)在坐标系变换下数值不变,向量(1阶张量)的分量通过线性变换规则转换,而矩阵(2阶张量)的分量需通过双重线性变换。 -
多重线性映射视角
现代数学将张量定义为向量空间及其对偶空间上的多重线性映射。这种定义不依赖于特定坐标系,强调张量作为几何对象的本质。例如,协变矢量可视为对偶空间的元素,描述线性函数对向量的作用。 -
物理量的不变性
张量被用来表示客观存在的物理量(如应力、应变),其数学形式独立于坐标系,仅分量随坐标变换而变化。例如,应力张量的物理意义在不同坐标系下保持一致,但其矩阵表示会随基底变换而改变。
二、机器学习中的张量定义
在机器学习