Lp範數此条目需要精通或熟悉相关主题的编者参与及协助编辑。 (2019年12月10日)请邀请适合的人士改善本条目。更多的细节与详情请参见讨论页。建议将此条目或章节并入Lp空间。(讨论) L p {\displaystyle L_{p}} -范数(英语: L p {\displaystyle L_{p}} -norm,亦称 ℓ p {\displaystyle \ell _{p}} -范数、 p {\displaystyle p} -范数)是向量空间中的一组范数。 L p {\displaystyle L_{p}} -范数与幂平均有一定的联系。它的定义如下: L p ( x → ) = ‖ x → ‖ p = ( ∑ i = 1 n | x i | p ) 1 / p , x → = { x 1 , x 2 , … , x n } , p ⩾ 1. {\displaystyle L_{p}({\vec {x}})=\lVert {\vec {x}}\rVert _{p}={\Bigl (}\sum _{i=1}^{n}|x_{i}|^{p}{\Bigr )}^{1/p},\qquad {\vec {x}}=\{x_{1},x_{2},\ldots ,x_{n}\},\,p\geqslant 1.} p {\displaystyle p} 的不同取值 图中的 q {\displaystyle q} 即是 L p {\displaystyle L_{p}} 范数中的 p {\displaystyle p} 。这是当 p {\displaystyle p} 取不同值时,在 R 2 {\displaystyle \mathbb {R} ^{2}} 空间上的 L p {\displaystyle L_{p}} -范数等高线的其中一条。该图展现了各 L p {\displaystyle L_{p}} -范数的形状。 p = − ∞ {\displaystyle p=-\infty } : ‖ x → ‖ ∞ = lim p → − ∞ ( ∑ i = 1 n | x i | p ) 1 / p = min i | x i | {\displaystyle \lVert {\vec {x}}\rVert _{\infty }=\lim _{p\to -\infty }{\Bigl (}\sum \limits _{i=1}^{n}|x_{i}|^{p}{\Bigr )}^{1/p}=\min _{i}|x_{i}|} 。[来源请求] p = 0 {\displaystyle p=0} : ‖ x → ‖ 0 = ∑ i = 1 n [ x i ≠ 0 ] {\displaystyle \lVert {\vec {x}}\rVert _{0}=\sum _{i=1}^{n}\left[x_{i}\neq 0\right]} ,也就是所有 x i {\displaystyle x_{i}} 中,不等于零的个数。注意,这里的 L 0 {\displaystyle L_{0}} -范数并非通常意义上的范数(不满足三角不等式或次可加性)。[1] p = 1 {\displaystyle p=1} : ‖ x → ‖ 1 = ∑ i = 1 n | x i | {\displaystyle \lVert {\vec {x}}\rVert _{1}=\sum \limits _{i=1}^{n}|x_{i}|} ,即 L 1 {\displaystyle L_{1}} -范数是向量各分量绝对值之和,又称曼哈顿距离。 p = 2 {\displaystyle p=2} : ‖ x → ‖ 2 = ∑ i = 1 n | x i | 2 {\displaystyle \lVert {\vec {x}}\rVert _{2}={\sqrt {\sum \limits _{i=1}^{n}|x_{i}|^{2}}}} ,此即欧氏距离。 p = + ∞ {\displaystyle p=+\infty } : ‖ x → ‖ ∞ = lim p → + ∞ ( ∑ i = 1 n | x i | p ) 1 / p = max i | x i | {\displaystyle \lVert {\vec {x}}\rVert _{\infty }=\lim _{p\to +\infty }{\Bigl (}\sum \limits _{i=1}^{n}|x_{i}|^{p}{\Bigr )}^{1/p}=\max _{i}|x_{i}|} ,此即无穷范数或最大范数。在机器学习中的应用 主条目:正则化 (计算机科学) 在机器学习中,为了对抗过拟合、提高模型的泛化能力,可以通过向目标函数当中引入参数向量的 L p {\displaystyle L_{p}} -范数来进行正则化。其中最常用的是引入 L 1 {\displaystyle L_{1}} -范数的 L 1 {\displaystyle L_{1}} -正则项和引入 L 2 {\displaystyle L_{2}} -范数的 L 2 {\displaystyle L_{2}} -正则项;前者有利于得到稀疏解,后者有利于得到平滑解。 参考文献 ^ 但在 R 1 {\displaystyle \mathbb {R} ^{1}} 当中,它就是欧氏距离;在 R 0 {\displaystyle \mathbb {R} ^{0}} 当中,它是平凡的。