主页 > 互联网  > 

Hessian矩阵的正定性与目标函数凸性的证明

Hessian矩阵的正定性与目标函数凸性的证明
Hessian 矩阵的正定性与目标函数凸性的证明

在优化理论和深度学习中,Hessian 矩阵(Hessian Matrix)是目标函数二阶导数的表示形式,其正定性与函数的凸性密切相关。特别是,当 Hessian 矩阵在某点对任意非零向量 ( v v v ) 满足 ( v T H v > 0 v^T H v > 0 vTHv>0 ) 时,该点对应于目标函数的局部最小值,并且在一定条件下表明函数是凸的。本文将详细介绍 Hessian 矩阵正定性与凸性的关系,并提供数学证明,目标读者是具备微积分和线性代数基础的深度学习研究者。


什么是 Hessian 矩阵?

对于一个标量目标函数 ( f ( x ) f(x) f(x) ),其中 ( x ∈ R d x \in \mathbb{R}^d x∈Rd ) 是一个 ( d d d ) 维向量,Hessian 矩阵 ( H ) 是函数的二阶偏导数组成的矩阵。其元素定义为:

H i j = ∂ 2 f ( x ) ∂ x i ∂ x j H_{ij} = \frac{\partial^2 f(x)}{\partial x_i \partial x_j} Hij​=∂xi​∂xj​∂2f(x)​

( H H H ) 是一个 ( d × d d \times d d×d ) 的对称矩阵(因为混合偏导数对称,即 ( ∂ 2 f ∂ x i ∂ x j = ∂ 2 f ∂ x j ∂ x i \frac{\partial^2 f}{\partial x_i \partial x_j} = \frac{\partial^2 f}{\partial x_j \partial x_i} ∂xi​∂xj​∂2f​=∂xj​∂xi​∂2f​ ),假设函数具有二阶连续偏导数)。对角元素 ( H i i H_{ii} Hii​) 是二阶偏导数,( H i j ( i ≠ j ) H_{ij} (i \neq j) Hij​(i=j) ) 是交叉二阶偏导数。

Hessian 矩阵描述了函数在给定点处的曲率信息,是优化算法(如牛顿法)的重要工具。


凸函数的定义

一个函数 ( f ( x ) f(x) f(x) ) 在定义域 ( D \mathcal{D} D ) 上是凸的,如果对于任意 ( x 1 , x 2 ∈ D x_1, x_2 \in \mathcal{D} x1​,x2​∈D ) 和 ( λ ∈ [ 0 , 1 ] \lambda \in [0, 1] λ∈[0,1] ),满足:

f ( λ x 1 + ( 1 − λ ) x 2 ) ≤ λ f ( x 1 ) + ( 1 − λ ) f ( x 2 ) f(\lambda x_1 + (1 - \lambda) x_2) \leq \lambda f(x_1) + (1 - \lambda) f(x_2) f(λx1​+(1−λ)x2​)≤λf(x1​)+(1−λ)f(x2​)

如果不等式严格成立(( < < < )),则称为严格凸函数。凸函数的几何意义是其图形的任意两点之间的连线位于函数图形的上方。
Hessian 正定性与凸性的关系 直观理解 如果 ( f ( x ) f(x) f(x) ) 在某点 ( x 0 x_0 x0​ ) 附近是“向上开口”的(类似抛物线的最低点),则该点可能是局部最小值。Hessian 矩阵的正定性 ( v T H v > 0 v^T H v > 0 vTHv>0 )(对所有 ( v ≠ 0 v \neq 0 v=0 ))正是这种曲率的数学表示,表明函数在该点是局部凸的。 正式定义 Hessian 正定:若 ( H ( x ) H(x) H(x) ) 在某点 ( x x x ) 对所有非零向量 ( v v v ) 满足 ( v T H ( x ) v > 0 v^T H(x) v > 0 vTH(x)v>0 ),则 ( H ( x ) H(x) H(x) ) 在该点是正定矩阵。二阶充分条件:如果 ( f ( x ) f(x) f(x) ) 在定义域内二阶连续可导,且其 Hessian 矩阵 ( H ( x ) H(x) H(x) ) 在整个定义域 ( D \mathcal{D} D ) 上正定,则 ( f ( x ) f(x) f(x) ) 是凸函数。
证明:Hessian 正定性表明目标函数是凸的

为了证明 Hessian’s 正定性(( v T H v > 0 v^T H v > 0 vTHv>0 ) 对所有 ( v ≠ 0 v \neq 0 v=0 ))等价于函数 ( f ( x ) f(x) f(x) ) 的凸性,我们需要通过泰勒展开和二次型分析逐步推导。

步骤 1:泰勒展开

假设 ( f ( x ) f(x) f(x) ) 在 ( x 0 x_0 x0​ ) 附近二阶连续可导,沿方向 ( v v v ) 进行一阶和二阶泰勒展开:

f ( x 0 + t v ) = f ( x 0 ) + t ∇ f ( x 0 ) T v + t 2 2 v T H ( x 0 ) v + o ( t 2 ) f(x_0 + t v) = f(x_0) + t \nabla f(x_0)^T v + \frac{t^2}{2} v^T H(x_0) v + o(t^2) f(x0​+tv)=f(x0​)+t∇f(x0​)Tv+2t2​vTH(x0​)v+o(t2)

( ∇ f ( x 0 ) \nabla f(x_0) ∇f(x0​) ) 是梯度向量。( H ( x 0 ) H(x_0) H(x0​) ) 是 ( x 0 x_0 x0​ ) 处的 Hessian 矩阵。( o ( t 2 ) o(t^2) o(t2) ) 是高阶无穷小项,当 ( t → 0 t \to 0 t→0 ) 时相对 ( t 2 t^2 t2 ) 忽略不计。 步骤 2:凸性条件

函数 ( f ( x ) f(x) f(x) ) 在 ( x 0 x_0 x0​ ) 附近凸,等价于沿任意方向 ( v v v ) 的函数值满足:

f ( x 0 + t v ) ≤ f ( x 0 ) + t ∇ f ( x 0 ) T v ∀ t ≥ 0 f(x_0 + t v) \leq f(x_0) + t \nabla f(x_0)^T v \quad \forall t \geq 0 f(x0​+tv)≤f(x0​)+t∇f(x0​)Tv∀t≥0

这意味着泰勒展开的剩余项必须非正。特别地,考虑 ( t > 0 t > 0 t>0 ) 小的情形,忽略高阶项 ( o ( t 2 ) o(t^2) o(t2) ):

f ( x 0 + t v ) ≈ f ( x 0 ) + t ∇ f ( x 0 ) T v + t 2 2 v T H ( x 0 ) v f(x_0 + t v) \approx f(x_0) + t \nabla f(x_0)^T v + \frac{t^2}{2} v^T H(x_0) v f(x0​+tv)≈f(x0​)+t∇f(x0​)Tv+2t2​vTH(x0​)v

凸性要求:

f ( x 0 + t v ) − f ( x 0 ) − t ∇ f ( x 0 ) T v t 2 ≤ 0 \frac{f(x_0 + t v) - f(x_0) - t \nabla f(x_0)^T v}{t^2} \leq 0 t2f(x0​+tv)−f(x0​)−t∇f(x0​)Tv​≤0

代入近似:

t 2 2 v T H ( x 0 ) v t 2 = 1 2 v T H ( x 0 ) v ≤ 0 \frac{\frac{t^2}{2} v^T H(x_0) v}{t^2} = \frac{1}{2} v^T H(x_0) v \leq 0 t22t2​vTH(x0​)v​=21​vTH(x0​)v≤0

因为 ( t 2 > 0 t^2 > 0 t2>0 ),消去 ( t 2 t^2 t2 ) 后:

1 2 v T H ( x 0 ) v ≤ 0 \frac{1}{2} v^T H(x_0) v \leq 0 21​vTH(x0​)v≤0

但这仅是必要条件(Hessian 半正定的必要性)。要证明充分性,我们需要考虑全局性质。

步骤 3:全局凸性

假设 ( H ( x ) H(x) H(x) ) 在整个定义域 ( D \mathcal{D} D ) 上正定(( v T H ( x ) v > 0 v^T H(x) v > 0 vTH(x)v>0 ) 对所有 ( x ∈ D x \in \mathcal{D} x∈D ) 和 ( v ≠ 0 v \neq 0 v=0 ))。沿任意路径 ( x ( t ) = ( 1 − t ) x 1 + t x 2 x(t) = (1 - t) x_1 + t x_2 x(t)=(1−t)x1​+tx2​ )(( t ∈ [ 0 , 1 ] t \in [0, 1] t∈[0,1] )),二阶导数为:

d 2 d t 2 f ( x ( t ) ) = d d t ( ∇ f ( x ( t ) ) T d x d t ) = d 2 x ( t ) d t 2 T ∇ f ( x ( t ) ) + d x ( t ) d t T H ( x ( t ) ) d x ( t ) d t \frac{d^2}{dt^2} f(x(t)) = \frac{d}{dt} \left( \nabla f(x(t))^T \frac{dx}{dt} \right) = \frac{d^2 x(t)}{dt^2}^T \nabla f(x(t)) + \frac{dx(t)}{dt}^T H(x(t)) \frac{dx(t)}{dt} dt2d2​f(x(t))=dtd​(∇f(x(t))Tdtdx​)=dt2d2x(t)​T∇f(x(t))+dtdx(t)​TH(x(t))dtdx(t)​

设 ( v = d x ( t ) d t = x 2 − x 1 v = \frac{dx(t)}{dt} = x_2 - x_1 v=dtdx(t)​=x2​−x1​ )(固定方向),则:

d 2 d t 2 f ( x ( t ) ) = v T H ( x ( t ) ) v \frac{d^2}{dt^2} f(x(t)) = v^T H(x(t)) v dt2d2​f(x(t))=vTH(x(t))v

因为 ( H ( x ( t ) ) H(x(t)) H(x(t)) ) 正定,( v T H ( x ( t ) ) v > 0 v^T H(x(t)) v > 0 vTH(x(t))v>0 ) 对所有 ( t t t )。这表明 ( f ( x ( t ) ) f(x(t)) f(x(t)) ) 是严格凸的(二阶导数恒正)。由凸函数的定义,( f ( λ x 1 + ( 1 − λ ) x 2 ) ≤ λ f ( x 1 ) + ( 1 − λ ) f ( x 2 ) f(\lambda x_1 + (1 - \lambda) x_2) \leq \lambda f(x_1) + (1 - \lambda) f(x_2) f(λx1​+(1−λ)x2​)≤λf(x1​)+(1−λ)f(x2​) ) 成立。

步骤 4:严格凸性与局部最小值 如果 ( H ( x ) H(x) H(x) ) 严格正定,( f ( x ) f(x) f(x) ) 是严格凸函数,且任一点的局部最小值是全局最小值。若 ( ∇ f ( x 0 ) = 0 \nabla f(x_0) = 0 ∇f(x0​)=0 ) 且 ( H ( x 0 ) H(x_0) H(x0​) ) 正定,则 ( x 0 x_0 x0​ ) 是局部最小值点(从泰勒展开的二阶项 ( t 2 2 v T H v > 0 \frac{t^2}{2} v^T H v > 0 2t2​vTHv>0 ) 可知)。
附加说明:半正定性与凸性 如果 ( H ( x ) H(x) H(x) ) 半正定(( v T H v ≥ 0 v^T H v \geq 0 vTHv≥0 )),( f ( x ) f(x) f(x) ) 可能是凸的,但不一定是严格凸的(例如常数函数)。正定性是凸性的充分条件,但非必要条件(一阶条件 ( ∇ f ( x ) \nabla f(x) ∇f(x) ) 的单调性也可能导致凸性)。
在深度学习中的意义 1. 优化收敛

在梯度下降中,Hessian 正定性保证目标函数的局部最小值是稳定的。例如,在自然梯度下降中,( H H H ) 的逆用于预调节梯度。

2. 模型设计

在 VAE 或 GAN 中,损失函数的凸性分析依赖 Hessian,确保训练过程中的收敛性。

3. 神经网络训练

深度网络的损失函数通常非凸,但局部区域的 Hessian 正定性有助于理解 saddle point 或最小值。


代码验证

使用 PyTorch 验证一个简单二次函数的 Hessian 正定性:

import torch # 定义一个凸函数 f(x) = x^T A x, A 为正定矩阵 A = torch.tensor([[2.0, 1.0], [1.0, 2.0]]) # 正定矩阵 x = torch.tensor([1.0, 1.0], requires_grad=True) f = torch.matmul(x, torch.matmul(A, x)) # 计算梯度 grad = torch.autograd.grad(f, x)[0] print("Gradient:", grad) # 计算 Hessian (数值近似) h = torch.zeros(2, 2) for i in range(2): for j in range(2): x_plus = x.clone() x_plus[i] += 1e-6 x_minus = x.clone() x_minus[i] -= 1e-6 h[i, j] = (torch.matmul(x_plus, torch.matmul(A, x_plus)) - torch.matmul(x_minus, torch.matmul(A, x_minus))) / (2e-6) print("Hessian:\n", h) v = torch.tensor([1.0, 1.0]) print("v^T H v:", torch.matmul(v, torch.matmul(h, v)).item()) # > 0

输出确认 ( v T H v > 0 v^T H v > 0 vTHv>0 ),与凸性一致。


总结

Hessian 矩阵的正定性 ( v T H v > 0 v^T H v > 0 vTHv>0 ) 通过二阶泰勒展开和凸性定义证明了目标函数的凸性。这是优化理论的核心结果,在深度学习中用于分析损失函数的性质和训练稳定性。理解这一证明有助于研究者设计更鲁棒的优化算法和模型。

希望这篇博客对你有帮助!

后记

2025年3月4日13点39分于上海,在grok 3大模型辅助下完成。

标签:

Hessian矩阵的正定性与目标函数凸性的证明由讯客互联互联网栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“Hessian矩阵的正定性与目标函数凸性的证明