主页 > 开源代码  > 

【深度学习】Hopfield网络:模拟联想记忆

【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。它的核心功能是模拟联想记忆,类似于人类大脑通过部分信息回忆完整记忆的能力。以下是通俗易懂的解释:


1. 核心思想

想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。Hopfield网络就是模仿这种能力:

输入:一个有噪声或不完整的模式(如残缺的图片)。输出:网络通过动态调整,输出最接近的完整存储模式。
2. 网络结构 神经元:每个神经元是二值的(通常取+1或-1,或0和1)。连接方式:所有神经元全连接,且权重对称(神经元A到B的权重 = B到A的权重)。无自反馈:单个神经元不会连接自己(权重矩阵对角线为0)。
3. 工作原理 (1) 存储记忆 存储模式:将需要记忆的模式(如图片像素的二值化向量)存入网络。权重计算:通过Hebbian学习规则调整权重(模式的外积叠加),公式: W i j = ∑ 所有模式 x i x j ( i ≠ j ) W_{ij} = \sum_{\text{所有模式}} x_i x_j \quad (i \neq j) Wij​=所有模式∑​xi​xj​(i=j) 其中(x_i)是模式中第i个神经元的值。 (2) 回忆记忆 输入扰动模式:将带有噪声的模式输入网络。动态更新:随机选择一个神经元,根据相邻神经元的状态更新自身: x i = sign ( ∑ j W i j x j ) x_i = \text{sign}\left( \sum_{j} W_{ij} x_j \right) xi​=sign(j∑​Wij​xj​)收敛:重复更新直到网络状态稳定(能量最低),此时输出即为最接近的存储模式。
4. 能量函数

Hopfield网络有一个能量函数,类似物理系统的势能: E = − 1 2 ∑ i , j W i j x i x j E = -\frac{1}{2} \sum_{i,j} W_{ij} x_i x_j E=−21​i,j∑​Wij​xi​xj​

能量越低,网络状态越稳定。更新过程总是降低能量,最终收敛到局部最小值(即存储的模式)。
5. 优点与局限 优点 简单高效,适合模式补全和噪声过滤。理论优美,启发了后续模型(如玻尔兹曼机)。 局限 存储容量有限:最多约存储0.14N个模式(N为神经元数量)。伪吸引子问题:可能收敛到非预期的混合模式。仅处理二值数据:难以处理连续值输入。
6. 应用场景 图像恢复:从损坏的像素中恢复原图。优化问题:如旅行商问题(TSP)的近似求解。联想记忆存储:快速检索与输入最匹配的记忆。
7. 现代发展

近年来Hopfield网络被重新探索,例如:

连续Hopfield网络:支持连续值神经元,用于生成模型(如联想生成图像)。现代Hopfield网络(2020):通过改进能量函数,存储容量指数级提升(可存储数百万模式)。
类比总结

Hopfield网络像一个智能黑板:

存储阶段:在黑板上写下几个关键图案。回忆阶段:即使有人涂抹了部分图案,黑板能自动“擦除”涂鸦,还原最初的关键图案。
标签:

【深度学习】Hopfield网络:模拟联想记忆由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“【深度学习】Hopfield网络:模拟联想记忆