首页> 外文期刊>電子情報通信学会技術研究報告 >非線形多値関数を用いた複素連想記憶モデル
【24h】

非線形多値関数を用いた複素連想記憶モデル

机译:使用非线性多值函数的复杂联想记忆模型

获取原文
获取原文并翻译 | 示例
       

摘要

複素ニューラルネットワークは,ニューロンの状態を適当な間借関数によって離散多倍化することで,多値要素から成るパターンの連想記憶を行うことができる.従来の多値連想記憶モデルで用いられてきた複素間借関数は,実質的に多値符号化関数を含む変換である.本稿では.これを非線形多値関数で置き換えた複素開催関数を提案する.記憶パターンベクトルを一般化射影別によって結合重みに埋め込み,提案した開催関数をニューロンの状態更新に用いると,多倍達想記憶の能力が向上することを示す.また,非線形性を制御するパラメータ,記憶パターン数,ニューロンがとり得る離散値の数などが提案手法の性能に与える影響を数値実験により明らかにする.さらに,提案手法が多階調画像のノイズ除去に応用できることを実例によって示す.%A complex-valued neural network can be used for multistate associative memory by quantizing a neu-ronal state into a multivalued state with an appropriate threshold function. The complex-signum function used in conventional multistate associative memory models is a transformation including a multilevel signum function in essence. In the present report, we propose a complex-valued threshold function based on nonlinear multilevel functions and show the recall performance of the multistate associative memory based on the proposed method. Numerical experiments clarify how the recall capability is influenced by the parameter controlling the nonlinearity of the multilevel function, the number of the stored patterns, and the number of quantized states. We also demonstrate gray-level image reconstruction with the proposed method.
机译:复杂的神经网络可以通过将神经元的状态离散地乘以适当的借用函数,来执行由多值元素组成的模式的关联记忆。常规多值联想存储模型中使用的复数借位函数实质上是一种包含多值编码函数的转换。在这篇文章中。我们提出了一个复杂的保持函数,方法是将其替换为非线性多值函数。结果表明,通过广义投影将存储模式向量嵌入连接权重,并使用建议的保持功能更新神经元的状态,可以提高乘法联想记忆的能力。此外,我们通过数值实验阐明了控制非线性的参数,记忆模式的数量,神经元可以具有的离散值的数量对所提出方法的性能的影响。此外,我们证明了所提出的方法可以应用于多色调图像的噪声去除。通过将神经元状态量化为具有适当阈值函数的多值状态,可以将复值神经网络用于多状态关联记忆。常规多状态关联记忆模型中使用的复信号函数是一个包含多级信号的转换在本报告中,我们提出了一种基于非线性多级函数的复值阈值函数,并基于该方法展示了多状态联想记忆的召回性能,数值实验阐明了该参数如何影响召回能力。控制多层函数的非线性,存储的模式数量和量化状态的数量。我们还演示了所提出方法的灰度图像重建。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号