...
首页> 外文期刊>Kwartalnik Elektroniki i Telekomunikacji >Comparison of three methods for neurofuzzy model initialization and their application to circuit performance modeling
【24h】

Comparison of three methods for neurofuzzy model initialization and their application to circuit performance modeling

机译:三种神经模糊模型初始化方法的比较及其在电路性能建模中的应用

获取原文
获取原文并翻译 | 示例
           

摘要

W pracy zaprezentowano i eksperymentalnie porównano trzy metody inicjacji parametrów modeli neurorozmytych. Pierwszą z rozważanych metod jest charakterystyczna dla sieci neuronowych inicjacja losowa. Wyniki uzyskane na bazie tej metody są porównywane z wynikami uzyskanymi z wykorzystaniem tzw. metody inicjacji pseudo-losowej. Ta druga, alternatywna metoda wykorzystuje losowo wybrane ze zbioru uszącego punkty uczące, które inicjują parametry odpowiedzialne za rozmieszcznie funkcji przynależności definiujących poszczególne etykiety lingwistyczne występujące w regułach rozmytych. Podejście takie jest możliwe, ponieważ wspomiane parametry posiadają swoją interpretację fizyczną. Prezentowane wyniki pokazują, iż średnie wyniki uzyskane metodą inicjaji pseudo-losowej przewyższają swoje odpowiedniki uzyskane metodą inicjacji losowej. Co więcej, występujące dla modeli posiadających dużą liczbę parametrów ponaddopasowanie do danych uczących, może zostać częściowo zredukowane lub nawet wyeliminowane przy użyciu metody pseudo-losowej. Trzecią metodą rozważaną w pracy jest metoda oparta na górskim grupowaniu danych. Eksperymenty pokazały, iż metoda ta może dać lepsze wyniki niż metody wspomiane powyżej. Należy jednak podkreślić, iż jakość wyników uzyskiwanych tą metodą silnie zależy od wartości dwóch parametrów, które nią sterują. Niestety, mimo przeprowadzenia licznych prób nie udało się ustalić optymalnych wartości tych parametrów.%In the paper three methods of neurofuzzy model initialization are presented and experimentally verified. The first of these methods, which is typical for neural network, is the random initialization. As the second method, so-called pseudo-random initialization is proposed. This method in a simple way makes use of the available training set: the randomly chosen training points initialized model parameters responsible for the distribution of the membership function which define the linguistic labels of fuzzy rules. Such an approach is possible bacause of the physical interpretation of the model parameters. The presentd experimental results show that average results obtained using the quasin-random parameter initialization overperform corresponding results obtained using the random initialization. Moreover, the quasi-random initialization can reduce or even eliminate an overfilling to the training data, which can appear for models having big number of parameters. As the third method the mountain clustering-based initialization is considered. The experiments show that this method can give better results than the mentioned random and quasi-random method. However, the results of this method heavily depend on the values of two parameters, which control the process of the clustering. Unfortunately, the performed expreiments have not provided the optimal values of these parameters.
机译:本文介绍并实验比较了神经模糊模型参数初始化的三种方法。考虑的第一种方法是神经网络的随机启动特性。将根据此方法获得的结果与使用所谓的方法获得的结果进行比较伪随机启动方法。第二种方法是使用从缝纫组中随机选择的学习点,这些学习点会启动负责分配附属函数的参数,这些函数定义了出现在模糊规则中的各个语言标签。因为这些参数具有其物理解释,所以这种方法是可行的。结果表明,伪随机启动方法获得的平均结果超过了随机启动方法获得的平均结果。此外,对于具有大量与学习数据过度匹配的参数的模型,可以使用伪随机方法将其部分减少或什至消除。工作中考虑的第三个方法是基于山区数据分组的方法。实验表明,与上述方法相比,该方法可获得更好的结果。但是,应该强调的是,用这种方法获得的结果的质量很大程度上取决于控制该方法的两个参数的值。不幸的是,尽管进行了大量测试,但仍无法确定这些参数的最佳值。%本文提出了三种神经模糊模型初始化方法并进行了实验验证。这些方法中的第一个是随机初始化,这是神经网络的典型方法。作为第二种方法,提出了所谓的伪随机初始化。这种方法以一种简单的方式利用了可用的训练集:随机选择的训练点初始化了负责隶属度函数分布的模型参数,这些参数定义了模糊规则的语言标签。由于对模型参数的物理解释,这种方法是可能的。给出的实验结果表明,使用准随机参数初始化获得的平均结果优于使用随机初始化获得的相应结果。此外,准随机初始化可以减少甚至消除训练数据的过度填充,这种情况对于具有大量参数的模型可能会出现。作为第三种方法,考虑了基于山簇的初始化。实验表明,该方法比提到的随机和准随机方法能得到更好的结果。但是,该方法的结果很大程度上取决于两个参数的值,这两个参数控制着聚类的过程。不幸的是,执行的实验没有提供这些参数的最佳值。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号