在本文中,提出了一种基于通过解决受约束优化问题估算所需的前提零件输出的新颖逐步学习方法。这种学习方法不需要备份输出错误来了解前提零件参数。相反,估计规则前提部分的近最佳输出值,并且它们的参数变为减小当前前提零件输出和估计所需的误差。因此,所提出的学习方法避免了错误反向化,这导致消失梯度并因此陷入局部最佳状态。所提出的方法不需要任何初始化方法。这种学习方法用于训练新的Takagi-Sugeno-kang(TSK)模糊神经网络,其相关的模糊规则,包括两个前提和随后的零件中的许多参数,避免由于消失梯度而陷入局部最佳状态。为了学习所提出的网络参数,首先,介绍了约束的优化问题,并解决了估计前提零件输出值的所需值。接下来,利用这些值与当前的误差来基于梯度 - 下降(GD)方法来调整前提部分的参数。然后,所需和网络输出之间的误差用于通过GD方法学习随后的零件参数。建议的范式成功应用于现实世界的时间序列预测和回归问题。根据实验结果,其性能优于具有更加规模的结构的其他方法。
translated by 谷歌翻译