Revista de Tecnología de la Información e Ingeniería de Software

Revista de Tecnología de la Información e Ingeniería de Software
Acceso abierto

ISSN: 2165- 7866

abstracto

Redes neuronales recurrentes: memoria asociativa y optimización

K. -l Du

Debido a las conexiones de retroalimentación, las redes neuronales recurrentes (RNN) son modelos dinámicos. Las RNN pueden proporcionar una estructura más compacta para aproximar sistemas dinámicos en comparación con las redes neuronales de avance (FNN). Para algunos modelos RNN, como el modelo de Hopfield y la máquina de Boltzmann, la propiedad de punto fijo de los sistemas dinámicos se puede utilizar para la optimización y la memoria asociativa. El modelo de Hopfield es el modelo RNN más importante, y la máquina de Boltzmann, así como algunos otros modelos dinámicos estocásticos, se proponen como su generalización. Estos modelos son especialmente útiles para tratar problemas de optimización combinatoria (COP), que son problemas NPcompletos notorios. En este documento, proporcionamos una introducción de vanguardia a estos modelos RNN, sus algoritmos de aprendizaje y sus implementaciones analógicas. La memoria asociativa, los COP, el recocido simulado (SA), las redes neuronales caóticas y los modelos de Hopfield multinivel también son temas importantes que se tratan en este artículo.

Descargo de responsabilidad: este resumen se tradujo utilizando herramientas de inteligencia artificial y aún no ha sido revisado ni verificado.
Top