ISSN: 2475-7586
Charles Chinedu Nworu*, Emmanuel John Ekpenyong, John Chisimkwuo, Godwin Okwara, Christian Nduka Onyeukwu, Onyekachi Joy Agwu
La elección de las funciones de activación es muy importante en el aprendizaje profundo. Esto se debe a que las funciones de activación son capaz de capturar patrones no lineales en un dato. La función de activación más popular es la Lineal Rectificada Unidad (ReLU) pero sufre un problema de desaparición de gradiente. Por lo tanto, examinamos las modificaciones de la Función de activación de ReLU para determinar su efectividad (precisión) y eficiencia (complejidad de tiempo). La efectividad y la eficiencia se verificó mediante la realización de un experimento empírico utilizando imágenes de rayos X que contienen neumonía y muestras normales. Nuestros experimentos muestran que el ReLU modificado, ReLU6 se desempeñó mejor en términos de bajo error de generalización (97,05 % de precisión de entrenamiento y 78,21 % de precisión de prueba). El análisis de sensibilidad también sugiere que la ELU es capaz de predecir correctamente más de la mitad de los casos positivos con un 52,14% de probabilidad. Para eficiencia, el GELU muestra el tiempo de entrenamiento más bajo en comparación con otras funciones de activación. Esto permitira profesionales en este campo para elegir funciones de activación basadas en la eficacia y la eficiencia.