Alejo Mosso Vázquez, D. Juárez-Romero, José Alfredo Hernández-Pérez, Darvi Echeverría Sosa, Jimer Emir Loría Yah, Ramiro José González Horta, Gerardo Israel de Atocha Pech Carveo, Carlos Alberto Decena Chan
{"title":"Una Revisión de los Fundamentos de Aprendizaje Profundo – El Modelo de Red Neuronal XOR","authors":"Alejo Mosso Vázquez, D. Juárez-Romero, José Alfredo Hernández-Pérez, Darvi Echeverría Sosa, Jimer Emir Loría Yah, Ramiro José González Horta, Gerardo Israel de Atocha Pech Carveo, Carlos Alberto Decena Chan","doi":"10.30973/progmat/2023.15.1/5","DOIUrl":null,"url":null,"abstract":"Deep Learning mediante el seguimiento, en un simple modelo de Redes Neuronales de la función XOR, de las señales en forward y backward que fluyen a través de este modelo. Nuestro objetivo es alcanzar una comprensión más profunda de algunos conceptos sobresalientes de Deep Learning, lo que nos permitiría comprender su significado mientras el modelo de Redes Neuronales de la función XOR es entrenado por el algoritmo Retropropagación. El modelo elegido contiene una sola capa oculta con cuatro neuronas y una capa de salida con una neurona. Aunque este modelo no es una red neuronal profunda, su capa oculta lleva los conceptos suficientes de Deep Learning. Se utiliza la sigmoidea como función de activación en todas las neuronas. Se presenta una derivación de una versión simple del algoritmo Gradiente Descendente Estocástico, que se usa para minimizar el error de salida, y luego al retropropagarlo llegamos al algoritmo de retropropagación. Se presentan resultados numéricos, que muestran la convergencia del error de salida y el de un peso seleccionado y su análisis resume la comprensión de los conceptos fundamentales de Deep Learning.","PeriodicalId":417893,"journal":{"name":"Programación Matemática y Software","volume":"35 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2023-02-16","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Programación Matemática y Software","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.30973/progmat/2023.15.1/5","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
Deep Learning mediante el seguimiento, en un simple modelo de Redes Neuronales de la función XOR, de las señales en forward y backward que fluyen a través de este modelo. Nuestro objetivo es alcanzar una comprensión más profunda de algunos conceptos sobresalientes de Deep Learning, lo que nos permitiría comprender su significado mientras el modelo de Redes Neuronales de la función XOR es entrenado por el algoritmo Retropropagación. El modelo elegido contiene una sola capa oculta con cuatro neuronas y una capa de salida con una neurona. Aunque este modelo no es una red neuronal profunda, su capa oculta lleva los conceptos suficientes de Deep Learning. Se utiliza la sigmoidea como función de activación en todas las neuronas. Se presenta una derivación de una versión simple del algoritmo Gradiente Descendente Estocástico, que se usa para minimizar el error de salida, y luego al retropropagarlo llegamos al algoritmo de retropropagación. Se presentan resultados numéricos, que muestran la convergencia del error de salida y el de un peso seleccionado y su análisis resume la comprensión de los conceptos fundamentales de Deep Learning.