Алексей Галактионович Бычков, Татьяна Викторовна Киселёва, Е.В. Маслова
{"title":"OPTIMIZATION METHODOLOGY FOR NEURAL NETWORK ELEMENTS ON THE EXAMPLE OF PERCEPTRON","authors":"Алексей Галактионович Бычков, Татьяна Викторовна Киселёва, Е.В. Маслова","doi":"10.36622/vstu.2022.87.1.001","DOIUrl":null,"url":null,"abstract":"В работе рассматриваются структура нейрона и математические методы, используемые для подсчёта его значений. Для ускорения работы по расчётам этих значений предложены более эффективные методы расчёта градиента на этапе обратного прохода.\n The paper discusses the structure of a neuron and the mathematical methods used to calculate its values. To speed up the work on calculating these values, more efficient methods for calculating the gradient at the back pass stage are proposed. Various ways of optimizing the initial data set are also considered, which also affects the speed of the algorithms.","PeriodicalId":331043,"journal":{"name":"СИСТЕМЫ УПРАВЛЕНИЯ И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ","volume":"1 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2022-03-25","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"СИСТЕМЫ УПРАВЛЕНИЯ И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.36622/vstu.2022.87.1.001","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
В работе рассматриваются структура нейрона и математические методы, используемые для подсчёта его значений. Для ускорения работы по расчётам этих значений предложены более эффективные методы расчёта градиента на этапе обратного прохода.
The paper discusses the structure of a neuron and the mathematical methods used to calculate its values. To speed up the work on calculating these values, more efficient methods for calculating the gradient at the back pass stage are proposed. Various ways of optimizing the initial data set are also considered, which also affects the speed of the algorithms.