{"title":"ROBUST REPLICATION METHODS AND PROTOCOLS IN DISTRIBUTED SYSTEMS AND ENVIRONMENTS","authors":"А.Д. Данилов, М.О. Саввин, А.Е. Карачевцев","doi":"10.36622/1729-6501.2024.20.2.011","DOIUrl":null,"url":null,"abstract":"значительное увеличение объемов данных, генерируемых различными устройствами, датчиками, приложениями и пользователями веб-сервисов и социальных сетей, привело к возникновению задачи перехода к новой архитектуре хранения и обработки данных. Существующие централизованные локальные решения стали неэффективными, а дальнейшее увеличение вычислительных мощностей требовало значительных финансовых вложений. К тому же возникшая необходимость хранения исходных «сырых» данных еще сильнее увеличила потребность в дисковом пространстве. Решение такой проблемы основывается на применении распределённых архитектур, контролируемых специальными системами распределенного хранения и обработки данных. Узлы в таких системах могут состоять из простых компонентов, не всегда обладающих высокой надежностью и отказоустойчивостью. В данной статье авторы показали, что в таких условиях на первый план выходят согласованность данных и устойчивость системы к отказам. Проведенный в статье анализ современных методов и протоколов репликации в распределенных средах показал, что репликация данных является ключевой стратегией для обеспечения надежности и доступности информации в системах, где данные хранятся и обрабатываются на нескольких узлах. Рассмотрена классификация протоколов репликации по двум категориями: стратегии обновления и способу распространения обновлений. В заключение сделан вывод о том, что централизованные подходы к репликации с энергичным распространением обновлений являются на сегодня незаменимым механизмом повышения эффективности функционирования высоконагруженных и распределенных систем\n the volume of data generated by different devices, sensors, applications, and users of web services and social networks has significantly increased. This increase has prompted the need to transition to a new architecture for storing and processing data. The existing centralized local solutions have become inefficient, and further increase in computing power required significant financial investments. In addition, the need to store the original \"raw\" data has further increased the need for disk space. The solution to this problem is based on the use of distributed architectures controlled by special distributed data storage and processing systems. Nodes in such systems may consist of simple components that do not always have high reliability and fault tolerance. In this article, the authors have shown that in such conditions, data consistency and system resilience to failures come to the fore. The analysis of modern replication methods and protocols in distributed environments conducted in the article showed that data replication is a key strategy for ensuring the reliability and availability of information in systems where data is stored and processed on multiple nodes. The classification of replication protocols into two categories is considered: the update strategy and the method of distributing updates. In the end, it is concluded that centralized approaches to replication with eager distribution of updates are currently an indispensable mechanism for improving the efficiency of highly loaded and distributed systems","PeriodicalId":515253,"journal":{"name":"ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА","volume":" 8","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-07-05","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.36622/1729-6501.2024.20.2.011","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
значительное увеличение объемов данных, генерируемых различными устройствами, датчиками, приложениями и пользователями веб-сервисов и социальных сетей, привело к возникновению задачи перехода к новой архитектуре хранения и обработки данных. Существующие централизованные локальные решения стали неэффективными, а дальнейшее увеличение вычислительных мощностей требовало значительных финансовых вложений. К тому же возникшая необходимость хранения исходных «сырых» данных еще сильнее увеличила потребность в дисковом пространстве. Решение такой проблемы основывается на применении распределённых архитектур, контролируемых специальными системами распределенного хранения и обработки данных. Узлы в таких системах могут состоять из простых компонентов, не всегда обладающих высокой надежностью и отказоустойчивостью. В данной статье авторы показали, что в таких условиях на первый план выходят согласованность данных и устойчивость системы к отказам. Проведенный в статье анализ современных методов и протоколов репликации в распределенных средах показал, что репликация данных является ключевой стратегией для обеспечения надежности и доступности информации в системах, где данные хранятся и обрабатываются на нескольких узлах. Рассмотрена классификация протоколов репликации по двум категориями: стратегии обновления и способу распространения обновлений. В заключение сделан вывод о том, что централизованные подходы к репликации с энергичным распространением обновлений являются на сегодня незаменимым механизмом повышения эффективности функционирования высоконагруженных и распределенных систем
the volume of data generated by different devices, sensors, applications, and users of web services and social networks has significantly increased. This increase has prompted the need to transition to a new architecture for storing and processing data. The existing centralized local solutions have become inefficient, and further increase in computing power required significant financial investments. In addition, the need to store the original "raw" data has further increased the need for disk space. The solution to this problem is based on the use of distributed architectures controlled by special distributed data storage and processing systems. Nodes in such systems may consist of simple components that do not always have high reliability and fault tolerance. In this article, the authors have shown that in such conditions, data consistency and system resilience to failures come to the fore. The analysis of modern replication methods and protocols in distributed environments conducted in the article showed that data replication is a key strategy for ensuring the reliability and availability of information in systems where data is stored and processed on multiple nodes. The classification of replication protocols into two categories is considered: the update strategy and the method of distributing updates. In the end, it is concluded that centralized approaches to replication with eager distribution of updates are currently an indispensable mechanism for improving the efficiency of highly loaded and distributed systems