АНАЛИТИКА НАУЧНЫХ ТЕКСТОВ НА ОСНОВЕ РАСПРЕДЕЛЕННЫХ ФРЕЙМВОРКОВ ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ ДАННЫХ

С.А. Алтынбек, Г.Ж. Шуйтенов, C.A. Сантеева, А.С. Тургинбаева
{"title":"АНАЛИТИКА НАУЧНЫХ ТЕКСТОВ НА ОСНОВЕ РАСПРЕДЕЛЕННЫХ ФРЕЙМВОРКОВ ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ ДАННЫХ","authors":"С.А. Алтынбек, Г.Ж. Шуйтенов, C.A. Сантеева, А.С. Тургинбаева","doi":"10.58805/kazutb.v.3.20-151","DOIUrl":null,"url":null,"abstract":"Статья рассматривает разработку интеллектуальной системы параллельного анализа неструктурированных данных на основе распределенного фреймворка Apache Spark. А также формирование математического аппарата для реализации быстрых алгоритмов анализа научных текстов на естественном языке с применением методов теории вероятностей и статистики, теории информации и машинного обучения. Apache Spark - это распределенный фреймворк для обработки больших данных и аналитики. Он обеспечивает быстрый и универсальный движок для крупномасштабной обработки данных, позволяющий пользователям выполнять параллельные вычисления в распределенных кластерах. Неструктурированные данные относятся к данным, которые не имеют предопределенной структуры, таким как текст, изображения, видео и публикации в социальных сетях. Анализ неструктурированных данных - сложная задача, поскольку для этого требуется извлекать значимую информацию из данных, которые нелегко организовать в строки и столбцы. Разработка интеллектуальной системы для параллельного анализа неструктурированных данных с использованием Apache Spark включает в себя несколько этапов. Во-первых, неструктурированные данные должны быть загружены в Spark framework. Это можно сделать с помощью различных источников данных, таких как распределенная файловая система Hadoop (HDFS), Amazon S3 или любая другая система хранения, поддерживаемая Spark. Интеллектуальная система может быть разработана с использованием таких языков программирования, как Scala, Java или Python, которые имеют привязки Spark и предоставляют API для взаимодействия с Spark framework. Эти API-интерфейсы позволяют разработчикам определять конвейеры передачи данных, настраивать параметры параллельной обработки и выполнять задачи анализа.","PeriodicalId":485481,"journal":{"name":"КазУТБ","volume":"70 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2023-09-30","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"КазУТБ","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.58805/kazutb.v.3.20-151","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Статья рассматривает разработку интеллектуальной системы параллельного анализа неструктурированных данных на основе распределенного фреймворка Apache Spark. А также формирование математического аппарата для реализации быстрых алгоритмов анализа научных текстов на естественном языке с применением методов теории вероятностей и статистики, теории информации и машинного обучения. Apache Spark - это распределенный фреймворк для обработки больших данных и аналитики. Он обеспечивает быстрый и универсальный движок для крупномасштабной обработки данных, позволяющий пользователям выполнять параллельные вычисления в распределенных кластерах. Неструктурированные данные относятся к данным, которые не имеют предопределенной структуры, таким как текст, изображения, видео и публикации в социальных сетях. Анализ неструктурированных данных - сложная задача, поскольку для этого требуется извлекать значимую информацию из данных, которые нелегко организовать в строки и столбцы. Разработка интеллектуальной системы для параллельного анализа неструктурированных данных с использованием Apache Spark включает в себя несколько этапов. Во-первых, неструктурированные данные должны быть загружены в Spark framework. Это можно сделать с помощью различных источников данных, таких как распределенная файловая система Hadoop (HDFS), Amazon S3 или любая другая система хранения, поддерживаемая Spark. Интеллектуальная система может быть разработана с использованием таких языков программирования, как Scala, Java или Python, которые имеют привязки Spark и предоставляют API для взаимодействия с Spark framework. Эти API-интерфейсы позволяют разработчикам определять конвейеры передачи данных, настраивать параметры параллельной обработки и выполнять задачи анализа.
并行数据分布式框架分析科学文本
这篇文章讨论了基于Apache Spark分布式框架开发并行分析无结构数据的智能系统。它还设计了一种数学机器来执行快速算法来分析自然语言的科学文本,使用概率论和统计方法、信息理论和机器学习。Apache Spark是一个分布式数据处理框架和分析。它为大规模数据处理提供了一个快速和通用的引擎,允许用户在分布式集群中进行并行计算。非结构化数据是指没有固定结构的数据,如文本、图像、视频和社交网络出版物。分析非结构化数据是一项艰巨的任务,因为它需要从数据中提取有意义的信息,而数据很难组织成行列。开发一个智能系统,并行使用Apache Spark分析非结构化数据,包括多个阶段。首先,非结构化数据必须下载到Spark框架中。可以使用不同的数据来源,如分散式文件系统HDFS、亚马逊S3或任何其他由Spark支持的存储系统。智能系统可以使用Scala、Java或Python等编程语言开发,这些语言具有Spark绑定,并提供API与Spark框架交互。这些API接口允许开发人员定义数据传送带,调整并行处理参数并执行分析任务。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信