{"title":"越来越快","authors":"Juan Felipe Ramos, J. Gómez, Nicolás Cardozo","doi":"10.29236/sistemas.n161a7","DOIUrl":null,"url":null,"abstract":"El diseño de algoritmos es fundamental para la construcción de artefactos de software que son correctos y eficientes. La importancia de los algoritmos se ha visto resaltada en los últimos años, donde debido a los requerimientos de procesamiento de altos volúmenes de datos en dominios como la inteligencia artificial o el procesamiento en la nube con arquitecturas de BigData. Ya no es suficiente diseñar algoritmos con tiempos de complejidad teórica óptimos. Además, estos algoritmos deben optimizar al máximo el tiempo de ejecución de los procesos. Para responder a esta necesidad, la programación paralela se ha enfocado en el desarrollo de algoritmos que pueden ejecutar múltiples tareas de forma simultánea, cada una en una unidad de procesamiento distinta. En este trabajo, presentamos la forma de mejorar el tiempo de ejecución de algoritmos óptimos aplicando técnicas de paralelismo a los algoritmos para aprovechar al máximo las capacidades de multi-procesamiento de las máquinas modernas. Para hacer concreto este proceso, utilizamos el método de descomposición de raíz cuadrada sobre grandes volúmenes de datos. Los resultados obtenidos de nuestro experimento muestran una mejora de hasta 1.9x sobre la versión secuencial del algoritmo, confirmando los resultados teóricos del diseño del algoritmo.","PeriodicalId":41695,"journal":{"name":"Ibersid-Revista de Sistemas de Informacion y Documentacion","volume":"31 1","pages":""},"PeriodicalIF":0.3000,"publicationDate":"2021-12-13","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Cada vez más rápido\",\"authors\":\"Juan Felipe Ramos, J. Gómez, Nicolás Cardozo\",\"doi\":\"10.29236/sistemas.n161a7\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"El diseño de algoritmos es fundamental para la construcción de artefactos de software que son correctos y eficientes. La importancia de los algoritmos se ha visto resaltada en los últimos años, donde debido a los requerimientos de procesamiento de altos volúmenes de datos en dominios como la inteligencia artificial o el procesamiento en la nube con arquitecturas de BigData. Ya no es suficiente diseñar algoritmos con tiempos de complejidad teórica óptimos. Además, estos algoritmos deben optimizar al máximo el tiempo de ejecución de los procesos. Para responder a esta necesidad, la programación paralela se ha enfocado en el desarrollo de algoritmos que pueden ejecutar múltiples tareas de forma simultánea, cada una en una unidad de procesamiento distinta. En este trabajo, presentamos la forma de mejorar el tiempo de ejecución de algoritmos óptimos aplicando técnicas de paralelismo a los algoritmos para aprovechar al máximo las capacidades de multi-procesamiento de las máquinas modernas. Para hacer concreto este proceso, utilizamos el método de descomposición de raíz cuadrada sobre grandes volúmenes de datos. Los resultados obtenidos de nuestro experimento muestran una mejora de hasta 1.9x sobre la versión secuencial del algoritmo, confirmando los resultados teóricos del diseño del algoritmo.\",\"PeriodicalId\":41695,\"journal\":{\"name\":\"Ibersid-Revista de Sistemas de Informacion y Documentacion\",\"volume\":\"31 1\",\"pages\":\"\"},\"PeriodicalIF\":0.3000,\"publicationDate\":\"2021-12-13\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Ibersid-Revista de Sistemas de Informacion y Documentacion\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.29236/sistemas.n161a7\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"Q4\",\"JCRName\":\"INFORMATION SCIENCE & LIBRARY SCIENCE\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Ibersid-Revista de Sistemas de Informacion y Documentacion","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.29236/sistemas.n161a7","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q4","JCRName":"INFORMATION SCIENCE & LIBRARY SCIENCE","Score":null,"Total":0}
El diseño de algoritmos es fundamental para la construcción de artefactos de software que son correctos y eficientes. La importancia de los algoritmos se ha visto resaltada en los últimos años, donde debido a los requerimientos de procesamiento de altos volúmenes de datos en dominios como la inteligencia artificial o el procesamiento en la nube con arquitecturas de BigData. Ya no es suficiente diseñar algoritmos con tiempos de complejidad teórica óptimos. Además, estos algoritmos deben optimizar al máximo el tiempo de ejecución de los procesos. Para responder a esta necesidad, la programación paralela se ha enfocado en el desarrollo de algoritmos que pueden ejecutar múltiples tareas de forma simultánea, cada una en una unidad de procesamiento distinta. En este trabajo, presentamos la forma de mejorar el tiempo de ejecución de algoritmos óptimos aplicando técnicas de paralelismo a los algoritmos para aprovechar al máximo las capacidades de multi-procesamiento de las máquinas modernas. Para hacer concreto este proceso, utilizamos el método de descomposición de raíz cuadrada sobre grandes volúmenes de datos. Los resultados obtenidos de nuestro experimento muestran una mejora de hasta 1.9x sobre la versión secuencial del algoritmo, confirmando los resultados teóricos del diseño del algoritmo.