Implementasi Fine-Tuning BERT untuk Analisis Sentimen terhadap Review Aplikasi PUBG Mobile di Google Play Store

Alex Sander P. Braja, Achmad Kodar
{"title":"Implementasi Fine-Tuning BERT untuk Analisis Sentimen terhadap Review Aplikasi PUBG Mobile di Google Play Store","authors":"Alex Sander P. Braja, Achmad Kodar","doi":"10.51213/jimp.v7i3.779","DOIUrl":null,"url":null,"abstract":"Game online adalah salah satu hal yang paling relevan untuk beradaptasi dengan teknologi internet. PUBG Mobile adalah salah satu game online terpopuler di Indonesia, telah diunduh lebih dari 500 juta kali dengan 41,8 juta ulasan pengguna pada tahun 2022 di Google Play. Ulasan pengguna memainkan peran penting dalam keberhasilan pengembangan aplikasi. Ulasan pengguna berupa teks dalam format data tidak terstruktur yang menimbulkan kerumitan saat bekerja dengan analisis sentimen. Ada sebuah pendekatan baru yang disebut BERT. BERT Ini model transfer-learning memperkenalkan model pre-training yang diperlukan untuk lebih baik dalam representasi konteks tekstual. Penelitian ini menguji kinerja BERT untuk analisis sentimen menggunakan dua model pre-training. Kami menggunakan model pre-training IndoBERT BASE dan BERT BASE Multilingual. Data yang digunakan adalah ulasan pengguna untuk aplikasi PUBG Mobile di Google Play Store. Kami juga melakukan pengaturan hyperparameter untuk menemukan model pencarian yang optimal menggunakan dua pendekatan pelabelan data: pelabelan berbasis skor dan pelabelan berbasis TextBlob untuk menentukan efisiensi model. Hasil percobaan menunjukkan bahwa model fine-tuned IndoBERT memiliki akurasi yang lebih baik dalam pelabelan data berbasis Textblob dengan akurasi tertinggi 94 % pada learning rate 0.00002, batch size 32, jumlah epoch 5, dan waktu pelatihan 12 menit.","PeriodicalId":484241,"journal":{"name":"JIMP (Jurnal Informatika Merdeka Pasuruan)","volume":"42 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2023-09-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"JIMP (Jurnal Informatika Merdeka Pasuruan)","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.51213/jimp.v7i3.779","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Game online adalah salah satu hal yang paling relevan untuk beradaptasi dengan teknologi internet. PUBG Mobile adalah salah satu game online terpopuler di Indonesia, telah diunduh lebih dari 500 juta kali dengan 41,8 juta ulasan pengguna pada tahun 2022 di Google Play. Ulasan pengguna memainkan peran penting dalam keberhasilan pengembangan aplikasi. Ulasan pengguna berupa teks dalam format data tidak terstruktur yang menimbulkan kerumitan saat bekerja dengan analisis sentimen. Ada sebuah pendekatan baru yang disebut BERT. BERT Ini model transfer-learning memperkenalkan model pre-training yang diperlukan untuk lebih baik dalam representasi konteks tekstual. Penelitian ini menguji kinerja BERT untuk analisis sentimen menggunakan dua model pre-training. Kami menggunakan model pre-training IndoBERT BASE dan BERT BASE Multilingual. Data yang digunakan adalah ulasan pengguna untuk aplikasi PUBG Mobile di Google Play Store. Kami juga melakukan pengaturan hyperparameter untuk menemukan model pencarian yang optimal menggunakan dua pendekatan pelabelan data: pelabelan berbasis skor dan pelabelan berbasis TextBlob untuk menentukan efisiensi model. Hasil percobaan menunjukkan bahwa model fine-tuned IndoBERT memiliki akurasi yang lebih baik dalam pelabelan data berbasis Textblob dengan akurasi tertinggi 94 % pada learning rate 0.00002, batch size 32, jumlah epoch 5, dan waktu pelatihan 12 menit.
《绝地求生》手机版在Google Play Store的应用
网络游戏是适应互联网技术最相关的工具之一。PUBG移动是印尼最受欢迎的在线游戏之一,2022年下载了4.180万用户评论。用户审查在应用程序开发的成功中发挥了重要作用。用户对非结构化数据格式文本的评论,在感情分析的过程中会产生复杂性。有一种新方法叫伯特。伯特是一个过渡学习模型,介绍了培训前模型,以更好地表达文本上下文。这项研究用两种训练前模型测试了伯特对感情分析的表现。我们使用前IndoBERT基地和多语种基地模型。数据是谷歌Play Store对PUBG移动应用的用户审查。我们还使用两种数据标签方法:基于分数的标签标签和基于TextBlob的标签来确定模型的效率。实验结果表明,fine-tuned IndoBERT模型在learning rate Textblob中有更好的准确性,在learning rate 0.00002、第32批次、epoch 5和培训时间为12分钟。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信