{"title":"Modèle Neuronal de Recherche d'Information Augmenté par une Ressource Sémantique","authors":"Gia-Hung Nguyen, Lynda Tamine, Laure Soulier, Nathalie Bricon-Souf","doi":"10.24348/coria.2017.4","DOIUrl":null,"url":null,"abstract":"De nombreux travaux en recherche d'information (RI) ont montre l'apport de la semantique des mots pour ameliorer l'appariement de document-requete. D'une part, la semantique symbolique derivee de ressources externes permet de representer des entites et leurs relations explicites. D'autre part, la semantique distributionnelle inferee des corpus permet de representer les relations semantiques implicites d'un corpus. Dans cet article, nous proposons de combiner ces deux types de representations semantiques. Ainsi, nous presentons un modele neuronal pour la RI ad-hoc qui exploite les representations semantiques latentes des documents et des requetes en beneficiant des concepts et des relations exprimes au sein d'une ressource externe. Les evaluations sur deux jeux de donnees prouvent l'efficacite de notre modele par rapport aux modeles neuronaux profonds d'appariement de l'etat de l'art. ABSTRACT. In information retrieval task, the words semantic has been recognized as significant mean to improve the document-query matching. First, the symbolic semantics extracted from external resources allows to represent entities and their explicit relations. Second, the distributed semantics inferred from the corpus allows to exploit the implicit relations hidden in a corpus. In this paper, we introduce a neural model that leverages the latent semantic representations of documents and queries by taking advantage of the concepts and relations expressed within an external resource. Experimental results obtained on two datasets indicate our model effectiveness in comparison with state-of-the-art deep neural retrieval models.","PeriodicalId":390974,"journal":{"name":"Conférence en Recherche d'Infomations et Applications","volume":"47 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2017-03-29","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Conférence en Recherche d'Infomations et Applications","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.24348/coria.2017.4","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
De nombreux travaux en recherche d'information (RI) ont montre l'apport de la semantique des mots pour ameliorer l'appariement de document-requete. D'une part, la semantique symbolique derivee de ressources externes permet de representer des entites et leurs relations explicites. D'autre part, la semantique distributionnelle inferee des corpus permet de representer les relations semantiques implicites d'un corpus. Dans cet article, nous proposons de combiner ces deux types de representations semantiques. Ainsi, nous presentons un modele neuronal pour la RI ad-hoc qui exploite les representations semantiques latentes des documents et des requetes en beneficiant des concepts et des relations exprimes au sein d'une ressource externe. Les evaluations sur deux jeux de donnees prouvent l'efficacite de notre modele par rapport aux modeles neuronaux profonds d'appariement de l'etat de l'art. ABSTRACT. In information retrieval task, the words semantic has been recognized as significant mean to improve the document-query matching. First, the symbolic semantics extracted from external resources allows to represent entities and their explicit relations. Second, the distributed semantics inferred from the corpus allows to exploit the implicit relations hidden in a corpus. In this paper, we introduce a neural model that leverages the latent semantic representations of documents and queries by taking advantage of the concepts and relations expressed within an external resource. Experimental results obtained on two datasets indicate our model effectiveness in comparison with state-of-the-art deep neural retrieval models.
大量的信息检索(ir)研究表明,单词语义对改进文档-查询匹配的贡献。一方面,来自外部资源的符号语义允许表示实体及其显式关系。另一方面,从语料库中推断出的分布语义可以表示语料库的隐式语义关系。在本文中,我们建议将这两种类型的语义表示结合起来。因此,我们提出了一个特别ir的神经模型,它利用文档和查询的潜在语义表示,利用外部资源中表达的概念和关系。对两组数据的评估证明了我们的模型相对于最先进的深度神经元配对模型的有效性。文摘。在信息检索任务中,单词语义已被认为是改进文档查询匹配的重要手段。First, the symbolic语义extracted从外部资源相称的大势所趋,实体and their露骨的关系。第二,从语料库推断出的分布式语义允许利用语料库中隐藏的隐式关系。在本文中,我们引入了一种神经模型,利用外部资源中表达的概念和关系,利用文档和查询的潜在语义表示。两个数据集的实验结果表明,与最先进的深度神经检索模型相比,我们的模型的有效性。