LDV ForumPub Date : 2004-07-01DOI: 10.21248/jlcl.19.2004.56
K. Beck
{"title":"Ein Vokabeltrainer auf der Grundlage von GermaNet und Mapa - Mapping Architecture for People's Associations","authors":"K. Beck","doi":"10.21248/jlcl.19.2004.56","DOIUrl":"https://doi.org/10.21248/jlcl.19.2004.56","url":null,"abstract":"","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2004-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"129101771","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2004-07-01DOI: 10.21248/jlcl.19.2004.52
I. Thabet, Bernd Ludwig, Frank-Peter Schweinberger, K. Bücher, Günther Görz
{"title":"Using EuroWordNet within the Speech Operated System EMBASSI","authors":"I. Thabet, Bernd Ludwig, Frank-Peter Schweinberger, K. Bücher, Günther Görz","doi":"10.21248/jlcl.19.2004.52","DOIUrl":"https://doi.org/10.21248/jlcl.19.2004.52","url":null,"abstract":"In natural language processing, incremental semantic composition is one of the most prominent issues. In the past, numerous approaches have been developed for assigning meaning to noun and verb phrases and their complements and modifiers. However, their inferential power is often too weak to be applied to practical applications, or the expressiveness of the representation language is so complex, that it leads to intractable inference procedures. As an answer to these problems, we have developed an approach that relies on Description Logics (DL) for handling semantic construction. First, we will discuss this appraoch and show how a semantic knowledge base can be setup dependant on EUROWORDNET 1 (EWN) as a linguistic ontology. Subsequently we will outline our experience with and demands on EWN. 1 What is EMBASSI and its Objective? EMBASSI (”Elektronische Multimediale Bedienund Service-Assistenz”) has been http://www.illc.uva.nl/EuroWordNet/ a German joint project sponsored by the German Fed. Ministery of Research2. Our contribution to this project consists mainly of three components: the dialogue manager, formal ontologies for several multilingual application domains, and the language generation component to communicate system utterances to the user. The long-term goal of our research is to design and implement a generic dialogue system for rational (spoken) dialogues that helps a user to achieve certain goals in terms of operations of a technical application system – e.g. an information system, a system for controlling devices, or any other kind of problem solving systems. One of its design criteria is the ability to recognize users’ intentions in order to establish corresponding subgoals and control their processing. Furthermore, it should enable mixed-initiative, flexible and cooperative conversations, provide a high level of robustness as well as scalability at the linguistic and application dimensions, and easy portability to new domains. In addition, it should be possible to integrate multilingual linguistic interaction with multimodal It aims to provide easy access for everybody to complex technical systems (A/V home theatre, car devices, and public terminals), encouraging multimodal as well as multilingual user input. forms of input and output such as graphical user interfaces, and – by means of appropriate devices – the recognition of deictic actions. 2 DL Models of Applications Applications are characterized by a DL terminology which models the concepts used for making propositions about application situations. Basically, EMBASSI’s knowledge base is composed of two parts: the EWN ontology, which encodes the linguistic meaning of words determined on an empirical basis, and the STANDARD UPPER ONTOLOGY (SUMO) (NP01), which is used as a generic base model for concepts of the application domain (see (Lu02)). 3 Semantic Construction This section discusses the issue of semantic construction during analyzing natural language input. We are using a","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2004-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"117271135","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2004-07-01DOI: 10.21248/jlcl.19.2004.62
Michael Beißwenger, Angelika Storrer, Maren Runte
{"title":"Modellierung eines Terminologienetzes für das automatische Linking auf der Grundlage von WordNet","authors":"Michael Beißwenger, Angelika Storrer, Maren Runte","doi":"10.21248/jlcl.19.2004.62","DOIUrl":"https://doi.org/10.21248/jlcl.19.2004.62","url":null,"abstract":"Dieser Beitrag skizziert die Konzeption eines im Projekt „Hypertextualisierung auf textgrammtischer Grundlage“ (HyTex) modellierten terminologischen Wortnetzes (TermNet) zu den Fachtextdomanen Texttechnologie und Hypermedia. Schwerpunkt des Beitrags ist es zum einen, die Modellierung von TermNet in Hinblick auf fachsprachenund domanenspezifische Merkmale vorzustellen, und zum anderen, die Anwendung von TermNet fur die Generierung von Linkangeboten zur Rekonstruktion terminologiebedingter Wissensvoraussetzungen zu erortern. 1 Projektrahmen und Motivation des Ansatzes Unter Hypertextualisierung versteht man die Aufbereitung von Dokumenten fur die selektiven, interaktiven Nutzungsformen in einem Hypertextsystem, z.B. dem World Wide Web. Das Projekt HyTex 1 (Hypertextualisierung auf textgrammatischer Grundlage) sucht nach textgrammatisch geleiteten Verfahren fur eine hypertextadaquate Aufbereitung selektiv organisierter Fachtexte (wissenschaftliche Artikel, technische Spezifikationen), d.h. eine Aufbereitung, die hypertexttypischen selektiven Rezeptionsformen optimal entgegenkommt. Auf der technischen Seite benotigt man fur diese Aufgabe Konversionstools; auf der konzeptionellen Seite benotigt man Strategien und Verfahren fur die folgenden beiden Teilaufgaben der Hypertextualisierung: – Segmentierung (Zerlegung der Dokumente in Module). 1 HyTex wird seit April 2002 an der Universitat Dortmund durchgefuhrt (www.hytex.info) und ist ein Teilprojekt der Forschergruppe „Texttechnologische Informationsmodellierung“ (www.text-technology.de), die sich mit den theoretischen Grundlagen und Methoden der Modellierung von Sprachdaten mit Markup-Sprachen (insbesondere XML und Tochterstandards) beschaftigt. – Linking (Verknupfung der Module durch Hyperlinks). Fur die in HyTex entwickelte textgrammatisch geleitete Herangehensweise an diese Aufgaben gibt es zwei Leitlinien: (a) Reversibilitat und (b) Hypertextualisierung nach Koharenzkriterien. Ad a): Reversibilitat bedeutet, dass wir HypertextSichten auf lineare Dokumente als zusatzliche Sichten generieren, die regelgeleitet aus textgrammatischem Markup und anderen Wissensquellen – z.B. aus dem in diesem Papier beschriebenen Terminologienetz – abgeleitet werden. Die sequentielle Struktur und der Originalwortlaut eines Dokuments bleiben dabei als eine mogliche Sicht auf das Dokument erhalten. Damit geben wir dem Rezipienten die Moglichkeit, einen Text in der ursprunglichen linearen Form und Abfolge zu rezipieren, wenn er die Zeit dazu hat; die Hypertextsichten sind als zusatzliche Angebote fur den eiligen Querleser gedacht. Ad b): Das Ziel der Hypertextualisierung in unserem Ansatz ist es, Koharenzbildungsprozesse beim selektiven Querlesen besser zu unterstutzen als dies in Printmedien moglich ist und damit das Mehrwertpotenzial von Hypertexten auszureizen. Im Hinblick auf diese Zielsetzung spielen bei der Segmentierung und beim Linking Koharenzkriterien eine zentrale Rolle. Hypertextualisierung nach Koharenzkriterie","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2004-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130884067","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.36
Felix Sasaki
{"title":"Textauszeichnung im Original und in der Übersetzung: Schemasprachen und mehr","authors":"Felix Sasaki","doi":"10.21248/jlcl.18.2003.36","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.36","url":null,"abstract":"Der vorliegende Artikel behandelt Forschungsarbeiten, die in der Forschergruppe TEXTTECHNOLOGISCHE INFORMATIONSMODELLIERUNG, im Rahmen des Projekts SEKIMO (Sekundare Informationsstrukturierung und vergleichende Diskursanalyse) entstehen. Im Projekt Sekimo werden u. a. Schemasprachen fur einen korpusbasierten Vergleich sprachlicher Funktionen (z. B. Koreferenz) und ihren Realisierungsformen in typologisch verschiedenen Sprachen eingesetzt. In diesem Artikel werden Moglichkeiten von Schemasprachen und komplementaren Ansatze bzw. Methoden, die sich innerhalb der Projektarbeit fur den Sprachvergleich als hilfreich erwiesen haben, hinsichtlich ihrer Eignung als Mittel zur Wahrung und Analyse von Konsistenz textuell ausgezeichneter Dokumente untersucht. Die Dokumente stehen in einer Ubersetzungsrelation zueinander. D. h. sie liegen in einer Ausgangssprache (AS) und in einer oder mehreren Zielsprache(n) (ZS) vor. Abbildung 1 zeigt einen mittels HTML ausgezeichneten Ausschnitt der Beschreibung des XML-Standards, der XML-Empfehlung (vgl. Bray et al. 2000), in der ausgangssprachlichen, englischen Version, und einer zielsprachlichen, deutschen Version. Die Darstellung entspricht einer Browserausgabe. Die Textauszeichnungen oft auch als Annotation bezeichnet in AS und ZS stehen in bestimmten, in dreifacher Weise differenzierbaren Beziehungen zueinander. (1) Es wird eventuell ein gemeinsames Auszeichnungsvokabular verwendet. Im Beispiel ist dies HTML, da der Text in beiden Sprachen im gleichen Ausgabemedium prasentiert werden soll. (2) Es kann von Gemeinsamkeiten bei der Strukturierung der Dokumente in AS und ZS ausgegangen werden, was z. B. die Trennung und Anordnung der Uberschriften, Absatze, Fusnoten etc. anbetrifft.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"115693890","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.26
D. Reitter
{"title":"Simple Signals for Complex Rhetorics: On Rhetorical Analysis with Rich-Feature Support Vector Models","authors":"D. Reitter","doi":"10.21248/jlcl.18.2003.26","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.26","url":null,"abstract":"Most text displays an internal coherence structure, which can be analyzed as a tree structure of relations that hold between short segments of text. We present a machinelearning governed approach to such an analysis in the framework of Rhetorical Structure Theory. Our rhetorical analyzer observes a variety of textual properties, such as cue phrases, part-of-speech information, rhetorical context and lexical chaining. A two-stage parsing algorithm uses local and global optimization to find an analysis. Decisions during parsing are driven by an ensemble of support vector classifiers. This training method allows for a non-linear separation of samples with many relevant features. We define a chain of annotation tools that profits from a new underspecified representation of rhetorical structure. Classifiers are trained on a newly introduced German language corpus, as well as on a large English one. We present evaluation data for the recognition of rhetorical relations.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"126627066","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.29
Reinhard Schäler
{"title":"Für einen erfolgreichen Einsatz von Sprachtechnologien im Lokalisierungsbereich","authors":"Reinhard Schäler","doi":"10.21248/jlcl.18.2003.29","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.29","url":null,"abstract":"Die Lokalisierungsindustrie ist einer der Motoren, die die Entwicklung der multilingualen Informationsgesellschaft antreiben. Als solche muss sie in der Lage sein, grose Mengen digitaler Inhalte, die in einer Sprache entwickelt wurden, in kurzester Zeit mit einem angemessenen Aufwand und in ausreichender Qualitat auch fur eine Reihe anderer Sprachen bereitzustellen. Dies ist in der Praxis nur moglich mit Hilfe von Werkzeugen und Technologien aus dem Bereich der linguistischen Datenverarbeitung. Dieser Beitrag gibt zunachst einen Uberblick uber die Lokalisierungsindustrie und definiert den Begriff Lokalisierung, wie er im Weiteren verwendet wird. Der Beitrag beschreibt dann ein typisches Lokalisierungsprojekt und die Abfolge der Arbeitsvorgange in einem solchen Projekt. Auf diesem Hintergrund untersucht der Beitrag die Beruhrungspunkte und Abhangigkeiten zwischen Sprachtechnologien und Lokalisierung. Welche Probleme in Bezug auf die Verarbeitung menschlicher Sprache treten wahrend der Lokalisierung auf und in welchem Zusammenhang? Welche Sprachtechnologien und Werkzeuge bieten sich fur eine Losung dieser Probleme an? Welche werden in der Praxis bereits eingesetzt, welche befinden sich noch im Entwicklungsstadium? Welche Hindernisse es fur einen erfolgreichen Einsatz von Sprachtechnologien in der Lokalisierung gibt, diskutiert der Beitrag in seinem abschliesenden Teil und bietet zugleich Strategien zur Uberwindung dieser Hindernisse an.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"116365849","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.45
Daniela Goecke, Daniel Naber, A. Witt
{"title":"Query von Multiebenenannotierten XML-Dokumenten mit Prolog","authors":"Daniela Goecke, Daniel Naber, A. Witt","doi":"10.21248/jlcl.18.2003.45","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.45","url":null,"abstract":"In dem Beitrag wird ein Ansatz vorgestellt, XML-Dokumente zu analysieren, die hinsichtlich mehrerer Ebenen annotiert sind. Die Arbeiten stehen in Zusammenhang mit einem Projekt, in dem sprachliche Funktionen (insbesondere Koreferenz) in Beziehung gesetzt werden zu den sprachlichen Ausdrucksmitteln der untersuchten typologisch unterschiedlichen Sprachen. Derartige Untersuchungen bilden für eine multilingual ausgerichtete Sprachtechnologie eine wichtige Grundlage. So ist es z.B. für maschinelle Übersetzungen unabdingbar, Kenntnisse über eine angemessene Versprachlichung einer in einer Quellsprache als Pronomen realisierten koreferenten Einheit zu besitzen. Als Beispiel für die Relevanz der Verknüpfung von verschiedenen Ebenen soll in dem vorliegenden Beitrag jedoch eine andere Anwendung der hier vorgestellten Query-Möglichkeiten beschrieben werden, die ebenfalls für Arbeiten im Bereich der maschinellen Übersetzung sehr relevant ist, nämlich die Kontrollierte Sprache (vgl. Lehrndorfer 1996). Bei der Analyse von XML-Dokumenten liegt unser Schwerpunkt auf dem Vergleich von Annotationsebenen, existierende Query-Sprachen (vgl. Bonifati & Lee, 2001) legen jedoch zumeist den Schwerpunkt auf die Analyse einer einzelnen Annotationsebene. In Sprachen wie XQuery 1.0 oder XPath 1.0 werden Anfragen in XMLSyntax formuliert. Das Datenmodell ist eine Baumstruktur, Inklusionsrelationen zwischen Elementen, die durch die hierarchische Struktur der Daten gegeben sind, können einfach erfragt werden. Die Query-Sprachen erlauben zwar die Verknüpfung von verteilten Annotationen, überlappende Elemente lassen sich jedoch nicht darstellen, da für deren Modellierung eine parallele Sicht auf die Primärdaten notwendig ist. Um eine parallele Sicht zu ermöglichen, wird das Datenmodell um zusätzliche Informationen erweitert, die eine Verknüpfung der verschiedenen Annotationsebenen erlauben. Für die Realisierung dieses Ansatzes wird der Inferenzmechanismus der Programmiersprache Prolog verwendet.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"126800111","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.24
Chris Biemann
{"title":"Extraktion von semantischen Relationen aus natürlichsprachlichem Text mit Hilfe von maschinellem Lernen","authors":"Chris Biemann","doi":"10.21248/jlcl.18.2003.24","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.24","url":null,"abstract":"Zusammenfassung: Inhalt der vorliegenden Arbeit ist die Entwicklung eines Lernverfahrens, das aus großen Textkorpora semantische Relationen automatisch extrahiert. Den Kern des Verfahrens bildet die Iteration von Suchschritt und Verifikationsschritt, in denen in gesuchter Relation stehende Wörter gefunden und überprüft werden. Auf diese Weise ist es möglich, mit wenigen bekannten Wörtern eine große Anzahl in derselben Relation stehende Wörter zu gewinnen. So können mit wenig Aufwand große Listen von Wörtern erstellt werden, die in einem semantischen Zusammenhang stehen. Nach der Skizzierung des Algorithmus werden theoretische Vorhersagen bezüglich der für das Verfahren geeigneten Relationen getroffen, sowie der Ablauf modelliert. Einige mit einer Implementierung des Verfahrens erzielte Ergebnisse werden für die Relation der Personennamen vorgestellt, evaluiert und diskutiert, des Weiteren werden Ausblicke und Verbesserungsmöglichkeiten angegeben.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"123845267","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.32
N. Weber
{"title":"MÜ-Lexikografie","authors":"N. Weber","doi":"10.21248/jlcl.18.2003.32","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.32","url":null,"abstract":"Das Lexikon 1 oder Wörterbuch ist eine zentrale und dynamische Komponente in Systemen zur Maschinellen Übersetzung (MÜ). Es ist in der Regel die einzige Komponente, die den Benutzern solcher Systeme in irgendeiner Form dargestellt wird und in der – mit Einschränkungen – Änderungen vorgenommen werden können. Die Lexikonkomponente stellt somit, neben der Text-Einund Ausgabe, eine Schnittstelle zwischen System und Benutzern dar. Der Zweck dieser Schnittstelle ist, die Benutzer Einfluss auf den Übersetzungsprozess nehmen zu lassen. Die systematischwissenschaftliche Beschäftigung mit MÜ-Lexika nenne ich MÜ-Lexikografie (MT lexicography). Sie ist eine Subdisziplin der maschinellen oder Computer-Lexikografie (computational lexicography). Die Informationseinheit in MÜ-Lexika – etwa vergleichbar dem Wörterbuchartikel – bezeichne ich im Folgenden als lexikalische Äquivalent-Angabe (LÄA). Außer der Äquivalentsetzung zwischen lexikalischen Einheiten einer Ausgangssprache (AS) und einer Zielsprache (ZS) können darin einzelsprachbezogene grammatische und semantische Angaben kodiert sein. Diese stellen zusätzliche Selektionskriterien für die Äquivalentsetzung im Übersetzungsprozess dar. Benutzer können LÄAn hinzufügen oder bestehende LÄAn modifizieren, gegebenenfalls auch löschen. Ein typischer Anlass zum Hinzufügen einer LÄA wäre, dass ein MÜ-System nach Benutzerbeobachtung eine AS-Zeichenkette nicht oder nicht korrekt identifiziert. Natürlich können die lexikalischen Ressourcen eines Systems auch durch Mengen von LÄAn, etwa Fachoder Firmenterminologie, erweitert werden. Ein Anlass zur Modifikation einer LÄA wäre etwa, dass ein MÜ-System nach Benutzereinschätzung eine nicht zufriedenstellende Übersetzung eines Satzes produziert. Die Hinzufügung oder Modifikation einer LÄA in einem MÜ-Lexikon bezeichne ich auch informell als Lexikon-Eintrag (LE). Ein","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"122113632","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
LDV ForumPub Date : 2003-07-01DOI: 10.21248/jlcl.18.2003.31
S. Langer
{"title":"Kohyponymie in elektronischen Wörterbüchern","authors":"S. Langer","doi":"10.21248/jlcl.18.2003.31","DOIUrl":"https://doi.org/10.21248/jlcl.18.2003.31","url":null,"abstract":"Zusammenfassung: Die Kodierung der Hyponymierelation in elektronischen Wörterbüchern und Wortdatenbanken zeigt zahlreiche Inkonsistenzen, für die hier Lösungen vorgeschlagen werden sollen. Ich beginne mit einer Analyse der Probleme bei der Kodierung der Hyponymierelation für Nomina in existierenden Wörterbüchern, namentlich die fehlende Trennung verschiedener Ebenen der Spezifität und die Vermischung unterschiedlicher Unterordnungskriterien. Beides lässt sich in der Analyse lexikografischer Praxis vor allem an der Heterogenität von kodierten Kohyponymen festmachen. Im Anschluss an die Problemanalyse werden Strategien zur korrekteren lexikografischen Erfassung der Hyponymierelation aufgezeigt. Zentrale Idee dabei ist eine lokale Etikettierung der Hyponymierelation. Ein wichtiges Kriterium für die Erarbeitung der Vorschläge war die einfache lexikografische Umsetzbarkeit.","PeriodicalId":346957,"journal":{"name":"LDV Forum","volume":null,"pages":null},"PeriodicalIF":0.0,"publicationDate":"2003-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"127153567","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}