You are here: University of Vienna PHAIDRA Detail o:1389828
Title (eng)
Automated creation of domain-specific bilingual corpora for machine translation, focusing on dissimilar language pairs
Parallel title (deu)
Automatische Erstellung von domänspezifischen bilingualen Korpora für maschinelle Übersetzung, insbesondere für stark unterschiedliche Sprachen
Author
Bartholomäus Wloka
Adviser
Gerhard Budin
Assessor
Werner Winiwarter
Assessor
Yves Lepage
Abstract (deu)
Die Wichtigkeit satz-alignierter bilingualer Korpora, auch paralle Korpora genannt, als Trainingsdaten für maschinelle Übersetzungsysteme und für eine Vielzahl anderer Sprachtechnologieanwendungen ist in den letzten Jahren im- mer deutlicher geworden. Sogar noch mehr gefragt sind Korpora, die eine bes- timmte Domäne abdecken und somit noch zielgerichteter für das Training von Deep Learning, statistischen oder beispielbasierten Systemen sind. Das Ziel dieser Doktorarbeit ist es, die Realisierbarkeit der automatisierten Erstel- lung von parallelen Daten aus Wikipedia zu untersuchen. Insbesondere wer- den Sprachpaare untersucht, die in Hinblick auf Oberflächenstruktur und andere Aspekte sehr unterschiedlich sind. Genauer gesagt, wie kann domä- nenspezifischer Text aus Wikipedia effizient gesammelt werden, wie können diese Daten auf Satzebene aligniert werden und wie können diese Satzpaare evaluiert werden, um die bestmöglichen Übersetzungskandidaten zu bekom- men. Die Forschungsfragen sind: Wie viel des Wikipedia-Inhaltes kann verwen- det werden, um bilinguale Korpora für ein bestimmtes Sprachpaar zu bauen und wie können diese Texte effizient aligniert werden; all das mit minimalem menschlichem Input. Für die Beantwortung dieser Frage wurden zwei Sprachen gewählt, die repräsentativ für die Fragestellung sind, nämlich Englisch und Japanisch. Der Ablauf, die Algorithmen, die Softwaremodule und das daraus resultierende Korpus sind als Proof of Concept zu verstehen und können an andere Domä- nen und Sprachpaare angepasst werden. Diese Arbeit schlägt eine Methode für themenspezifisches Datensammeln aus Wikipedia, eine Alignierungsmethode und eine Qualitätsmetrik vor. Die Algorithmen der in dem Zusammenhang entstandenen Software sind sowohl generisch beschrieben, wie auch in Python implementiert. Das Ergebnis einer Iteration der Software, 66,000 Satzpaare, ist der erste experimentelle Daten- satz. Dieser Datensatz wird von Experten evaluiert, um die Ergiebigkeit, Um- setzbarkeit und Effizienz dieser Methode zu untersuchen.
Abstract (eng)
The significance of sentence-aligned bilingual corpora, so-called parallel corpora, as training sets for machine translation systems and for various other language technology applications has become more and more evident in re- cent years. Even more desirable are collections which address a certain domain and hence offer more precise data for training of deep learning, statistical, or example-based approaches. The goal of this doctoral dissertation is to exam- ine the feasibility of automated bilingual corpus creation from Wikipedia, specifically for languages which differ significantly in surface characteristics and other aspects. More precisely, how can Wikipedia be crawled to obtain domain-specific corpora in an efficient way, how can these corpora be sentence- aligned, and how can these alignments be evaluated to obtain the highest pos- sible probability of a translated or equivalent sentence. The research questions addressed in this work are: How much of the text on Wikipedia content can be used to build a bilingual aligned corpus for a spe- cific language pair, and how can these texts be selected and aligned efficiently, all with minimal human input in the process. The question is addressed by selecting two languages, which are represen- tative of a dissimilar pair, English and Japanese. The resulting procedure, al- gorithms, software modules, and created corpus are a proof of concept, which can be adjusted in order to be applied to other dissimilar language pairs. This dissertation proposes a method for crawling from Wikipedia by topic, aligning this data into a parallel corpus and a novel metric that measures the relative quality of this alignment. The resulting program tool chain is pre- sented as a generic algorithm and is implemented in the Python programming language. The result of a first iteration of the software resulted in an English- Japanese parallel corpus of 66,000 sentence pairs. Human expert evaluations are presented to show the yield, feasibility, and efficiency of this method.
Keywords (eng)
parallel Corporamachine translationnatural language processingweb-crawlingsoftware-application
Keywords (deu)
Parallele Korporamaschinelle ÜbersetzungNatural Language ProcessingWeb-cralingSoftware-Applikation
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:1389828
rdau:P60550 (deu)
xi, 186 Seiten
Number of pages
197
Members (1)
Title (eng)
Automated creation of domain-specific bilingual corpora for machine translation, focusing on dissimilar language pairs
Parallel title (deu)
Automatische Erstellung von domänspezifischen bilingualen Korpora für maschinelle Übersetzung, insbesondere für stark unterschiedliche Sprachen
Author
Bartholomäus Wloka
Abstract (deu)
Die Wichtigkeit satz-alignierter bilingualer Korpora, auch paralle Korpora genannt, als Trainingsdaten für maschinelle Übersetzungsysteme und für eine Vielzahl anderer Sprachtechnologieanwendungen ist in den letzten Jahren im- mer deutlicher geworden. Sogar noch mehr gefragt sind Korpora, die eine bes- timmte Domäne abdecken und somit noch zielgerichteter für das Training von Deep Learning, statistischen oder beispielbasierten Systemen sind. Das Ziel dieser Doktorarbeit ist es, die Realisierbarkeit der automatisierten Erstel- lung von parallelen Daten aus Wikipedia zu untersuchen. Insbesondere wer- den Sprachpaare untersucht, die in Hinblick auf Oberflächenstruktur und andere Aspekte sehr unterschiedlich sind. Genauer gesagt, wie kann domä- nenspezifischer Text aus Wikipedia effizient gesammelt werden, wie können diese Daten auf Satzebene aligniert werden und wie können diese Satzpaare evaluiert werden, um die bestmöglichen Übersetzungskandidaten zu bekom- men. Die Forschungsfragen sind: Wie viel des Wikipedia-Inhaltes kann verwen- det werden, um bilinguale Korpora für ein bestimmtes Sprachpaar zu bauen und wie können diese Texte effizient aligniert werden; all das mit minimalem menschlichem Input. Für die Beantwortung dieser Frage wurden zwei Sprachen gewählt, die repräsentativ für die Fragestellung sind, nämlich Englisch und Japanisch. Der Ablauf, die Algorithmen, die Softwaremodule und das daraus resultierende Korpus sind als Proof of Concept zu verstehen und können an andere Domä- nen und Sprachpaare angepasst werden. Diese Arbeit schlägt eine Methode für themenspezifisches Datensammeln aus Wikipedia, eine Alignierungsmethode und eine Qualitätsmetrik vor. Die Algorithmen der in dem Zusammenhang entstandenen Software sind sowohl generisch beschrieben, wie auch in Python implementiert. Das Ergebnis einer Iteration der Software, 66,000 Satzpaare, ist der erste experimentelle Daten- satz. Dieser Datensatz wird von Experten evaluiert, um die Ergiebigkeit, Um- setzbarkeit und Effizienz dieser Methode zu untersuchen.
Abstract (eng)
The significance of sentence-aligned bilingual corpora, so-called parallel corpora, as training sets for machine translation systems and for various other language technology applications has become more and more evident in re- cent years. Even more desirable are collections which address a certain domain and hence offer more precise data for training of deep learning, statistical, or example-based approaches. The goal of this doctoral dissertation is to exam- ine the feasibility of automated bilingual corpus creation from Wikipedia, specifically for languages which differ significantly in surface characteristics and other aspects. More precisely, how can Wikipedia be crawled to obtain domain-specific corpora in an efficient way, how can these corpora be sentence- aligned, and how can these alignments be evaluated to obtain the highest pos- sible probability of a translated or equivalent sentence. The research questions addressed in this work are: How much of the text on Wikipedia content can be used to build a bilingual aligned corpus for a spe- cific language pair, and how can these texts be selected and aligned efficiently, all with minimal human input in the process. The question is addressed by selecting two languages, which are represen- tative of a dissimilar pair, English and Japanese. The resulting procedure, al- gorithms, software modules, and created corpus are a proof of concept, which can be adjusted in order to be applied to other dissimilar language pairs. This dissertation proposes a method for crawling from Wikipedia by topic, aligning this data into a parallel corpus and a novel metric that measures the relative quality of this alignment. The resulting program tool chain is pre- sented as a generic algorithm and is implemented in the Python programming language. The result of a first iteration of the software resulted in an English- Japanese parallel corpus of 66,000 sentence pairs. Human expert evaluations are presented to show the yield, feasibility, and efficiency of this method.
Keywords (eng)
parallel Corporamachine translationnatural language processingweb-crawlingsoftware-application
Keywords (deu)
Parallele Korporamaschinelle ÜbersetzungNatural Language ProcessingWeb-cralingSoftware-Applikation
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:1389829
Number of pages
197