DE eng

Search in the Catalogues and Directories

Hits 1 – 19 of 19

1
Universal Dependencies 2.9
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2021
BASE
Show details
2
Universal Dependencies 2.8.1
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2021
BASE
Show details
3
Universal Dependencies 2.8
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2021
BASE
Show details
4
Semi-Supervised Learning on Meta Structure: Multi-Task Tagging and Parsing in Low-Resource Scenarios
In: Conference of the Association for the Advancement of Artificial Intelligence ; https://hal.archives-ouvertes.fr/hal-02895835 ; Conference of the Association for the Advancement of Artificial Intelligence, Association for the Advancement of Artificial Intelligence, Feb 2020, New York, United States ; https://aaai.org/Conferences/AAAI-20/ (2020)
BASE
Show details
5
Bootstrap methods for multi-task dependency parsing in low-resource conditions ; Méthodes d’amorçage pour l’analyse en dépendances de langues peu dotées
Lim, Kyungtae. - : HAL CCSD, 2020
In: https://tel.archives-ouvertes.fr/tel-03477961 ; Linguistics. Université Paris sciences et lettres, 2020. English. ⟨NNT : 2020UPSLE027⟩ (2020)
Abstract: Dependency parsing is an essential component of several NLP applications owing its ability to capture complex relational information in a sentence. Due to the wider availability of dependency treebanks, most dependency parsing systems are built using supervised learning techniques. These systems require a significant amount of annotated data and are thus targeted toward specific languages for which this type of data are available. Unfortunately, producing sufficient annotated data for low-resource languages is time- and resource-consuming. To address the aforementioned issue, the present study investigates three bootstrapping methods, namely, (1) multi-lingual transfer learning, (2) deep contextualized embedding, and (3) Co-training. Multi-lingual transfer learning is a typical supervised learning approach that can transfer dependency knowledge using multi-lingual training data based on multi-lingual lexical representations. Deep contextualized embedding maximizes the use of lexical features during supervised learning based on enhanced sub-word representations and language model (LM). Lastly, co-training is a semi-supervised learning method that leverages parsing accuracies using unlabeled data. Our approaches have the advantage of requiring only a small bilingual dictionary or easily obtainable unlabeled resources (e.g., Wikipedia) to improve parsing accuracy in low-resource conditions. We evaluated our parser on 57 official CoNLL shared task languages as well as on Komi, which is a language we developed as a training and evaluation corpora for low-resource scenarios. The evaluation results demonstrated outstanding performances of our approaches in both low- and high-resource dependency parsing in the 2017 and 2018 CoNLL shared tasks. A survey of both model transfer learning and semi-supervised methods for low-resource dependency parsing was conducted, where the effect of each method under different conditions was extensively investigated. ; L'analyse en dépendances est une composante essentielle de nombreuses applications de TAL (Traitement Automatique des Langues), dans la mesure où il s'agit de fournir une analyse des relations entre les principaux éléments de la phrase. La plupart des systèmes d'analyse en dépendances sont issus de techniques d'apprentissage supervisées, à partir de grands corpus annotés. Ce type d'analyse est dès lors limité à quelques langues seulement, qui disposent des ressources adéquates. Pour les langues peu dotées, la production de données annotées est une tâche impossible le plus souvent, faute de moyens et d'annotateurs disponibles. Afin de résoudre ce problème, la thèse examine trois méthodes d’amorçage, à savoir (1) l’apprentissage par transfert multilingue, (2) les plongements vectoriels contextualisés profonds et (3) le co-entrainement. La première idée, l'apprentissage par transfert multilingue, permet de transférer des connaissances d'une langue pour laquelle on dispose de nombreuses ressources, et donc de traitements efficaces, vers une langue peu dotée. Les plongements vectoriels contextualisés profonds, quant à eux, permettent une représentation optimale du sens des mots en contexte, grâce à la notion de modèle de langage. Enfin, le co-entrainement est une méthode d'apprentissage semi-supervisée, qui permet d'améliorer les performances des systèmes en utilisant les grandes quantités de données non annotées souvent disponibles pour les différentes langues visées. Nos approches ne nécessitent qu'un petit dictionnaire bilingue ou des ressources non étiquetées faciles à obtenir (à partir de Wikipedia par exemple) pour améliorer la précision de l'analyse pour des langues où les ressources disponibles sont insuffisantes. Nous avons évalué notre analyseur syntaxique sur 57 langues à travers la participation aux campagnes d'évaluation proposées dans le cadre de la conférence CoNLL. Nous avons également mené des expériences sur d'autres langues, comme le komi, une langue finno-ougrienne parlée en Russie : le komi offre un scénario réaliste pour tester les idées mises en avant dans la thèse. Notre système a obtenu des résultats très compétitifs lors de campagnes d'évaluation officielles, notamment lors des campagnes CoNLL 2017 et 2018. Cette thèse offre donc des perspectives intéressantes pour le traitement automatique des langues peu dotées, un enjeu majeur pour le TAL dans les années à venir.
Keyword: [SHS.LANGUE]Humanities and Social Sciences/Linguistics; Analyse en dépendances; Dependency Parsing; Multilingual word representation; Représentations lexicales multilingues; Transfer learning; Transfert de connaissances
URL: https://tel.archives-ouvertes.fr/tel-03477961/file/Lim_2020_These.pdf
https://tel.archives-ouvertes.fr/tel-03477961
https://tel.archives-ouvertes.fr/tel-03477961/document
BASE
Hide details
6
Universal Dependencies 2.7
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2020
BASE
Show details
7
Universal Dependencies 2.6
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2020
BASE
Show details
8
Universal Dependencies 2.5
Zeman, Daniel; Nivre, Joakim; Abrams, Mitchell. - : Universal Dependencies Consortium, 2019
BASE
Show details
9
Universal Dependencies 2.4
Nivre, Joakim; Abrams, Mitchell; Agić, Željko. - : Universal Dependencies Consortium, 2019
BASE
Show details
10
SEx BiST: A Multi-Source Trainable Parser with Deep Contextualized Lexical Representations
In: Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies ; https://hal.archives-ouvertes.fr/hal-02977455 ; Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, Oct 2018, Bruxelles, Belgium. pp.143-152, ⟨10.18653/v1/K18-2014⟩ ; https://www.conll.org/2018/ (2018)
BASE
Show details
11
Multilingual Dependency Parsing for Low-Resource Languages: Case Studies on North Saami and Komi-Zyrian
In: LREC 2018 Proceedings ; Language Resource and Evaluation Conference ; https://hal.archives-ouvertes.fr/hal-01856178 ; Language Resource and Evaluation Conference, ELRA, May 2018, Miyazaki, Japan ; http://www.lrec-conf.org/proceedings/lrec2018/pdf/600.pdf (2018)
BASE
Show details
12
Dependency Parsing of Code-Switching Data with Cross-Lingual Feature Representations
In: International Workshop on Computational Linguistics for Uralic Languages ; https://hal.archives-ouvertes.fr/hal-01722243 ; International Workshop on Computational Linguistics for Uralic Languages, Jan 2018, Helsinki, Finland. pp.1 - 17 ; aclweb.org/anthology/W18-0200 (2018)
BASE
Show details
13
Universal Dependencies 2.2
In: https://hal.archives-ouvertes.fr/hal-01930733 ; 2018 (2018)
BASE
Show details
14
Universal Dependencies 2.3
Nivre, Joakim; Abrams, Mitchell; Agić, Željko. - : Universal Dependencies Consortium, 2018
BASE
Show details
15
Universal Dependencies 2.2
Nivre, Joakim; Abrams, Mitchell; Agić, Željko. - : Universal Dependencies Consortium, 2018
BASE
Show details
16
CoNLL 2018 Shared Task System Outputs
Zeman, Daniel; Potthast, Martin; Duthoo, Elie. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2018
BASE
Show details
17
Dependency Parsing of Code-Switching Data with Cross-Lingual Feature Representations
In: International Workshop on Computational Linguistics for Uralic languages. - Helsinki, ISBN: (2018)
BASE
Show details
18
A System for Multilingual Dependency Parsing based on Bidirectional LSTM Feature Representations
In: Computational Natural Language Learning (CoNLL) ; https://hal.archives-ouvertes.fr/hal-01722370 ; Computational Natural Language Learning (CoNLL), ACL, Aug 2017, Vancouver, Canada. pp.63 - 70 ; https://aclanthology.coli.uni-saarland.de/papers/K17-3006/k17-3006 (2017)
BASE
Show details
19
CoNLL 2017 Shared Task System Outputs
Zeman, Daniel; Potthast, Martin; Straka, Milan. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2017
BASE
Show details

Catalogues
0
0
0
0
0
0
0
Bibliographies
0
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
19
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern