DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5 6...39
Hits 21 – 40 of 765

21
Gender Bias in Neural Translation: a preliminary study ; Biais de genre dans un système de traduction automatique neuronale : une étude préliminaire
In: Actes de la 28e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale ; Traitement Automatique des Langues Naturelles ; https://hal.archives-ouvertes.fr/hal-03265895 ; Traitement Automatique des Langues Naturelles, 2021, Lille, France. pp.11-25 ; https://talnrecital2021.inria.fr/ (2021)
BASE
Show details
22
CENTRAL KURDISH MACHINE TRANSLATION: FIRST LARGE SCALE PARALLEL CORPUS AND EXPERIMENTS
In: https://hal.archives-ouvertes.fr/hal-03263105 ; 2021 (2021)
BASE
Show details
23
Multilingual neural architectures for natural language processing ; Architectures neuronales multilingues pour le traitement automatique des langues naturelles
Bardet, Adrien. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03199494 ; Informatique et langage [cs.CL]. Université du Maine, 2021. Français. ⟨NNT : 2021LEMA1002⟩ (2021)
BASE
Show details
24
Multi-domain Neural Machine Translation ; Traduction automatique neuronale multidomaine
Pham, Minh-Quang. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03546910 ; Artificial Intelligence [cs.AI]. Université Paris-Saclay, 2021. English. ⟨NNT : 2021UPASG109⟩ (2021)
Abstract: Today, neural machine translation (NMT) systems constitute state-of-the-art systems in machine translation. However, such translation models require relatively large train data and struggle to handle a specific domain text. A domain may consist of texts from a particular topic or texts written for a particular purpose. While NMT systems can be adapted for better translation quality in a target domain given a representative train corpus, this technique has adverse side-effects, including brittleness against out-of-domain examples and "catastrophic forgetting" of previous domains represented in the train data. Moreover, one translation system must cope with many possible domains in real applications, making the "one domain one model" impractical. A promising solution is to build multi-domain NMT systems trained from many domains and adapted to multiple target domains. The rationale behind this is twofold. First, large train corpora improve the generalization of the NMT system. Secondly, texts from one domain can be valuable for adapting an NMT model to a similar domain. The scarcity of data and the hypothetical positive transfer effect are also two main reasons for building multilingual NMT systems. Maintaining multiple bilingual MT systems requires lots of hardware resources as the number of language pairs grows quadratically with the increasing number of languages. Both multi-domain and multilingual NMT systems are essential for saving resources for the MT industry and improving the quality of the MT service. This thesis first unifies domain adaptation and multi-domain adaptation in one mathematical framework. In addition, we review the literature of (multi-)domain adaptation through a structural approach by pointing out four principal cases and matching previous methods to each application case. Secondly, we propose a novel multi-criteria evaluation of multi-domain approaches. We point out the requirements for a multi-domain system and perform an exhaustive comparison of a large set of methods. We also propose new methods for multi-domain adaptation, including sparse word embeddings, sparse layers, and gated residual adapters, which are cheap and able to handle many domains. To balance the heterogeneity in the train data, we explore and study techniques relating to dynamic data sampling, which iteratively adapt the train distribution to a pre-determined testing distribution. Finally, we are interested in context augmented translation approaches, which reuse similar translation memories to improve the prediction of a sentence. We carefully analyze and compare several methods in this line and demonstrate that they are suitable for adapting our NMT system to an unknown domain at the expense of additional computational costs. ; Aujourd'hui, les systèmes de traduction automatique neuronale (NMT) constituent des systèmes de pointe en traduction automatique (TA). Cependant, ces modèles de traduction nécessitent des données d'entraînement relativement volumineuses et ont de la difficulté à traduire des textes de domaine spécifique. Un domaine peut être constitué de textes d'un sujet particulier ou de textes écrits dans un but particulier. Bien que les systèmes NMT puissent être adaptés pour une meilleure qualité de traduction dans un domaine cible étant donné un corpus de train représentatif, cette technique a des effets secondaires négatifs, notamment une fragilité contre des exemples hors domaine et un « oubli catastrophique » des domaines précédents représentés dans les données d'entraînement. De plus, un système de traduction doit faire face à de nombreux domaines possibles dans des applications réelles, ce qui rend impraticable le « un domaine un modèle ». Une solution prometteuse consiste à construire des systèmes NMT multi-domaines formés à partir des données de nombreux domaines et adaptés à plusieurs domaines cibles. Il y a deux motivations. Premièrement, les grands corpus de trains améliorent la généralisation du système NMT. Deuxièmement, les textes d'un domaine peuvent être utiles pour adapter un modèle NMT à un domaine similaire. La pénurie des données et l'effet de transfert positif hypothétique sont également deux raisons principales pour le développement des systèmes NMT multilingues. Maintenir plusieurs systèmes de traduction automatique bilingues nécessite de nombreuses ressources matérielles, car le nombre de paires de langues augmente de façon quadratique avec l'augmentation du nombre de langues. Les systèmes NMT multi-domaines et multilingues sont essentiels pour économiser des ressources pour l'industrie TA et améliorer la qualité du service TA. Cette thèse unifie d'abord l'adaptation de domaine et l'adaptation multi-domaine dans un cadre mathématique. De plus, nous passons en revue la littérature sur l'adaptation aux (multi-)domaines à travers une approche structurelle en montrant quatre cas principaux et en associant les méthodes proposées à chaque cas d'application. Deuxièmement, nous proposons une nouvelle évaluation multicritères des approches multi-domaines. Nous soulignons les exigences d'un système multi-domaines et réalisions une comparaison exhaustive d'un large ensemble de méthodes. Nous proposons également de nouvelles méthodes pour l'adaptation aux multi-domaines, y compris les plongements de mot parcimonieux, les couches parcimonieux et les adaptateurs résiduels, qui sont relativement légers et capables d'adapter un NMT modèle aux nombreux domaines. Pour équilibrer l'hétérogénéité des données d'entraînement, nous explorons et étudions les techniques à l'échantillonnage dynamique des données, qui adaptent de manière itérative la distribution de l'entraînement à une distribution de test prédéterminée. Enfin, nous nous intéressons aux approches de traduction avec des contextes augmentés, qui réutilisent des mémoires de traduction similaires pour améliorer la prédiction d'une phrase. Nous analysons et comparons plusieurs méthodes de cette ligne et démontrons qu'elles conviennent pour adapter notre système NMT à un domaine inconnu au détriment de coûts de calcul supplémentaires.
Keyword: [INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI]; [INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; [INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG]; Adaptation au domaine; Apprentissage multi-tâche (MTL); Domain adaptation; Multi-task learning (MTL); Neural machine translation (NMT); Traduction neuronale (NMT)
URL: https://tel.archives-ouvertes.fr/tel-03546910/file/105007_PHAM_2021_archivage.pdf
https://tel.archives-ouvertes.fr/tel-03546910/document
https://tel.archives-ouvertes.fr/tel-03546910
BASE
Hide details
25
TraduXio Project: Latest Upgrades and Feedback
In: EISSN: 2416-5999 ; Journal of Data Mining and Digital Humanities ; https://hal.archives-ouvertes.fr/hal-02920044 ; Journal of Data Mining and Digital Humanities, Episciences.org, 2021, Atelier Digit_Hum, ⟨10.46298/jdmdh.6733⟩ (2021)
BASE
Show details
26
MultiTraiNMT: training materials to approach neural machine translation from scratch ; MultiTraiNMT: des outils pour se former à la traduction automatique neuronale
In: TRITON 2021 (Translation and Interpreting Technology Online) ; https://hal.archives-ouvertes.fr/hal-03272570 ; TRITON 2021 (Translation and Interpreting Technology Online), Jul 2021, Online, United Kingdom (2021)
BASE
Show details
27
The Cognitive Turn in Metaphor Translation Studies: A Critical Overview
In: ISSN: 1027-7978 ; Journal of Translation Studies ; https://hal.archives-ouvertes.fr/hal-03342406 ; Journal of Translation Studies, Chinese University Press, 2021, 5 (2), pp.83-115 (2021)
BASE
Show details
28
Can You Traducir This? Machine Translation for Code-Switched Input
In: Workshop on Computational Approaches to Linguistic Code Switching ; https://hal.archives-ouvertes.fr/hal-03218889 ; Workshop on Computational Approaches to Linguistic Code Switching, Association for Computational Linguistics, Jun 2021, Online, United States (2021)
BASE
Show details
29
Improving Machine Translation of Arabic Dialects through Multi-Task Learning
In: 20th International Conference Italian Association for Artificial Intelligence:AIxIA 2021 ; https://hal.archives-ouvertes.fr/hal-03435996 ; 20th International Conference Italian Association for Artificial Intelligence:AIxIA 2021, Dec 2021, MILAN/Virtual, Italy (2021)
BASE
Show details
30
Few-shot learning through contextual data augmentation
In: EACL 2021 - 16th Conference of the European Chapter of the Association for Computational Linguistics ; https://hal.inria.fr/hal-03121971 ; EACL 2021 - 16th Conference of the European Chapter of the Association for Computational Linguistics, Apr 2021, Kiev / Virtual, Ukraine (2021)
BASE
Show details
31
Deep learning and the Global Workspace Theory
In: ISSN: 0166-2236 ; EISSN: 1878-108X ; Trends in Neurosciences ; https://hal.archives-ouvertes.fr/hal-03311492 ; Trends in Neurosciences, Elsevier, 2021, ⟨10.1016/j.tins.2021.04.005⟩ (2021)
BASE
Show details
32
LISN @ WMT 2021
In: Proceedings of the Sixth Conference on Machine Translation (WMT), ; 6th Conference on Statistical Machine Translation ; https://hal.archives-ouvertes.fr/hal-03430610 ; 6th Conference on Statistical Machine Translation, Association for Computational Linguistics, Nov 2021, Punta Cuna, Dominica ; http://statmt.org/wmt21/program.html (2021)
BASE
Show details
33
Kittajafr-v2baseline-2.0.1
In: https://hal.archives-ouvertes.fr/hal-03503325 ; 2021 (2021)
BASE
Show details
34
Commentaries as nexus of information ; Commentaries as nexus of information: How transmitted classical texts carried sets of knowledge along with hermeneutics
In: Dynamics of knowledge transmission and linguistic transformation in Chinese textual cultures ; https://hal.archives-ouvertes.fr/hal-03518968 ; Dynamics of knowledge transmission and linguistic transformation in Chinese textual cultures, Rainier Lanselle; Barbara Bisetto, Jun 2021, Verona, Italy (2021)
BASE
Show details
35
Revisiting Multi-Domain Machine Translation
In: EISSN: 2307-387X ; Transactions of the Association for Computational Linguistics ; https://hal.archives-ouvertes.fr/hal-03159744 ; Transactions of the Association for Computational Linguistics, The MIT Press, 2021, 9, pp.17-35. ⟨10.1162/tacl_a_00351⟩ (2021)
BASE
Show details
36
Revisiting Multi-Domain Machine Translation
In: EISSN: 2307-387X ; Transactions of the Association for Computational Linguistics ; https://hal.archives-ouvertes.fr/hal-03159743 ; Transactions of the Association for Computational Linguistics, The MIT Press, 2021, 9, pp.17-35 (2021)
BASE
Show details
37
DEVELOPMENT OF THE FIRST SIMULTANEOUS TRANSLATION METHODS IN WESTERN COUNTRIES ...
Muhammadieva Nargiza Ayubovna. - : Zenodo, 2021
BASE
Show details
38
DEVELOPMENT OF THE FIRST SIMULTANEOUS TRANSLATION METHODS IN WESTERN COUNTRIES ...
Muhammadieva Nargiza Ayubovna. - : Zenodo, 2021
BASE
Show details
39
paracorp ...
Rajeg, Gede Primahadi Wijaya. - : Open Science Framework, 2021
BASE
Show details
40
sa 14L, f.4r, f.4v, f.5r and f.5v ...
Katharina D. Schröder; Siegfried G. Richter. - : NAKALA - https://nakala.fr (Huma-Num - CNRS), 2021
BASE
Show details

Page: 1 2 3 4 5 6...39

Catalogues
35
1
20
0
1
0
0
Bibliographies
111
1
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
607
46
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern