DE eng

Search in the Catalogues and Directories

Page: 1 2
Hits 1 – 20 of 29

1
The translation equivalence delusion : meaning and translation
Krzeszowski, Tomasz P.. - Frankfurt am Main : Peter Lang Edition, 2016
BLLDB
UB Frankfurt Linguistik
Show details
2
Neologismen in der Science Fiction : eine Untersuchung ihrer Übersetzung vom Englischen ins Deutsche
Schüler, Anja. - Wien : Peter Lang Edition, 2016
BLLDB
UB Frankfurt Linguistik
Show details
3
A Bilingual KRC Concordancer for Assisted Translation Revision based on Specialized Comparable Corpora
In: 12th international conference on Terminology and Knowledge Engineering (TKE) ; https://hal.archives-ouvertes.fr/hal-01576679 ; 12th international conference on Terminology and Knowledge Engineering (TKE), Jun 2016, Copenhagen, Denmark (2016)
BASE
Show details
4
Reordering Space Design in Statistical Machine Translation
In: ISSN: 1574-020X ; EISSN: 1574-0218 ; Language Resources and Evaluation ; https://hal.archives-ouvertes.fr/hal-01620902 ; Language Resources and Evaluation, Springer Verlag, 2016, 50, pp.375-410. ⟨10.1007/s10579-016-9353-8⟩ (2016)
BASE
Show details
5
Language Model Data Augmentation for Keyword Spotting
In: Annual Conference of the International Speech Communication Association ; https://hal.archives-ouvertes.fr/hal-01837186 ; Annual Conference of the International Speech Communication Association , Jan 2016, San Francisco, United States (2016)
BASE
Show details
6
LIMSI@WMT16: Machine Translation of News
In: First Conference on Machine Translation ; https://hal.archives-ouvertes.fr/hal-01388659 ; First Conference on Machine Translation, Aug 2016, Berlin, Germany. pp.239--245, ⟨10.18653/v1/W16-2304⟩ ; https://statmt.org/wmt16 (2016)
BASE
Show details
7
A new language model based on possibility theory
In: Springer LNCS series, Lecture Notes in Computer Science. ; https://hal.inria.fr/hal-01336535 ; Springer LNCS series, Lecture Notes in Computer Science., 2016 (2016)
BASE
Show details
8
Cross-lingual Pronoun Prediction with Linguistically Informed Features
In: Proceedings of the First Conference on Machine Translation ; First Conference on Machine Translation (WMT '16) ; https://hal.archives-ouvertes.fr/hal-01353862 ; First Conference on Machine Translation (WMT '16), Aug 2016, Berlin, Germany. pp.564--570, ⟨10.18653/v1/W16-2348⟩ (2016)
BASE
Show details
9
Origines des erreurs en Traduction Spécialisée : différentiation textométrique grâce aux corpus de textes cibles annotés
In: Actes de la conférence conjointe JEP-TALN-RECITAL 2016, ; JEP-TALN-RECITAL 2016 ; https://hal-univ-paris.archives-ouvertes.fr/hal-01371351 ; JEP-TALN-RECITAL 2016, Jovan Kostov, Ivan Šmilauer, Jul 2016, Paris, France ; https://jep-taln2016.limsi.fr/actes/index.php?lang=fr (2016)
BASE
Show details
10
Word2Vec vs DBnary: Augmenting METEOR using Vector Representations or Lexical Resources?
In: 26th International Conference on Computational Linguistics (COLING 2016) ; COLING 2016 ; https://hal.archives-ouvertes.fr/hal-01376948 ; COLING 2016, ANLP & ICCL, Dec 2016, Osaka, Japan (2016)
BASE
Show details
11
Aliens & Translators: Translation as common language in science fiction and fantasy
In: XXI. Congress of the ICLA (International Comparative Literature Association) ; https://hal-univ-paris3.archives-ouvertes.fr/hal-01426611 ; XXI. Congress of the ICLA (International Comparative Literature Association), University of Vienna, Jul 2016, Vienne, Austria ; https://icla2016.univie.ac.at/ (2016)
BASE
Show details
12
Discriminative Training Procedure for Continuous-Space Translation Models ; Apprentissage discriminant des modèles continus en traduction automatique
Do, Quoc khanh. - : HAL CCSD, 2016
In: https://tel.archives-ouvertes.fr/tel-01315755 ; Apprentissage [cs.LG]. Université Paris Saclay (COmUE), 2016. Français. ⟨NNT : 2016SACLS071⟩ (2016)
Abstract: Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives. ; Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses.
Keyword: [INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG]; [MATH.MATH-ST]Mathematics [math]/Statistics [math.ST]; [STAT.ML]Statistics [stat]/Machine Learning [stat.ML]; Apprentissage Discriminant; Continuous-Space Models; Discriminative Training; Estimation Contrastive Bruitée; Large-Margin Methods; Méthodes à Larges Marges; Modèles Continus de Traduction; Neural Network; Noise Contrastive Estimation; Réseau de neurones; Statistical Machine Translation; Traduction Automatique Statistique
URL: https://tel.archives-ouvertes.fr/tel-01315755/document
https://tel.archives-ouvertes.fr/tel-01315755/file/74514_DO_2016_diffusion.pdf
https://tel.archives-ouvertes.fr/tel-01315755
BASE
Hide details
13
Confidence Measures for Alignment and for Machine Translation ; Mesures de Confiance pour l’Alignement et pour la Traduction Automatique
Xu, Yong. - : HAL CCSD, 2016
In: https://tel.archives-ouvertes.fr/tel-01399222 ; Signal and Image Processing. Université Paris Saclay (COmUE), 2016. English. ⟨NNT : 2016SACLS270⟩ (2016)
BASE
Show details
14
Cinema-skopos: strategic layering and kaleidoscopic functionality in screenplay translation
In: Les sens dans la traduction du « texte » filmique / The Senses in Motion: Translating the «Cinematic» Text ; https://hal.univ-lille.fr/hal-01465648 ; Les sens dans la traduction du « texte » filmique / The Senses in Motion: Translating the «Cinematic» Text, PRISMES EA 4398 (TRACT); Bruno Poncharal; CECILLE EA 4074; Frédérique Brisset, Oct 2016, Paris, France ; http://cecille.recherche.univ-lille3.fr/IMG/pdf/programme_Les_sens_dans_la_traduction_du_texte_filmique_1_.pdf (2016)
BASE
Show details
15
Investigating gender adaptation for speech translation ; Étude de l’adaptation au genre du locuteur pour la traduction de la parole
In: Actes de la conférence Traitement Automatique des Langues Naturelles ; 23ème Conférence sur le Traitement Automatique des Langues Naturelles ; https://hal.archives-ouvertes.fr/hal-01353860 ; 23ème Conférence sur le Traitement Automatique des Langues Naturelles, Jul 2016, Paris, France. pp.490-497 (2016)
BASE
Show details
16
Cross-lingual Dependency Transfer : What Matters? Assessing the Impact of Pre- and Post-processing
In: Workshop on Multilingual and Cross-lingual Methods in NLP ; https://hal.archives-ouvertes.fr/hal-01961510 ; Workshop on Multilingual and Cross-lingual Methods in NLP, Jun 2016, San Diego, United States. pp.20 - 29, ⟨10.18653/v1/W16-1203⟩ (2016)
BASE
Show details
17
From cognition to sociocognition in translator mailing lists ; « De la cognition à la socio-cognition à la lumière des listes de diffusion de traducteurs »
In: ISSN: 1598-7647 ; FORUM. Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation ; https://hal.archives-ouvertes.fr/hal-01638134 ; FORUM. Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation , John Benjamins, 2016, 14 (1), pp.100-122. ⟨10.1075/forum.14.1.06pla⟩ ; https://benjamins.com/#catalog/journals/forum.14.1.06pla/details (2016)
BASE
Show details
18
Phrase-Based Language Model in Statistical Machine Translation
In: ISSN: 0976-0962 ; International Journal of Computational Linguistics and Applications ; https://hal.inria.fr/hal-01336485 ; International Journal of Computational Linguistics and Applications, Alexander Gelbukh, 2016 (2016)
BASE
Show details
19
A rule triggering system for automatic text-to-sign translation
In: ISSN: 1615-5289 ; EISSN: 1615-5297 ; Universal Access in the Information Society ; https://hal.archives-ouvertes.fr/hal-01849003 ; Universal Access in the Information Society, Springer Verlag, 2016, 15, pp.487-498 (2016)
BASE
Show details
20
Preliminary Experiments on Unsupervised Word Discovery in Mboshi
In: Interspeech 2016 proceedings ; Interspeech 2016 ; https://hal.archives-ouvertes.fr/hal-01350119 ; Interspeech 2016, Sep 2016, San-Francisco, United States (2016)
BASE
Show details

Page: 1 2

Catalogues
2
0
0
0
0
0
0
Bibliographies
2
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
27
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern