DE eng

Search in the Catalogues and Directories

Page: 1 2
Hits 1 – 20 of 25

1
Kokokara hajimeru gengogaku purasu tokei bunseki
Koizumi, Masatoshi; Terui, Nobuhiko. - Tokyo : Kyoritsushuppan, 2016
Leibniz-Zentrum Allgemeine Sprachwissenschaft
Show details
2
ИСПОЛЬЗОВАНИЕ ТЕОРИИ МНОЖЕСТВ В СРАВНИТЕЛЬНО-ЛОГИЧЕСКИХ МЕТОДАХ ВЫДЕЛЕНИЯ ТЕКСТОВ НА ИСЛАМСКУЮ ТЕМАТИКУ В ПРОЦЕССЕ МОНИТОРИНГА СЕТЕВЫХ РЕСУРСОВ
ФАТКУЛИН БУЛАТ ГИЛИМДАРОВИЧ. - : Государственное образовательное учреждение высшего профессионального образования «Южно-Уральский государственный университет», 2016
BASE
Show details
3
ЭКСПЕРТНОЕ ОЦЕНИВАНИЕ ПЕРСПЕКТИВ РАЗВИТИЯ ИНФОРМАЦИОННО-КОММУНИКАЦИОННЫХ ТЕХНОЛОГИЙ ОБУЧЕНИЯ СТУДЕНТОВ ВУЗОВ
ВОРОНКИН АЛЕКСЕЙ СЕРГЕЕВИЧ. - : Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования «Казанский национальный исследовательский технологический университет», 2016
BASE
Show details
4
Discriminative Training Procedure for Continuous-Space Translation Models ; Apprentissage discriminant des modèles continus en traduction automatique
Do, Quoc khanh. - : HAL CCSD, 2016
In: https://tel.archives-ouvertes.fr/tel-01315755 ; Apprentissage [cs.LG]. Université Paris Saclay (COmUE), 2016. Français. ⟨NNT : 2016SACLS071⟩ (2016)
Abstract: Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives. ; Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses.
Keyword: [INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG]; [MATH.MATH-ST]Mathematics [math]/Statistics [math.ST]; [STAT.ML]Statistics [stat]/Machine Learning [stat.ML]; Apprentissage Discriminant; Continuous-Space Models; Discriminative Training; Estimation Contrastive Bruitée; Large-Margin Methods; Méthodes à Larges Marges; Modèles Continus de Traduction; Neural Network; Noise Contrastive Estimation; Réseau de neurones; Statistical Machine Translation; Traduction Automatique Statistique
URL: https://tel.archives-ouvertes.fr/tel-01315755/document
https://tel.archives-ouvertes.fr/tel-01315755/file/74514_DO_2016_diffusion.pdf
https://tel.archives-ouvertes.fr/tel-01315755
BASE
Hide details
5
Analyse statistique des données textuelles et traitement automatique des langues. Une étude comparée
In: International Conference on Statistical Analysis of Textual Data (JADT2016) ; https://hal-inalco.archives-ouvertes.fr/hal-01335084 ; International Conference on Statistical Analysis of Textual Data (JADT2016), Jun 2016, Nice, France. pp.697-706 ; http://jadt2016.sciencesconf.org (2016)
BASE
Show details
6
The Yin and the Yang of Prediction: An fMRI Study of Semantic Predictive Processing
Weber, Kirsten; Lau, Ellen F.; Stillerman, Benjamin. - : Public Library of Science, 2016
BASE
Show details
7
Data Cleaning for XML Electronic Dictionaries via Statistical Anomaly Detection ...
Bloodgood, Michael; Strauss, Benjamin. - : Digital Repository at the University of Maryland, 2016
BASE
Show details
8
Confound and control in language experiments ...
Alday, Phillip M.; Sassenhagen, Jona. - : figshare, 2016
BASE
Show details
9
Confound and control in language experiments ...
Alday, Phillip M.; Sassenhagen, Jona. - : figshare, 2016
BASE
Show details
10
Analyse statistique des données textuelles et traitement automatique des langues. Une étude comparée
In: International Conference on Statistical Analysis of Textual Data (JADT2016) ; https://hal-inalco.archives-ouvertes.fr/hal-01335084 ; International Conference on Statistical Analysis of Textual Data (JADT2016), Jun 2016, Nice, France. pp.697-706 ; http://jadt2016.sciencesconf.org (2016)
BASE
Show details
11
Twitter and society
In: 89 ; Digital Formations ; 447 (2016)
BASE
Show details
12
Seeing through the eyes of the respondent: an eye-tracking study on survey question comprehension
In: International Journal of Public Opinion Research ; 23 ; 3 ; 1-22 (2016)
BASE
Show details
13
An examination of pretesting methods for multicultural, multilingual surveys: the use of cognitive interviews to test Spanish instruments
In: Conducting cross-national and cross-cultural surveys : papers from the 2005 meeting of the international workshop on Comparative Survey Design and Implementation (CSDI) ; 12 ; ZUMA-Nachrichten Spezial ; 67-79 ; International Workshop on Comparative Survey Design and Implementation (CSDI) ; 3 (2016)
BASE
Show details
14
Zu einer qualitativen Empirie ästhetischer Erfahrungen: grundlagentheoretische Überlegungen und forschungsmethodische Perspektiven am Beispiel kultureller Bildungsforschung
In: Forum Qualitative Sozialforschung / Forum: Qualitative Social Research ; 16 ; 3 ; 18 (2016)
BASE
Show details
15
Analyzing the qualitative data analyst: a naturalistic investigation of data interpretation
In: Forum Qualitative Sozialforschung / Forum: Qualitative Social Research ; 16 ; 3 ; 44 (2016)
BASE
Show details
16
The Six Country Immigrant Integration Comparative Survey (SCIICS) - technical report
In: SP VI 2013-102 ; Discussion Papers / Wissenschaftszentrum Berlin für Sozialforschung, Forschungsschwerpunkt Migration und Diversität, Abteilung Migration, Integration, Transnationalisierung ; 92 (2016)
BASE
Show details
17
Towards Extending Content Analysis (TECA) - Schlußbericht zu Arbeitspaket 1, Verschriftung
In: 98/18 ; ZUMA-Technischer Bericht ; 13 (2016)
BASE
Show details
18
Towards Extending Content Analysis (TECA) - Schlußbericht zu den Arbeitspaketen 4 und 6, Umsetzung in SGML-Format
In: 98/16 ; ZUMA-Technischer Bericht ; 45 (2016)
BASE
Show details
19
Developing a low-cost technique for parallel cross-cultural instrument development: the Question Appraisal System (QAS-04)
In: Methodological aspects in cross-national research ; 11 ; ZUMA-Nachrichten Spezial ; 31-46 (2016)
BASE
Show details
20
Die Sozioanalyse literarischer Texte als Methode der qualitativen Sozialforschung oder: welche Wirklichkeit enthält Fiktion?
In: Historical Social Research ; 40 ; 1 ; 323-350 (2016)
BASE
Show details

Page: 1 2

Catalogues
0
0
0
0
0
0
1
Bibliographies
0
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
24
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern