DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...18
Hits 1 – 20 of 357

1
Eine agentenbasierte Architektur für Programmierung mit gesprochener Sprache
Weigelt, Sebastian. - : KIT Scientific Publishing, Karlsruhe, 2022
BASE
Show details
2
Weak supervision for learning discourse structure in multi-party dialogues ; Supervision distante pour l'apprentissage de structures discursives dans les conversations multi-locuteurs
Badene, Sonia. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03622653 ; Artificial Intelligence [cs.AI]. Université Paul Sabatier - Toulouse III, 2021. English. ⟨NNT : 2021TOU30138⟩ (2021)
BASE
Show details
3
Management and Exploitation of Sensor Data : an Approach Based on Data Reduction ; Gestion et exploitation de données capteurs : une approche basée sur la réduction de données
Boulanouar, Khedidja. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03483342 ; Autre [cs.OH]. ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers; Université Saad Dahlab de Blida (Algérie), 2021. Français. ⟨NNT : 2021ESMA0011⟩ (2021)
BASE
Show details
4
Contextualization of Web contents through semantic enrichment from linked open data ; Contextualisation des contenus Web par l'enrichissement sémantique à partir de données
Kumar, Amit. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03561788 ; Databases [cs.DB]. Normandie Université, 2021. English. ⟨NNT : 2021NORMC243⟩ (2021)
BASE
Show details
5
Natural Language Generation : From Data Creation to Evaluation via Modelling ; Génération en langue naturelle : de la création des données à l'évaluation, en passant par la modélisation
Shimorina, Anastasia. - : HAL CCSD, 2021
In: https://hal.univ-lorraine.fr/tel-03254708 ; Computation and Language [cs.CL]. Université de Lorraine, 2021. English. ⟨NNT : 2021LORR0080⟩ (2021)
Abstract: Natural language generation is a process of generating a natural language text from some input. This input can be texts, documents, images, tables, knowledge graphs, databases, dialogue acts, meaning representations, etc. Recent methods in natural language generation, mostly based on neural modelling, have yielded significant improvements in the field. Despite this recent success, numerous issues with generation prevail, such as faithfulness to the source, developing multilingual models, few-shot generation. This thesis explores several facets of natural language generation from creating training datasets and developing models to evaluating proposed methods and model outputs. In this thesis, we address the issue of multilinguality and propose possible strategies to semi-automatically translate corpora for data-to-text generation. We show that named entities constitute a major stumbling block in translation exemplified by the English-Russian translation pair. We proceed to handle rare entities in data-to-text modelling exploring two mechanisms: copying and delexicalisation. We demonstrate that rare entities strongly impact performance and that the impact of these two mechanisms greatly varies depending on how datasets are constructed. Getting back to multilinguality, we also develop a modular approach for shallow surface realisation in several languages. Our approach splits the surface realisation task into three submodules: word ordering, morphological inflection and contraction generation. We show, via delexicalisation, that the word ordering component mainly depends on syntactic information. Along with the modelling, we also propose a framework for error analysis, focused on word order, for the shallow surface realisation task. The framework enables to provide linguistic insights into model performance on the sentence level and identify patterns where models underperform. Finally, we also touch upon the subject of evaluation design while assessing automatic and human metrics, highlighting the difference between the sentence-level and system-level type of evaluation.Natural language generation is a process of generating a natural language text from some input. This input can be texts, documents, images, tables, knowledge graphs, databases, dialogue acts, meaning representations, etc. Recent methods in natural language generation, mostly based on neural modelling, have yielded significant improvements in the field. Despite this recent success, numerous issues with generation prevail, such as faithfulness to the source, developing multilingual models, few-shot generation. This thesis explores several facets of natural language generation from creating training datasets and developing models to evaluating proposed methods and model outputs. In this thesis, we address the issue of multilinguality and propose possible strategies to semi-automatically translate corpora for data-to-text generation. We show that named entities constitute a major stumbling block in translation exemplified by the English-Russian translation pair. We proceed to handle rare entities in data-to-text modelling exploring two mechanisms: copying and delexicalisation. We demonstrate that rare entities strongly impact performance and that the impact of these two mechanisms greatly varies depending on how datasets are constructed. Getting back to multilinguality, we also develop a modular approach for shallow surface realisation in several languages. Our approach splits the surface realisation task into three submodules: word ordering, morphological inflection and contraction generation. We show, via delexicalisation, that the word ordering component mainly depends on syntactic information. Along with the modelling, we also propose a framework for error analysis, focused on word order, for the shallow surface realisation task. The framework enables to provide linguistic insights into model performance on the sentence level and identify patterns where models underperform. Finally, we also touch upon the subject of evaluation design while assessing automatic and human metrics, highlighting the difference between the sentence-level and system-level type of evaluation. ; La génération en langue naturelle (natural language generation, NLG) est le processus qui consiste à générer du texte dans une langue naturelle à partir de données d’entrée. Ces entrées peuvent prendre la forme de textes, de documents, d’images, de tableaux, de graphes (réseaux de connaissances), de bases de données, d’actes de dialogue, ou d’autres représentations sémantiques. Les méthodes récentes en NLG, principalement basées sur des modèles neuronaux, ont apporté des améliorations significatives. Malgré ces récents progrès, de nombreux problèmes liés à la tâche de génération subsistent, tels que celui de la fidélité aux données d’entrée, du développement de modèles multilingues, ou de la génération à partir de peu d’exemples. Cette thèse explore trois aspects de la NLG : tout d’abord, la création de données d’apprentissage, puis le développement de modèles de génération, et enfin l’évaluation des méthodes proposées. Nous abordons la question du multilinguisme et proposons des stratégies de traduction semi-automatique de corpus destinés à l’entraînement de modèles de NLG. Nous montrons que les entités nommées constituent un obstacle majeur dans la réalisation de la tâche de traduction, ici considérée de l’anglais vers le russe. Nous décrivons ensuite deux méthodes de traitement des entités rares dans les données d’apprentissages des modèles de NLG : la copie et la délexicalisation. Nous démontrons que l’effet de ces deux mécanismes varie fortement selon la manière dont les données sont construites, et que les entités rares ont un impact important sur les performances des modèles. Concernant la génération multilingue, nous développons une approche modulaire de réalisation de surface superficielle (shallow surface realisation, SSR) pour plusieurs langues. Notre approche consiste à diviser la tâche de SSR en trois composantes : l’ordonnancement des mots, l’inflexion morphologique et la génération de contractions. Nous montrons, via la délexicalisation, que la composante d’ordonnancement s’appuie principalement sur les informations syntaxiques. En plus de nos contributions concernant la modélisation, nous proposons un cadre d’analyse des erreurs axé sur l’ordre des mots, pour la tâche de SSR. Ce cadre permet d’obtenir un aperçu linguistique des performances des modèles au niveau de la phrase et d’identifier les cas où un modèle échoue. Enfin, nous abordons le sujet de l’évaluation de manière plus générale et comparons différentes métriques automatiques et humaines ; nous soulignons la différence entre les méthodes d’évaluation au niveau de la phrase et les méthodes d’évaluations au niveau du corpus.
Keyword: [INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI]; [INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; Analyse d’erreurs; Data-to-text generation; Error analysis; Évaluation; Evaluation; Génération à partir de données; Génération en langue naturelle; Natural language generation; Réalisation de surface; Surface realisation
URL: https://hal.univ-lorraine.fr/tel-03254708/document
https://hal.univ-lorraine.fr/tel-03254708
https://hal.univ-lorraine.fr/tel-03254708/file/DDOC_T_2021_0080_SHIMORINA.pdf
BASE
Hide details
6
Metaphor processing in tweets
Zayed, Omnia. - : NUI Galway, 2021
BASE
Show details
7
A Codicological and Linguistic Typology of Common Torah Codices from the Cairo Genizah ...
Arrant, Estara. - : Apollo - University of Cambridge Repository, 2021
BASE
Show details
8
Semantic annotation and summarization of biomedical text ...
Reeve, Lawrence H.. - : Drexel University, 2021
BASE
Show details
9
BWT tunneling ...
Baier, Uwe. - : Universität Ulm, 2021
BASE
Show details
10
Multimodal Semantic Understanding and Navigation in Outdoor Scenes
Vasudevan, Arun Balajee. - : ETH Zurich, 2021
BASE
Show details
11
Leveraging Cognitive Processing Signals for Natural Language Understanding
Hollenstein, Nora. - : ETH Zurich, 2021
BASE
Show details
12
Noise-skipping Earley parsing and in-order tree extraction from shared packed parse forests
Dohmann, Jeremy. - 2021
BASE
Show details
13
Student Performance and Collaboration in Introductory Courses to Theory of Computation ; Studierendenperformance und Kollaboration in Einführungskursen der Theoretischen Informatik
Frede, Christiane. - : Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, 2021
BASE
Show details
14
Essays on Representation Learning for Political Science Research
Wu, Patrick. - 2021
BASE
Show details
15
Mechanistic Model-based Drug Oral Absorption Analysis
Wang, Kai. - 2021
BASE
Show details
16
Beyond Supervised Learning: Exploring Alternative Forms of Supervision for Visual Recognition
Dencker, Tobias. - 2021
BASE
Show details
17
Eine agentenbasierte Architektur für Programmierung mit gesprochener Sprache
Weigelt, Sebastian. - : KIT-Bibliothek, Karlsruhe, 2021
BASE
Show details
18
Three-Way Analysis for a Better Understanding of Word Embedding Models
Elekes, Ábel. - : KIT-Bibliothek, Karlsruhe, 2021
BASE
Show details
19
Machine learning-based automated segmentation with a feedback loop for 3D synchrotron micro-CT
Shkarin, Roman. - : KIT-Bibliothek, Karlsruhe, 2021
BASE
Show details
20
Accurate Cardinality Estimation of Co-occurring Words Using Suffix Trees (Extended Version)
Willkomm, Jens; Schäler, Martin; Böhm, Klemens. - : Karlsruher Institut für Technologie, 2021
BASE
Show details

Page: 1 2 3 4 5...18

Catalogues
4
0
0
0
0
0
1
Bibliographies
4
0
0
0
0
0
0
2
6
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
344
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern