DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4
Hits 1 – 20 of 71

1
From lexical towards contextualized meaning representation ; Vers des représentations contextualisées de mots
Popa, Diana-Nicoleta. - : HAL CCSD, 2019
In: https://tel.archives-ouvertes.fr/tel-02478383 ; Computers and Society [cs.CY]. Université Grenoble Alpes, 2019. English. ⟨NNT : 2019GREAM037⟩ (2019)
Abstract: Continuous word representations (word type embeddings) are at the basis of most modern natural language processing systems, providing competitive results particularly when input to deep learning models. However, important questions are raised concerning the challenges they face in dealing with the complex natural language phenomena and regarding their ability to capture natural language variability.To better handle complex language phenomena, much work investigated fine-tuning the generic word type embeddings or creating specialized embeddings that satisfy particular linguistic constraints. While this can help distinguish semantic similarity from other types of semantic relatedness, it may not suffice to model certain types of relations between texts such as the logical relations of entailment or contradiction.The first part of the thesis investigates encoding the notion of entailment within a vector space by enforcing information inclusion, using an approximation to logical entailment of binary vectors. We further develop entailment operators and show how the proposed framework can be used to reinterpret an existing distributional semantic model. Evaluations are provided on hyponymy detection as an instance of lexical entailment.Another challenge concerns the variability of natural language and the necessity to disambiguate the meaning of lexical units depending on the context they appear in. For this, generic word type embeddings fall short of being successful by themselves, with different architectures being typically employed on top to help the disambiguation. As type embeddings are constructed from and reflect co-occurrence statistics over large corpora, they provide one single representation for a given word, regardless of its potentially numerous meanings. Furthermore, even given monosemous words, type embeddings do not distinguish between the different usages of a word depending on its context.In that sense, one could question if it is possible to directly leverage available linguistic information provided by the context of a word to adjust its representation. Would such information be of use to create an enriched representation of the word in its context? And if so, can information of syntactic nature aid in the process or is local context sufficient? One could thus investigate whether looking at the representations of the words within a sentence and the way they combine with each-other can suffice to build more accurate token representations for that sentence and thus facilitate performance gains on natural language understanding tasks.In the second part of the thesis, we investigate one possible way to incorporate contextual knowledge into the word representations themselves, leveraging information from the sentence dependency parse along with local vicinity information. We propose syntax-aware token embeddings (SATokE) that capture specific linguistic information, encoding the structure of the sentence from a dependency point of view in their representations. This enables moving from generic type embeddings (context-invariant) to specific token embeddings (context-aware). While syntax was previously considered for building type representations, its benefits may have not been fully assessed beyond models that harvest such syntactical information from large corpora.The obtained token representations are evaluated on natural language understanding tasks typically considered in the literature: sentiment classification, paraphrase detection, textual entailment and discourse analysis. We empirically demonstrate the superiority of the token representations compared to popular distributional representations of words and to other token embeddings proposed in the literature.The work proposed in the current thesis aims at contributing to research in the space of modelling complex phenomena such as entailment as well as tackling language variability through the proposal of contextualized token embeddings. ; Les représentations des mots sont à la base du plupart des systèmes modernes pour le traitement automatique du langage, fournissant des résultats compétitifs. Cependant, d'importantes questions se posent concernant les défis auxquels ils sont confrontés pour faire face aux phénomènes complexes du langage naturel et leur capacité à saisir la variabilité du langage naturel.Pour mieux gérer les phénomènes complexes du langage, de nombreux travaux ont été menées pour affiner les représentations génériques de mots ou pour créer des représentations spécialisées. Bien que cela puisse aider à distinguer la similarité sémantique des autres types de relations sémantiques, il peut ne pas suffire de modéliser certains types de relations, telles que les relations logiques d'implication ou de contradiction.La première partie de la thèse étudie l'encodage de la notion d'implication textuelle dans un espace vectoriel en imposant l'inclusion d'information. Des opérateurs d'implication sont ensuite développées et le cadre proposé peut être utilisé pour réinterpréter un modèle existant de la sémantique distributionnelle. Des évaluations sont fournies sur la détection d'hyponymie en tant que une instance d'implication lexicale.Un autre défi concerne la variabilité du langage naturel et la nécessité de désambiguïser les unités lexicales en fonction du contexte dans lequel elles apparaissent. Les représentations génériques de mots ne réussissent pas à elles seules, des architectures différentes étant généralement utilisées pour aider à la désambiguïsation. Étant donné que les représentations de mots sont construites à partir de statistiques de cooccurrence sur de grands corpus et qu’elles reflètent ces statistiques, elles fournissent une seule représentation pour un mot donné, malgré ses multiples significations. Même dans le cas de mots monosémiques, cela ne fait pas la distinction entre les différentes utilisations d’un mot en fonction de son contexte.Dans ce sens, on pourrait se demander s'il est possible d'exploiter directement les informations linguistiques fournies par le contexte d'un mot pour en ajuster la représentation. Ces informations seraient-elles utiles pour créer une représentation enrichie du mot dans son contexte? Et si oui, des informations de nature syntaxique peuvent-elles aider au processus ou le contexte local suffit? On peux donc examiner si les représentations génériques des mots et la manière dont elles se combinent peut suffire à construire des représentations plus précises.Dans la deuxième partie de la thèse, nous étudions une façon d’incorporer la connaissance contextuelle dans les représentations de mots eux-mêmes, en exploitant les informations provenant de l’analyse de dépendance de phrase ainsi que les informations de voisinage local. Nous proposons des représentations de mots contextualisées sensibles à la syntaxe (SATokE) qui capturent des informations linguistiques spécifiques et encodent la structure de la phrase dans leurs représentations. Cela permet de passer des représentations de type générique (invariant du contexte) à des représentations spécifiques (tenant compte du contexte). Alors que la syntaxe était précédemment considérée pour les représentations de mots, ses avantages n'ont peut-être pas été entièrement évalués au-delà des modèles qui exploitent ces informations à partir de grands corpus.Les représentations obtenues sont évaluées sur des tâches de compréhension du langage naturel: classification des sentiments, détection de paraphrases, implication textuelle et analyse du discours. Nous démontrons empiriquement la supériorité de ces représentations par rapport aux représentations génériques et contextualisées des mots existantes.Le travail proposé dans la présente thèse contribue à la recherche dans le domaine de la modélisation de phénomènes complexes tels que l'implication textuelle, ainsi que de la variabilité du langage par le biais de la proposition de représentations contextualisés.
Keyword: [INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; [INFO.INFO-CY]Computer Science [cs]/Computers and Society [cs.CY]; Classification des relations discursives implicites; Contextualized syntax-Aware token embeddings; Implicit discourse relation classification; Information syntaxique; Natural language processing; Reconnaissance de l'implication textuelle; Representations contextualisées de mots; Textual entailment recognition; Token embeddings; Traitement automatique de langage
URL: https://tel.archives-ouvertes.fr/tel-02478383/document
https://tel.archives-ouvertes.fr/tel-02478383/file/POPA_2019_archivage.pdf
https://tel.archives-ouvertes.fr/tel-02478383
BASE
Hide details
2
Modality in Makkan Arabic: The Interaction Between Modals and Aspect ...
Abusulaiman, Jumanah. - : Université d'Ottawa / University of Ottawa, 2019
BASE
Show details
3
Downward entailing and Chinese polarity items
Chen, Li. - New York : Routledge, 2018
BLLDB
UB Frankfurt Linguistik
Show details
4
Problems in the translation and conceptual adaptation of linguistic terms.
BASE
Show details
5
Automatic detection of contradictions in texts
Karlova-Bourbonus, Natali. - : Justus-Liebig-Universität Gießen, 2018. : FB 05 - Sprache, Literatur, Kultur. Germanistik, 2018
BASE
Show details
6
Reconhecimento de implicação textual em português ; Recognizing textual entailment in Portuguese
Fonseca, Erick Rocha. - : Biblioteca Digital de Teses e Dissertações da USP, 2018. : Universidade de São Paulo, 2018. : Instituto de Ciências Matemáticas e de Computação, 2018
BASE
Show details
7
Textual entailment from image caption denotations
BASE
Show details
8
Sous le sens : pour une sémantique multidimensionnelle
Beyssade, Claire. - Saint-Denis : Presses Universitaires de Vincennes, 2017
BLLDB
UB Frankfurt Linguistik
Show details
9
Implicitness: from lexis to discourse
Cap, Piotr (Hrsg.); Dynel, Marta (Hrsg.). - Amsterdam, Philadelphia : Benjamins, 2017
IDS Bibliografie zur deutschen Grammatik
Show details
10
Scope, scalarity, and polarity in aspectual marking : the case of English 'until' and Spanish 'hasta'
BASE
Show details
11
Potential questions at the semantics-pragmatics interface
BLLDB
UB Frankfurt Linguistik
Show details
12
Textual Inference for Machine Comprehension ; Inférence textuelle pour la compréhension automatique
Gleize, Martin. - : HAL CCSD, 2016
In: https://tel.archives-ouvertes.fr/tel-01317577 ; Computation and Language [cs.CL]. Université Paris Saclay (COmUE), 2016. English. ⟨NNT : 2016SACLS004⟩ (2016)
BASE
Show details
13
Experimental perspectives on presuppositions
BLLDB
UB Frankfurt Linguistik
Show details
14
The Ups and Downs of Child Language : Experimental Studies on Children's Knowledge of Entailment Relationships and Polarity Phenomena
Gualmini, Andrea. - Florence : Taylor and Francis, 2014
UB Frankfurt Linguistik
Show details
15
Methods for Measuring Semantic Similarity of Texts
BASE
Show details
16
From Whorf to Montague : explorations in the theory of language
Seuren, Pieter A. M.. - Oxford : Oxford Univ. Press, 2013
BLLDB
UB Frankfurt Linguistik
Show details
17
Understanding semantics
Löbner, Sebastian. - London [u.a.] : Routledge, 2013
BLLDB
UB Frankfurt Linguistik
Show details
18
Implikaturen: grammatische und pragmatische Analysen
Liedtke, Frank W. (Hrsg.). - Tübingen : Niemeyer, 2013
IDS Bibliografie zur deutschen Grammatik
Show details
19
Taking scope : the natural semantics of quantifiers
Steedman, Mark. - Cambridge, Mass. : MIT Press, 2012
UB Frankfurt Linguistik
Show details
20
Taking scope : the natural semantics of quantifiers
Steedman, Mark. - Cambridge, Mass. [u.a.] : MIT Press, 2012
BLLDB
UB Frankfurt Linguistik
Show details

Page: 1 2 3 4

Catalogues
44
4
0
0
0
2
0
Bibliographies
41
0
2
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
19
1
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern