DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...23
Hits 1 – 20 of 444

1
Computing Entailments Online, ver. 5 ...
Dąbkowski, Maksymilian. - : Open Science Framework, 2022
BASE
Show details
2
Computing Entailments Online, ver. 6 ...
Dąbkowski, Maksymilian. - : Open Science Framework, 2022
BASE
Show details
3
Computing Entailments Online, ver. 4 ...
Dąbkowski, Maksymilian. - : Open Science Framework, 2021
BASE
Show details
4
TECA: Textual Entailment Catalan dataset ...
BASE
Show details
5
TECA: Textual Entailment Catalan dataset ...
BASE
Show details
6
Computing Entailments Online, ver. 3 ...
Dąbkowski, Maksymilian. - : Open Science Framework, 2021
BASE
Show details
7
Toward an accommodation account of deaccenting under nonidentity
In: Experiments in Linguistic Meaning; Vol 1 (2021); 172-183 ; 2694-1791 (2021)
BASE
Show details
8
Scalar properties of negative polarity superlatives
In: Borealis: An International Journal of Hispanic Linguistics, Vol 9, Iss 1 (2020) (2020)
BASE
Show details
9
From lexical towards contextualized meaning representation ; Vers des représentations contextualisées de mots
Popa, Diana-Nicoleta. - : HAL CCSD, 2019
In: https://tel.archives-ouvertes.fr/tel-02478383 ; Computers and Society [cs.CY]. Université Grenoble Alpes, 2019. English. ⟨NNT : 2019GREAM037⟩ (2019)
Abstract: Continuous word representations (word type embeddings) are at the basis of most modern natural language processing systems, providing competitive results particularly when input to deep learning models. However, important questions are raised concerning the challenges they face in dealing with the complex natural language phenomena and regarding their ability to capture natural language variability.To better handle complex language phenomena, much work investigated fine-tuning the generic word type embeddings or creating specialized embeddings that satisfy particular linguistic constraints. While this can help distinguish semantic similarity from other types of semantic relatedness, it may not suffice to model certain types of relations between texts such as the logical relations of entailment or contradiction.The first part of the thesis investigates encoding the notion of entailment within a vector space by enforcing information inclusion, using an approximation to logical entailment of binary vectors. We further develop entailment operators and show how the proposed framework can be used to reinterpret an existing distributional semantic model. Evaluations are provided on hyponymy detection as an instance of lexical entailment.Another challenge concerns the variability of natural language and the necessity to disambiguate the meaning of lexical units depending on the context they appear in. For this, generic word type embeddings fall short of being successful by themselves, with different architectures being typically employed on top to help the disambiguation. As type embeddings are constructed from and reflect co-occurrence statistics over large corpora, they provide one single representation for a given word, regardless of its potentially numerous meanings. Furthermore, even given monosemous words, type embeddings do not distinguish between the different usages of a word depending on its context.In that sense, one could question if it is possible to directly leverage available linguistic information provided by the context of a word to adjust its representation. Would such information be of use to create an enriched representation of the word in its context? And if so, can information of syntactic nature aid in the process or is local context sufficient? One could thus investigate whether looking at the representations of the words within a sentence and the way they combine with each-other can suffice to build more accurate token representations for that sentence and thus facilitate performance gains on natural language understanding tasks.In the second part of the thesis, we investigate one possible way to incorporate contextual knowledge into the word representations themselves, leveraging information from the sentence dependency parse along with local vicinity information. We propose syntax-aware token embeddings (SATokE) that capture specific linguistic information, encoding the structure of the sentence from a dependency point of view in their representations. This enables moving from generic type embeddings (context-invariant) to specific token embeddings (context-aware). While syntax was previously considered for building type representations, its benefits may have not been fully assessed beyond models that harvest such syntactical information from large corpora.The obtained token representations are evaluated on natural language understanding tasks typically considered in the literature: sentiment classification, paraphrase detection, textual entailment and discourse analysis. We empirically demonstrate the superiority of the token representations compared to popular distributional representations of words and to other token embeddings proposed in the literature.The work proposed in the current thesis aims at contributing to research in the space of modelling complex phenomena such as entailment as well as tackling language variability through the proposal of contextualized token embeddings. ; Les représentations des mots sont à la base du plupart des systèmes modernes pour le traitement automatique du langage, fournissant des résultats compétitifs. Cependant, d'importantes questions se posent concernant les défis auxquels ils sont confrontés pour faire face aux phénomènes complexes du langage naturel et leur capacité à saisir la variabilité du langage naturel.Pour mieux gérer les phénomènes complexes du langage, de nombreux travaux ont été menées pour affiner les représentations génériques de mots ou pour créer des représentations spécialisées. Bien que cela puisse aider à distinguer la similarité sémantique des autres types de relations sémantiques, il peut ne pas suffire de modéliser certains types de relations, telles que les relations logiques d'implication ou de contradiction.La première partie de la thèse étudie l'encodage de la notion d'implication textuelle dans un espace vectoriel en imposant l'inclusion d'information. Des opérateurs d'implication sont ensuite développées et le cadre proposé peut être utilisé pour réinterpréter un modèle existant de la sémantique distributionnelle. Des évaluations sont fournies sur la détection d'hyponymie en tant que une instance d'implication lexicale.Un autre défi concerne la variabilité du langage naturel et la nécessité de désambiguïser les unités lexicales en fonction du contexte dans lequel elles apparaissent. Les représentations génériques de mots ne réussissent pas à elles seules, des architectures différentes étant généralement utilisées pour aider à la désambiguïsation. Étant donné que les représentations de mots sont construites à partir de statistiques de cooccurrence sur de grands corpus et qu’elles reflètent ces statistiques, elles fournissent une seule représentation pour un mot donné, malgré ses multiples significations. Même dans le cas de mots monosémiques, cela ne fait pas la distinction entre les différentes utilisations d’un mot en fonction de son contexte.Dans ce sens, on pourrait se demander s'il est possible d'exploiter directement les informations linguistiques fournies par le contexte d'un mot pour en ajuster la représentation. Ces informations seraient-elles utiles pour créer une représentation enrichie du mot dans son contexte? Et si oui, des informations de nature syntaxique peuvent-elles aider au processus ou le contexte local suffit? On peux donc examiner si les représentations génériques des mots et la manière dont elles se combinent peut suffire à construire des représentations plus précises.Dans la deuxième partie de la thèse, nous étudions une façon d’incorporer la connaissance contextuelle dans les représentations de mots eux-mêmes, en exploitant les informations provenant de l’analyse de dépendance de phrase ainsi que les informations de voisinage local. Nous proposons des représentations de mots contextualisées sensibles à la syntaxe (SATokE) qui capturent des informations linguistiques spécifiques et encodent la structure de la phrase dans leurs représentations. Cela permet de passer des représentations de type générique (invariant du contexte) à des représentations spécifiques (tenant compte du contexte). Alors que la syntaxe était précédemment considérée pour les représentations de mots, ses avantages n'ont peut-être pas été entièrement évalués au-delà des modèles qui exploitent ces informations à partir de grands corpus.Les représentations obtenues sont évaluées sur des tâches de compréhension du langage naturel: classification des sentiments, détection de paraphrases, implication textuelle et analyse du discours. Nous démontrons empiriquement la supériorité de ces représentations par rapport aux représentations génériques et contextualisées des mots existantes.Le travail proposé dans la présente thèse contribue à la recherche dans le domaine de la modélisation de phénomènes complexes tels que l'implication textuelle, ainsi que de la variabilité du langage par le biais de la proposition de représentations contextualisés.
Keyword: [INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; [INFO.INFO-CY]Computer Science [cs]/Computers and Society [cs.CY]; Classification des relations discursives implicites; Contextualized syntax-Aware token embeddings; Implicit discourse relation classification; Information syntaxique; Natural language processing; Reconnaissance de l'implication textuelle; Representations contextualisées de mots; Textual entailment recognition; Token embeddings; Traitement automatique de langage
URL: https://tel.archives-ouvertes.fr/tel-02478383/document
https://tel.archives-ouvertes.fr/tel-02478383/file/POPA_2019_archivage.pdf
https://tel.archives-ouvertes.fr/tel-02478383
BASE
Hide details
10
Modality in Makkan Arabic: The Interaction Between Modals and Aspect ...
Abusulaiman, Jumanah. - : Université d'Ottawa / University of Ottawa, 2019
BASE
Show details
11
On the interaction between modal and aspectual periphrases
In: Borealis: An International Journal of Hispanic Linguistics, Vol 8, Iss 2 (2019) (2019)
BASE
Show details
12
On the actuality entailment of Spanish root modals
In: Borealis: An International Journal of Hispanic Linguistics, Vol 8, Iss 2 (2019) (2019)
BASE
Show details
13
Downward entailing and Chinese polarity items
Chen, Li. - New York : Routledge, 2018
BLLDB
UB Frankfurt Linguistik
Show details
14
Interpreting presuppositions in the scope of quantifiers: 'every' vs. 'at least one' [Online resource]
In: Proceedings of Sinn und Bedeutung 22, Vol. 1 / eds. Uli Sauerland and Stephanie Solt. Leibniz-Zentrum Allgemeine Sprachwissenschaft: ZAS papers in linguistics ; Nr. 60 (2018), 331-348
Linguistik-Repository
Show details
15
Generic and action-dependent abilities in Spanish ‘Be capable’
In: Glossa: a journal of general linguistics; Vol 3, No 1 (2018); 131 ; 2397-1835 (2018)
BASE
Show details
16
Aboutness in imagination
BASE
Show details
17
Modals and perfect morphology
Laca, Brenda. - 2018
BASE
Show details
18
A set of semantic and pragmatic criteria for descriptive vs. metalinguistic negation
In: ISSN: 2397-1835 ; Glossa: a journal of general linguistics, Vol. 3, No 1 (2018) pp. 1-30 (2018)
BASE
Show details
19
Problems in the translation and conceptual adaptation of linguistic terms.
BASE
Show details
20
Automatic detection of contradictions in texts
Karlova-Bourbonus, Natali. - : Justus-Liebig-Universität Gießen, 2018. : FB 05 - Sprache, Literatur, Kultur. Germanistik, 2018
BASE
Show details

Page: 1 2 3 4 5...23

Catalogues
44
4
39
0
0
2
0
Bibliographies
263
0
9
0
4
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
158
2
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern