DE eng

Search in the Catalogues and Directories

Page: 1 2
Hits 1 – 20 of 23

1
Complete Variable-Length Codes: An Excursion into Word Edit Operations
In: LATA 2020 ; https://hal.archives-ouvertes.fr/hal-02389403 ; LATA 2020, Mar 2020, Milan, Italy (2020)
BASE
Show details
2
Apprentissage de plongements de mots sur des corpus en langue de spécialité : une étude d’impact
In: Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL ; https://hal.archives-ouvertes.fr/hal-02786198 ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL, Jun 2020, Nancy, France. pp.164-178 (2020)
Abstract: Word embedding approaches are state of the art in Natural Language Processing (NLP). In this work, we focus on learning word embeddings for small domain-specific corpora. In particular, we would like to know whether word embeddings learnt over large corpora such as Wikipedia perform better than word embeddings learnt on domain specific corpora. In order to answer this question, we consider two corpora : OHSUMED from the medical field, and SNCF, a technical documentation corpus. After presenting the corpora and evaluating their specificity, we introduce a classification task. We use word embeddings learnt on domain-specific corpora or Wikipedia as input for this task. Our analysis demonstrates that word embeddings learnt on Wikipedia achieve excellent results, even though, in the case of OHSUMED, domain specific word embeddings perform better. ; Les méthodes d’apprentissage de plongements lexicaux constituent désormais l’état de l’art pour la représentation du vocabulaire et des documents sous forme de vecteurs dans de nombreuses tâches de Traitement Automatique du Langage Naturel (TALN). Dans ce travail, nous considérons l’apprentissage et l’usage de plongements lexicaux dans le cadre de corpus en langue de spécialité de petite taille. En particulier, nous souhaitons savoir si dans ce cadre, il est préférable d’utiliser des plongements préappris sur des corpus très volumineux tels Wikipédia ou bien s’il est préférable d’apprendre des plongements sur ces corpus en langue de spécialité. Pour répondre à cette question, nous considérons deux corpus en langue de spécialité : OHSUMED issu du domaine médical, et un corpus de documentation technique, propriété de SNCF. Après avoir introduit ces corpus et évalué leur spécificité, nous définissons une tâche de classification. Pour cette tâche, nous choisissons d’utiliser en entrée d’un classifieur neuronal des représentations des documents qui sont soit basées sur des plongements appris sur les corpus de spécialité, soit sur des plongements appris sur Wikipédia. Notre analyse montre que les plongements appris sur Wikipédia fournissent de très bons résultats. Ceux-ci peuvent être utilisés comme une référence fiable, même si dans le cas d’OHSUMED, il vaut mieux apprendre des plongements sur ce même corpus. La discussion des résultats se fait en interrogeant les spécificités des deux corpus, mais ne permet pas d’établir clairement dans quels cas apprendre des plongements spécifiques au corpus.
Keyword: [INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; Catégorisation de documents; Document Categorization; Domain specific; Langue de spécialité; Plongements de Mots; Word Embedding
URL: https://hal.archives-ouvertes.fr/hal-02786198
https://hal.archives-ouvertes.fr/hal-02786198v3/file/155.pdf
https://hal.archives-ouvertes.fr/hal-02786198v3/document
BASE
Hide details
3
Unsupervised cross-lingual representation modeling for variable length phrases ; Apprentissage de représentations cross-lingue d’expressions de longueur variable
Liu, Jingshu. - : HAL CCSD, 2020
In: https://hal.archives-ouvertes.fr/tel-02938554 ; Computation and Language [cs.CL]. Université de Nantes, 2020. English (2020)
BASE
Show details
4
Word Representations Concentrate and This is Good News!
In: CoNLL 2020 - 24th Conference on Computational Natural Language Learning ; https://hal.univ-grenoble-alpes.fr/hal-03356609 ; CoNLL 2020 - 24th Conference on Computational Natural Language Learning, Association for Computational Linguistics (ACL), Nov 2020, Online, France. pp.325-334, ⟨10.18653/v1/2020.conll-1.25⟩ (2020)
BASE
Show details
5
Implementing Eco’s Model Reader with WordEmbeddings. An Experiment on Facebook Ideological Bots
In: JADT - Journées d'analyse des données textuelles ; https://hal.archives-ouvertes.fr/hal-03144105 ; JADT - Journées d'analyse des données textuelles, Jun 2020, Toulouse, France (2020)
BASE
Show details
6
Natural language understanding in argumentative dialogue systems ...
Shigehalli, Pavan Rajashekhar. - : Universität Ulm, 2020
BASE
Show details
7
Automatic Creation of Correspondence Table of Meaning Tags from Two Dictionaries in One Language Using Bilingual Word Embedding
Teruo Hirabayashi; Kanako Komiya; Masayuki Asahara. - : European Language Resources Association, 2020
BASE
Show details
8
ArAutoSenti: Automatic annotation and new tendencies for sentiment classification of Arabic messages
BASE
Show details
9
French AXA Insurance Word Embeddings : Effects of Fine-tuning BERT and Camembert on AXA France’s data
Zouari, Hend. - : KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020
BASE
Show details
10
Entropy-Based Approach for the Detection of Changes in Arabic Newspapers’ Content
In: Entropy ; Volume 22 ; Issue 4 (2020)
BASE
Show details
11
A Framework for Word Embedding Based Automatic Text Summarization and Evaluation
In: Information ; Volume 11 ; Issue 2 (2020)
BASE
Show details
12
Data from: Wide range screening of algorithmic bias in word embedding models using large sentiment lexicons reveals underreported bias types ...
Rozado, David. - : Dryad, 2020
BASE
Show details
13
Early Vedic – Morphosyntactic structures, Part 3 ... : Word Order, Embedding ...
Keydana, Götz. - : Georg-August-Universität Göttingen,Sprachwissenschaftliches Seminar, 2020
BASE
Show details
14
Sense Identification Dataset - SID ...
Radicioni, Daniele P.. - : Mendeley, 2020
BASE
Show details
15
Sense Identification Dataset - SID ...
Radicioni, Daniele P.. - : Mendeley, 2020
BASE
Show details
16
COMBINING TEXT EMBEDDING WITH ADDITIONAL KNOWLEDGE FOR INFORMATION EXTRACTION ...
Roy, Arpita. - : Maryland Shared Open Access Repository, 2020
BASE
Show details
17
Assessing Topical Homogeneity with Word Embedding and Distance Matrices
In: School of Information Studies - Faculty Scholarship (2020)
BASE
Show details
18
Quantum-like generalization of complex word embedding: a lightweight approach for textual classification.
Frommholz, Ingo; Liu, Haiming; Holdack, Guilherme. - : CEUR Workshop Proceedings, 2020
BASE
Show details
19
Towards Arabic textual and multi-modal sentiment analysis
Alqarafi, Abdulrahman. - : University of Stirling, 2020
BASE
Show details
20
USE OF WORD EMBEDDING TO GENERATE SIMILAR WORDS AND MISSPELLINGS FOR TRAINING PURPOSE IN CHATBOT DEVELOPMENT
Thapa, Sanjay. - 2020
BASE
Show details

Page: 1 2

Catalogues
0
0
0
0
0
0
0
Bibliographies
0
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
23
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern