1 |
Complete Variable-Length Codes: An Excursion into Word Edit Operations
|
|
|
|
In: LATA 2020 ; https://hal.archives-ouvertes.fr/hal-02389403 ; LATA 2020, Mar 2020, Milan, Italy (2020)
|
|
BASE
|
|
Show details
|
|
2 |
Apprentissage de plongements de mots sur des corpus en langue de spécialité : une étude d’impact
|
|
|
|
In: Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL ; https://hal.archives-ouvertes.fr/hal-02786198 ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL, Jun 2020, Nancy, France. pp.164-178 (2020)
|
|
Abstract:
Word embedding approaches are state of the art in Natural Language Processing (NLP). In this work, we focus on learning word embeddings for small domain-specific corpora. In particular, we would like to know whether word embeddings learnt over large corpora such as Wikipedia perform better than word embeddings learnt on domain specific corpora. In order to answer this question, we consider two corpora : OHSUMED from the medical field, and SNCF, a technical documentation corpus. After presenting the corpora and evaluating their specificity, we introduce a classification task. We use word embeddings learnt on domain-specific corpora or Wikipedia as input for this task. Our analysis demonstrates that word embeddings learnt on Wikipedia achieve excellent results, even though, in the case of OHSUMED, domain specific word embeddings perform better. ; Les méthodes d’apprentissage de plongements lexicaux constituent désormais l’état de l’art pour la représentation du vocabulaire et des documents sous forme de vecteurs dans de nombreuses tâches de Traitement Automatique du Langage Naturel (TALN). Dans ce travail, nous considérons l’apprentissage et l’usage de plongements lexicaux dans le cadre de corpus en langue de spécialité de petite taille. En particulier, nous souhaitons savoir si dans ce cadre, il est préférable d’utiliser des plongements préappris sur des corpus très volumineux tels Wikipédia ou bien s’il est préférable d’apprendre des plongements sur ces corpus en langue de spécialité. Pour répondre à cette question, nous considérons deux corpus en langue de spécialité : OHSUMED issu du domaine médical, et un corpus de documentation technique, propriété de SNCF. Après avoir introduit ces corpus et évalué leur spécificité, nous définissons une tâche de classification. Pour cette tâche, nous choisissons d’utiliser en entrée d’un classifieur neuronal des représentations des documents qui sont soit basées sur des plongements appris sur les corpus de spécialité, soit sur des plongements appris sur Wikipédia. Notre analyse montre que les plongements appris sur Wikipédia fournissent de très bons résultats. Ceux-ci peuvent être utilisés comme une référence fiable, même si dans le cas d’OHSUMED, il vaut mieux apprendre des plongements sur ce même corpus. La discussion des résultats se fait en interrogeant les spécificités des deux corpus, mais ne permet pas d’établir clairement dans quels cas apprendre des plongements spécifiques au corpus.
|
|
Keyword:
[INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; Catégorisation de documents; Document Categorization; Domain specific; Langue de spécialité; Plongements de Mots; Word Embedding
|
|
URL: https://hal.archives-ouvertes.fr/hal-02786198 https://hal.archives-ouvertes.fr/hal-02786198v3/file/155.pdf https://hal.archives-ouvertes.fr/hal-02786198v3/document
|
|
BASE
|
|
Hide details
|
|
3 |
Unsupervised cross-lingual representation modeling for variable length phrases ; Apprentissage de représentations cross-lingue d’expressions de longueur variable
|
|
|
|
In: https://hal.archives-ouvertes.fr/tel-02938554 ; Computation and Language [cs.CL]. Université de Nantes, 2020. English (2020)
|
|
BASE
|
|
Show details
|
|
4 |
Word Representations Concentrate and This is Good News!
|
|
|
|
In: CoNLL 2020 - 24th Conference on Computational Natural Language Learning ; https://hal.univ-grenoble-alpes.fr/hal-03356609 ; CoNLL 2020 - 24th Conference on Computational Natural Language Learning, Association for Computational Linguistics (ACL), Nov 2020, Online, France. pp.325-334, ⟨10.18653/v1/2020.conll-1.25⟩ (2020)
|
|
BASE
|
|
Show details
|
|
5 |
Implementing Eco’s Model Reader with WordEmbeddings. An Experiment on Facebook Ideological Bots
|
|
|
|
In: JADT - Journées d'analyse des données textuelles ; https://hal.archives-ouvertes.fr/hal-03144105 ; JADT - Journées d'analyse des données textuelles, Jun 2020, Toulouse, France (2020)
|
|
BASE
|
|
Show details
|
|
6 |
Natural language understanding in argumentative dialogue systems ...
|
|
|
|
BASE
|
|
Show details
|
|
7 |
Automatic Creation of Correspondence Table of Meaning Tags from Two Dictionaries in One Language Using Bilingual Word Embedding
|
|
|
|
BASE
|
|
Show details
|
|
8 |
ArAutoSenti: Automatic annotation and new tendencies for sentiment classification of Arabic messages
|
|
|
|
BASE
|
|
Show details
|
|
9 |
French AXA Insurance Word Embeddings : Effects of Fine-tuning BERT and Camembert on AXA France’s data
|
|
Zouari, Hend. - : KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020
|
|
BASE
|
|
Show details
|
|
10 |
Entropy-Based Approach for the Detection of Changes in Arabic Newspapers’ Content
|
|
|
|
In: Entropy ; Volume 22 ; Issue 4 (2020)
|
|
BASE
|
|
Show details
|
|
11 |
A Framework for Word Embedding Based Automatic Text Summarization and Evaluation
|
|
|
|
In: Information ; Volume 11 ; Issue 2 (2020)
|
|
BASE
|
|
Show details
|
|
12 |
Data from: Wide range screening of algorithmic bias in word embedding models using large sentiment lexicons reveals underreported bias types ...
|
|
|
|
BASE
|
|
Show details
|
|
13 |
Early Vedic – Morphosyntactic structures, Part 3 ... : Word Order, Embedding ...
|
|
Keydana, Götz. - : Georg-August-Universität Göttingen,Sprachwissenschaftliches Seminar, 2020
|
|
BASE
|
|
Show details
|
|
16 |
COMBINING TEXT EMBEDDING WITH ADDITIONAL KNOWLEDGE FOR INFORMATION EXTRACTION ...
|
|
Roy, Arpita. - : Maryland Shared Open Access Repository, 2020
|
|
BASE
|
|
Show details
|
|
17 |
Assessing Topical Homogeneity with Word Embedding and Distance Matrices
|
|
|
|
In: School of Information Studies - Faculty Scholarship (2020)
|
|
BASE
|
|
Show details
|
|
18 |
Quantum-like generalization of complex word embedding: a lightweight approach for textual classification.
|
|
|
|
BASE
|
|
Show details
|
|
20 |
USE OF WORD EMBEDDING TO GENERATE SIMILAR WORDS AND MISSPELLINGS FOR TRAINING PURPOSE IN CHATBOT DEVELOPMENT
|
|
|
|
BASE
|
|
Show details
|
|
|
|