1 |
Automatic Speech Recognition and Query By Example for Creole Languages Documentation
|
|
|
|
In: Findings of the Association for Computational Linguistics: ACL 2022 ; https://hal.archives-ouvertes.fr/hal-03625303 ; Findings of the Association for Computational Linguistics: ACL 2022, May 2022, Dublin, Ireland (2022)
|
|
BASE
|
|
Show details
|
|
2 |
Deceptive Opinions Detection Using New Proposed Arabic Semantic Features
|
|
|
|
In: ISSN: 1877-0509 ; EISSN: 1877-0509 ; Procedia Computer Science ; https://hal.archives-ouvertes.fr/hal-03299022 ; Procedia Computer Science, Elsevier, 2021, 189, pp.29 - 36. ⟨10.1016/j.procs.2021.05.067⟩ (2021)
|
|
BASE
|
|
Show details
|
|
3 |
LeBenchmark: A Reproducible Framework for Assessing Self-Supervised Representation Learning from Speech
|
|
|
|
In: INTERSPEECH 2021: Conference of the International Speech Communication Association ; https://hal.archives-ouvertes.fr/hal-03317730 ; INTERSPEECH 2021: Conference of the International Speech Communication Association, Aug 2021, Brno, Czech Republic (2021)
|
|
BASE
|
|
Show details
|
|
4 |
LeBenchmark: A Reproducible Framework for Assessing Self-Supervised Representation Learning from Speech
|
|
|
|
In: INTERSPEECH 2021: ; INTERSPEECH 2021: Conference of the International Speech Communication Association ; https://hal.archives-ouvertes.fr/hal-03317730 ; INTERSPEECH 2021: Conference of the International Speech Communication Association, Aug 2021, Brno, Czech Republic (2021)
|
|
BASE
|
|
Show details
|
|
5 |
LeBenchmark: A Reproducible Framework for Assessing Self-Supervised Representation Learning from Speech
|
|
|
|
In: INTERSPEECH 2021: ; INTERSPEECH 2021: Conference of the International Speech Communication Association ; https://hal.archives-ouvertes.fr/hal-03317730 ; INTERSPEECH 2021: Conference of the International Speech Communication Association, Aug 2021, Brno, Czech Republic (2021)
|
|
BASE
|
|
Show details
|
|
6 |
Lightweight Adapter Tuning for Multilingual Speech Translation
|
|
|
|
In: The Joint Conference of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021) ; https://hal.archives-ouvertes.fr/hal-03294912 ; The Joint Conference of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), Aug 2021, Bangkok (Virtual), Thailand (2021)
|
|
BASE
|
|
Show details
|
|
7 |
Visualizing Cross-Lingual Discourse Relations in Multilingual TED Corpora
|
|
|
|
In: Proceedings of the 2nd Workshop on Computational Approaches to Discourse ; CODI 2021: 2nd Workshop on Computational Approaches to Discourse ; https://hal.archives-ouvertes.fr/hal-03642341 ; CODI 2021: 2nd Workshop on Computational Approaches to Discourse, Nov 2021, Punta Cana, Dominican Republic. ⟨10.18653/v1/2021.codi-main.16⟩ (2021)
|
|
BASE
|
|
Show details
|
|
8 |
Do Multilingual Neural Machine Translation Models Contain Language Pair Specific Attention Heads?
|
|
|
|
In: Findings of ACL 2021 ; https://hal.archives-ouvertes.fr/hal-03299010 ; Findings of ACL 2021, Aug 2021, Bangkok (virtual), Thailand (2021)
|
|
BASE
|
|
Show details
|
|
9 |
ON-TRAC' systems for the IWSLT 2021 low-resource speech translation and multilingual speech translation shared tasks
|
|
|
|
In: Proceedings of the 18th International Conference on Spoken Language Translation, ; International Conference on Spoken Language Translation (IWSLT) ; https://hal.archives-ouvertes.fr/hal-03298854 ; International Conference on Spoken Language Translation (IWSLT), Aug 2021, Bangkok (virtual), Thailand. ⟨10.18653/v1/2021.iwslt-1.20⟩ (2021)
|
|
BASE
|
|
Show details
|
|
10 |
Do Multilingual Neural Machine Translation Models Contain Language Pair Specific Attention Heads? ...
|
|
|
|
BASE
|
|
Show details
|
|
11 |
Lightweight Adapter Tuning for Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
12 |
Lightweight Adapter Tuning for Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
13 |
Do Multilingual Neural Machine Translation Models Contain Language Pair Specific Attention Heads? ...
|
|
|
|
BASE
|
|
Show details
|
|
14 |
FlauBERT: Unsupervised Language Model Pre-training for French
|
|
|
|
In: Proceedings of the 12th Language Resources and Evaluation Conference ; LREC ; https://hal.archives-ouvertes.fr/hal-02890258 ; LREC, 2020, Marseille, France (2020)
|
|
BASE
|
|
Show details
|
|
15 |
FlauBERT : Unsupervised Language Model Pre-training for French ; FlauBERT : des modèles de langue contextualisés pré-entraînés pour le français
|
|
Le, Hang; Vial, Loïc; Frej, Jibril; Segonne, Vincent; Coavoux, Maximin; Lecouteux, Benjamin; Allauzen, Alexandre; Crabbé, Benoît; Besacier, Laurent; Schwab, Didier
|
|
In: Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 2 : Traitement Automatique des Langues Naturelles ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 2 : Traitement Automatique des Langues Naturelles ; https://hal.archives-ouvertes.fr/hal-02784776 ; 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 2 : Traitement Automatique des Langues Naturelles, Jun 2020, Nancy, France. pp.268-278 (2020)
|
|
Abstract:
Language models have become a key step to achieve state-of-the art results in many NLP tasks. Leveraging the huge amount of unlabeled texts available, they provide an efficient way to pretrain continuous word representations that can be fine-tuned for downstream tasks, along with theircontextualization at the sentence level. This has been widely demonstrated for English. In this paper, we introduce and share FlauBERT, a model learned on a very large and heterogeneous French corpus. We train models of different sizes using the new CNRS Jean Zay supercomputer. We apply our French language models to several NLP tasks (text classification, paraphrasing, natural language inference, parsing, word sense disambiguation) and show that they often outperform other pre-training approaches on the FLUE benchmark also presented in this article. ; Les modèles de langue pré-entraînés sont désormais indispensables pour obtenir des résultats à l’état-de-l’art dans de nombreuses tâches du TALN. Tirant avantage de l’énorme quantité de textes bruts disponibles, ils permettent d’extraire des représentations continues des mots, contextualisées au niveau de la phrase. L’efficacité de ces représentations pour résoudre plusieurs tâches de TALN a été démontrée récemment pour l’anglais. Dans cet article, nous présentons et partageons FlauBERT, un ensemble de modèles appris sur un corpus français hétérogène et de taille importante. Des modèles de complexité différente sont entraînés à l’aide du nouveau supercalculateur Jean Zay du CNRS. Nous évaluons nos modèles de langue sur diverses tâches en français (classification de textes, paraphrase, inférence en langage naturel, analyse syntaxique, désambiguïsation automatique) et montrons qu’ils surpassent souvent les autres approches sur le référentiel d’évaluation FLUE également présenté ici.
|
|
Keyword:
[INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL]; analyse syntaxique; BERT; classification de textes; désambiguïsation lexicale; évaluation; FlauBERT; FLUE; français; French; inférence en langue naturelle; language model; modèles de langue; natural language inference; NLP benchmark; paraphrase; parsing; text classification; word sense disambiguation
|
|
URL: https://hal.archives-ouvertes.fr/hal-02784776v3/file/66.pdf https://hal.archives-ouvertes.fr/hal-02784776 https://hal.archives-ouvertes.fr/hal-02784776v3/document
|
|
BASE
|
|
Hide details
|
|
16 |
Dual-decoder Transformer for Joint Automatic Speech Recognition and Multilingual Speech Translation
|
|
|
|
In: COLING 2020 (long paper) ; https://hal.archives-ouvertes.fr/hal-02991564 ; COLING 2020 (long paper), Dec 2020, Virtual, Spain (2020)
|
|
BASE
|
|
Show details
|
|
17 |
Dual-decoder Transformer for Joint Automatic Speech Recognition and Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
18 |
Dual-decoder Transformer for Joint Automatic Speech Recognition and Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
19 |
Dual-decoder Transformer for Joint Automatic Speech Recognition and Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
20 |
Dual-decoder Transformer for Joint Automatic Speech Recognition and Multilingual Speech Translation ...
|
|
|
|
BASE
|
|
Show details
|
|
|
|