DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...8
Hits 1 – 20 of 153

1
Das Patristische Textarchiv (PTA) : Kritische Editionen antiker christlicher Texte im 21. Jahrhundert
BASE
Show details
2
Creating and analyzing multilingual parliamentary corpora ; Creating and analyzing multilingual parliamentary corpora: Research Data Management Workflows Volume 1
In: https://halshs.archives-ouvertes.fr/halshs-03366486 ; 2021 (2021)
BASE
Show details
3
Building, Encoding, and Annotating a Corpus of Parliamentary Debates in XML-TEI: A Cross-Linguistic Account
In: ISSN: 2162-5603 ; EISSN: 2162-5603 ; Journal of the Text Encoding Initiative ; https://halshs.archives-ouvertes.fr/halshs-03097333 ; Journal of the Text Encoding Initiative, TEI Consortium, 2021 (2021)
BASE
Show details
4
European Literary Text Collection (ELTeC): April 2021 release with 14 collections of at least 50 novels. ...
BASE
Show details
5
European Literary Text Collection (ELTeC): April 2021 release with 14 collections of at least 50 novels. ...
BASE
Show details
6
Standard-based lexical models for automatically structured dictionnaries ; Modèles lexicaux standardisés pour les dictionnaires à structure automatique
Khemakhem, Mohamed. - : HAL CCSD, 2020
In: https://tel.archives-ouvertes.fr/tel-03274454 ; Document and Text Processing. Université de Paris, 2020. English. ⟨NNT : 2020UNIP7146⟩ (2020)
Abstract: Dictionaries could be considered as the most comprehensive reservoir of human knowledge, which carry not only the lexical description of words in one or more languages, but also the commun awareness of a certain community about every known piece of knowledge in a time frame. Print dictionaries are the principle resources which enable the documentation and transfer of such knowledge. They already exist in abundant numbers, while new ones are continuously compiled, even with the recent strong move to digital resources. However, a majority of these dictionaries, even when available digitally, is still not fully structured due to the absence of scalable methods and techniques that can cover the variety of corresponding material. Moreover, the relatively few existing structured resources present limited exchange and query alternatives, given the discrepancy of their data models and formats. In this thesis we address the task of parsing lexical information in print dictionaries through the design of computer models that enable their automatic structuring. Solving this task goes hand in hand with finding a standardised output for these models to guarantee a maximum interoperability among resources and usability for downstream tasks. First, we present different classifications of the dictionaric resources to delimit the category of print dictionaries we aim to process. Second, we introduce the parsing task by providing an overview of the processing challenges and a study of the state of the art. Then, we present a novel approach based on a top-down parsing of the lexical information. We also outline the architecture of the resulting system, called GROBID-Dictionaries, and the methodology we followed to close the gap between the conception of the system and its applicability to real-world scenarios. After that, we draw the landscape of the leading standards for structured lexical resources. In addition, we provide an analysis of two ongoing initiatives, TEI-Lex-0 and LMF, that aim at the unification of modelling the lexical information in print and electronic dictionaries. Based on that, we present a serialisation format that is inline with the schemes of the two standardisation initiatives and fits the approach implemented in our parsing system. After presenting the parsing and standardised serialisation facets of our lexical models, we provide an empirical study of their performance and behaviour. The investigation is based on a specific machine learning setup and series of experiments carried out with a selected pool of varied dictionaries. We try in this study to present different ways for feature engineering and exhibit the strength and the limits of the best resulting models. We also dedicate two series of experiments for exploring the scalability of our models with regard to the processed documents and the employed machine learning technique. Finally, we sum up this thesis by presenting the major conclusions and opening new perspectives for extending our investigations in a number of research directions for parsing entry-based documents. ; Les dictionnaires peuvent être considérés comme le réservoir le plus compréhensible de connaissances humaines, qui contiennent non seulement la description lexicale des mots dans une ou plusieurs langues, mais aussi la conscience commune d’une certaine communauté sur chaque élément de connaissance connu dans une période de temps donnée. Les dictionnaires imprimés sont les principales ressources qui permettent la documentation et le transfert de ces connaissances. Ils existent déjà en grand nombre, et de nouveaux dictionnaires sont continuellement compilés. Cependant, la majorité de ces dictionnaires dans leur version numérique n’est toujours pas structurée en raison de l’absence de méthodes et de techniques évolutives pouvant couvrir le nombre du matériel croissant et sa variété. En outre, les ressources structurées existantes, relativement peu nombreuses, présentent des alternatives d’échange et de recherche limitées, en raison d’un sérieux manque de synchronisation entre leurs schémas de structure. Dans cette thèse, nous abordons la tâche d’analyse des informations lexicales dans les dictionnaires imprimés en construisant des modèles qui permettent leur structuration automatique. La résolution de cette tâche va de pair avec la recherche d’une sortie standardisée de ces modèles afin de garantir une interopérabilité maximale entre les ressources et une facilité d’utilisation pour les tâches en aval. Nous commençons par présenter différentes classifications des ressources dictionnaires pour délimiter les catégories des dictionnaires imprimés sur lesquelles ce travail se focalise. Ensuite, nous définissions la tâche d’analyse en fournissant un aperçu des défis de traitement et une étude de l’état de l’art. Nous présentons par la suite une nouvelle approche basée sur une analyse en cascade de l’information lexicale. Nous décrivons également l’architecture du système résultant, appelé GROBID-Dictionaries, et la méthodologie que nous avons suivie pour rapprocher la conception du système de son applicabilité aux scénarios du monde réel. Ensuite, nous prestons des normes clés pour les ressources lexicales structurées. En outre, nous fournissons une analyse de deux initiatives en cours, TEI-Lex-0 et LMF, qui visent à unifier la modélisation de l’information lexicale dans les dictionnaires imprimés et électroniques. Sur cette base, nous présentons un format de sérialisation conforme aux schémas des deux initiatives de normalisation et qui est assorti à l’approche développée dans notre système d’analyse lexicale. Après avoir présenté les facettes d’analyse et de sérialisation normalisées de nos modèles lexicaux, nous fournissons une étude empirique de leurs performances et de leurs comportements. L’étude est basée sur une configuration spécifique d’apprentissage automatique et sur une série d’expériences menées avec un ensemble sélectionné de dictionnaires variés. Dans cette étude, nous essayons de présenter différentes manières d’ingénierie des caractéristiques et de montrer les points forts et les limites des meilleurs modèles résultants. Nous consacrons également deux séries d’expériences pour explorer l’extensibilité de nos modèles en ce qui concerne les documents traités et la technique d’apprentissage automatique employée. Enfin, nous clôturons cette thèse en présentant les principales conclusions et en ouvrant de nouvelles perspectives pour l’extension de nos investigations dans un certain nombre de directions de recherche pour l’analyse des documents structurés en un ensemble d’entrées.
Keyword: [INFO.INFO-TT]Computer Science [cs]/Document and Text Processing; Analyse lexicale; Automatic structuring; Dictionnaires numérisés; Digitised dictionaries; ISO standard; Lexical Markup Framework (LMF); Lexical models; Machine learning; Modèles lexicaux; Parsing; Structuration automatique; Text Encoding Initiative (TEI)
URL: https://tel.archives-ouvertes.fr/tel-03274454/document
https://tel.archives-ouvertes.fr/tel-03274454
https://tel.archives-ouvertes.fr/tel-03274454/file/KHEMAKHEM_Mohamed_va2.pdf
BASE
Hide details
7
Building, Encoding, and Annotating a Corpus of Parliamentary Debates in XML-TEI: A Cross-Linguistic Account
In: https://halshs.archives-ouvertes.fr/halshs-03097333 ; 2020 (2020)
BASE
Show details
8
O projeto 'Edição Digital dos Vocabulários da Academia das Ciências' ; o VOLP-1940
BASE
Show details
9
Historische Korpuslinguistik
Szczepaniak, Renata (Herausgeber); Dücker, Lisa (Herausgeber); Hartmann, Stefan (Herausgeber). - Boston : De Gruyter, 2019
BDSL
BLLDB
UB Frankfurt Linguistik
Show details
10
TEI P5: Guidelines for Electronic Text Encoding and Interchange ...
TEI Consortium. - : Zenodo, 2019
BASE
Show details
11
Parla-CLARIN: TEI guidelines for corpora of parliamentary proceedings ...
Erjavec, Tomaž; Pančur, Andrej. - : Zenodo, 2019
BASE
Show details
12
Parla-CLARIN: TEI guidelines for corpora of parliamentary proceedings ...
Erjavec, Tomaž; Pančur, Andrej. - : Zenodo, 2019
BASE
Show details
13
Recherchieren, Arbeiten und Publizieren im Deutschen Textarchiv: ein Praxisbericht
In: Zeitschrift für germanistische Linguistik. - Berlin [u.a.] : de Gruyter 46 (2018) 1, 147-161
BLLDB
Show details
14
Weltweit vernetzt: digitale Erforschung germanistischer Bestände in Brasilien
In: Jahrbuch für internationale Germanistik. - Berlin : Peter Lang 50 (2018) 2, 83-94
BLLDB
Show details
15
TEI P5: Guidelines for Electronic Text Encoding and Interchange ...
TEI Consortium. - : Zenodo, 2018
BASE
Show details
16
DEREKO - das deutsche Referenzkorpus : Schriftkorpora der deutschen Gegenwartssprache am Institut für Deutsche Sprache in Mannheim
In: Zeitschrift für germanistische Linguistik. - Berlin [u.a.] : de Gruyter 45 (2017) 1, 161-170
BLLDB
Show details
17
IE3.com : approaches to databases for Indo-European languages
In: Folia linguistica historica. - Berlin : Mouton de Gruyter 38 (2017), 369-380
BLLDB
Show details
18
Die historischen Korpora des Deutschen Textarchivs als Grundlage für sprachgeschichtliche Forschungen
BASE
Show details
19
Creating a corpus of student writing in economics: structure and representativeness
In: Corpus linguistics on the move. - Leiden : Brill Rodopi (2016), 41-58
BLLDB
Show details
20
Deutsches Textarchiv (Dta) Und Clarin-D ...
BASE
Show details

Page: 1 2 3 4 5...8

Catalogues
9
0
24
0
0
0
0
Bibliographies
107
1
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
24
0
4
0
Open access documents
20
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern