DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...7
Hits 1 – 20 of 133

1
ESIC 1.0 -- Europarl Simultaneous Interpreting Corpus
Macháček, Dominik; Žilinec, Matúš; Bojar, Ondřej. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2021
BASE
Show details
2
LATIC: A Non-native Pre-labelled Mandarin Chinese Validation Corpus for Automatic Speech Scoring and Evaluation Task ...
ZHANG, XIAO. - : IEEE DataPort, 2021
BASE
Show details
3
Investigating the attitude towards ambiguity: Interindividual differences in automatic activations of evaluations of ambiguity ...
Titt, Raphael. - : Universität Tübingen, 2021
BASE
Show details
4
Human evaluation of three machine translation systems : from quality to attitudes by professional translators
BASE
Show details
5
Identifying language disorder in bilingual children using automatic speech recognition : a feasibility study
Albudoor, Nahar. - 2021
BASE
Show details
6
Investigating the attitude towards ambiguity: Interindividual differences in automatic activations of evaluations of ambiguity
Titt, Raphael. - : Universität Tübingen, 2021
BASE
Show details
7
Rapid development of competitive translation engines for access to multilingual COVID-19 information
In: Way, Andy orcid:0000-0001-5736-5930 , Haque, Rejwanul orcid:0000-0003-1680-0099 , Xie, Guodong, Gaspari, Federico orcid:0000-0003-3808-8418 , Popović, Maja orcid:0000-0001-8234-8745 and Poncelas, Alberto orcid:0000-0002-5089-1687 (2020) Rapid development of competitive translation engines for access to multilingual COVID-19 information. Informatics . ISSN 2227-9709 (2020)
BASE
Show details
8
Fine-grained text simplification in French: steps towards a better grammaticality
In: ISHIMR Proceedings of the 18th International Symposium on Health Information Management Research ; https://hal.archives-ouvertes.fr/hal-03095247 ; ISHIMR Proceedings of the 18th International Symposium on Health Information Management Research, Sep 2020, Kalmar, Sweden. ⟨10.15626/ishimr.2020.xxx⟩ (2020)
BASE
Show details
9
French coreference for spoken and written language
In: Language Resources and Evaluation Conference (LREC 2020) ; https://hal.archives-ouvertes.fr/hal-02476902 ; Language Resources and Evaluation Conference (LREC 2020), 2020, Marseille, France. pp.80-89 ; https://www.aclweb.org/anthology/2020.lrec-1.10 (2020)
BASE
Show details
10
Speech recognition in the context of lectures : assessment, progress and enrichment ; Reconnaissance de la parole dans un contexte de cours magistraux : évaluation, avancées et enrichissement
Mdhaffar, Salima. - : HAL CCSD, 2020
In: https://tel.archives-ouvertes.fr/tel-02928451 ; Informatique et langage [cs.CL]. Le Mans Université, 2020. Français. ⟨NNT : 2020LEMA1008⟩ (2020)
BASE
Show details
11
An English-Chinese Machine Translation and Evaluation Method for Geographical Names
Ren; Mao; Wang...
In: ISPRS International Journal of Geo-Information ; Volume 9 ; Issue 3 (2020)
BASE
Show details
12
A Framework for Word Embedding Based Automatic Text Summarization and Evaluation
In: Information ; Volume 11 ; Issue 2 (2020)
BASE
Show details
13
RuBQ: A Russian Dataset for Question Answering over Wikidata
In: Lect. Notes Comput. Sci. ; Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics) (2020)
BASE
Show details
14
A Survey on evaluation of summarization methods
In: ISSN: 1873-5371 ; EISSN: 1873-5371 ; Information processing & management ; https://hal.univ-brest.fr/hal-02130700 ; Information processing & management, [Oxford]: Elsevier Ltd., 2019, 56 (5), pp.1794-1814. ⟨10.1016/j.ipm.2019.04.001⟩ ; https://www.sciencedirect.com/science/article/abs/pii/S0306457318306241?via%3Dihub (2019)
BASE
Show details
15
Investigating backtranslation for the improvement of English-Irish machine translation
In: Dowling, Meghan orcid:0000-0003-1637-4923 , Lynn, Teresa and Way, Andy orcid:0000-0001-5736-5930 (2019) Investigating backtranslation for the improvement of English-Irish machine translation. Teanga, 26 . pp. 1-25. ISSN 0332-205X (2019)
BASE
Show details
16
EVALD 4.0 for Foreigners – Evaluator of Discourse
Novák, Michal; Mírovský, Jiří; Rysová, Kateřina. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2019
BASE
Show details
17
EVALD 4.0 – Evaluator of Discourse
Novák, Michal; Mírovský, Jiří; Rysová, Kateřina. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2019
BASE
Show details
18
EVALD 4.0 for Beginners – Evaluator of Discourse
Novák, Michal; Mírovský, Jiří; Rysová, Kateřina. - : Charles University, Faculty of Mathematics and Physics, Institute of Formal and Applied Linguistics (UFAL), 2019
BASE
Show details
19
Webinar: Social Transportation Analytic Toolbox (STAT) for Transit Networks
In: TREC Webinar Series (2019)
BASE
Show details
20
Evaluación basada en errores: estudio comparativo de Google Traductor y Deeplerror-based ; Evaluation: comparative study of Google Translate and Deepl
Abstract: Las herramientas de traducción automática (TA) tienen como objetivo principal la traducción de un texto desde una lengua A hacía una lengua B sin la ayuda de traductores humanos. Sin embargo, a pesar de que se han dedicado muchas décadas a su investigación y a su perfeccionamiento, hasta el momento no se han logrado resultados suficientemente satisfactorios como para que los sistemas automáticos puedan reemplazar la precisión de los profesionales de la traducción. Ello es debido principalmente al hecho de que traducir no es el mero acto de transferir información de una lengua a otra, sino que se trata también de transmitir cultura y respetar los matices lingüísticos presentes en un texto o en un discurso oral. Las personas conocen una lengua y la cultura transmitida por medio de ella mucho mejor que una máquina. Por ello, es posible que las herramientas de TA no sepan resolver los problemas de traducción más banales. En cualquier caso, estos sistemas automáticos tienen una ventaja: como consiguen trabajar sin descanso, pueden llegar a traducir grandes cantidades de documentos en un tiempo reducido. Por este motivo, se considera que pueden constituir una ayuda para los profesionales, que de todos modos siguen teniendo un papel importante. De hecho, no solo pueden colaborar en la mejora de estos sistemas, sino que tienen que desempeñar funciones de preedición y posedición de los textos traducidos automáticamente para mejorarlos y aumentar así su calidad. En muchas empresas se están usando herramientas de TA. Evidentemente, antes de decidir implantar estos sistemas en su propio negocio, los clientes necesitan hacer pruebas sobre la calidad de los resultados y la efectiva ventaja de trabajar con estas herramientas. Por esta razón, los sistemas de TA se someten a procesos de evaluación con el objetivo de medir el nivel de inteligibilidad de los textos para establecer su calidad. Evaluar estas herramientas no es una actividad que se realice de una única manera ni una sola vez, sino que se trata de un proceso dinámico. De hecho, existen muchas estrategias de evaluación de la TA. Concretamente, el objeto del presente trabajo es la evaluación basada en los errores de dos sistemas de TA: Google Traductor y DeepL. El principal asunto en el que se centra es la calidad de los textos meta. La cuestión fundamental que aborda es si las dos herramientas estudiadas producen resultados suficientemente adecuados para que los usuarios comprendan el sentido general de un texto o si los errores producidos perjudican a la función comunicativa de este. El trabajo empieza presentando el marco teórico en el que se encuadran la traducción automática, su historia, los sistemas usados, el concepto de evaluación y la posedición. A continuación, se procede con la detección de los errores y con su clasificación, y luego se establecen sus niveles de gravedad para llegar a unas conclusiones. El fin es obtener resultados que sean útiles para establecer cuál de los dos sistemas es más conveniente usar verificando sus patrones de errores, con la esperanza que pueda ser una ayuda a la hora de elegir una u otra herramienta. ; The main objective of Machine Translation systems (MT) is to get to translate a source text from one language to another without any human help. However, even after many decades dedicated to research in this field, it was not possible to reach satisfactory results and the MT technologies did not take over human professionals’ role in the translation process. As a matter of fact, translating does not consist in the mere transfer of information from one language to another, but in spreading cultural features and respecting linguistic nuances. People get to know a language and a culture much better than a machine and this is the reason why MT systems can’t always face translation problems and solve them. Although, using MT systems has an advantage: they can work constantly and produce considerably higher quantities of translated documents in a short amount of time. Therefore, their use can be very helpful, even though translation professionals still have an important role in the process. In fact, not only can they contribute to improving the systems, but they can also pre-edit and post-edit texts in order to increase the quality of its results. Many companies are using MT systems and, before deciding to implement them, clients need to verify the quality of their results and their advantage of working with them. For this reason, MT systems undergo evaluation processes aiming to measure the intelligibility of the text to establish their quality. Evaluating these machines is more dynamic rather than univocal and there are many strategies to carry out the evaluation process. The present work focuses on the evaluation of two MT systems: Google Translate and DeepL. The most important question gravitates towards the quality of the MT outputs and, precisely, on how good the results are. In a nutshell, if users understand the general meaning of the text or if the errors found prevent the communicative function of the text. This work starts with an overview on machine translation including its history, the different systems used, the concept of evaluating MT and post-editing. Afterwards, in the empirical part of the study, each error is identified and classified. Later, a severity level is assigned to each of them in order to establish the final conclusions. The ultimate objective is getting useful results to establish which of the two systems is the most convenient to use based on the error patterns found, hoping that this could be practical when it comes to use one system of the other ; Máster Universitario en Comunicación Intercultural, Interpretación y Traducción en los Servicios Públicos. Especialidad en Inglés-Español (M045).
Keyword: Automatic Translation; Comparative study; Estudio comparativo; Evaluación de calidad; Filología; Lingüística; Linguistics; MT systems; Philology; Quality evaluation; Sistemas TA; Tecnologías de traducción; Traducción Automática; Translation technologies
URL: http://hdl.handle.net/10017/47411
BASE
Hide details

Page: 1 2 3 4 5...7

Catalogues
7
0
2
0
0
0
0
Bibliographies
10
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
123
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern