DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...15
Hits 1 – 20 of 288

1
Statistics in corpus linguistics research: a new approach
Wallis, Sean. - London usw. : Routledge, 2021
IDS Bibliografie zur deutschen Grammatik
Show details
2
Modeling contextual information in neural machine translation
Stojanovski, Dario. - : Ludwig-Maximilians-Universität München, 2021
BASE
Show details
3
Embedding mobile learning into everyday life settings
Schneegass, Christina. - : Ludwig-Maximilians-Universität München, 2021
BASE
Show details
4
Distributed representations for multilingual language processing
Dufter, Philipp. - : Ludwig-Maximilians-Universität München, 2021
BASE
Show details
5
Warum wir so wenig über die Sprachen in Deutschland wissen: Spracheinstellungen als Erkenntnisbarriere
In: Diskurs Kindheits- und Jugendforschung / Discourse. Journal of Childhood and Adolescence Research ; 16 ; 4 ; 403-419 ; Perspektiven von Kindern und Jugendlichen auf sprachliche Diversität und Sprachbildungsprozesse (2021)
BASE
Show details
6
Konzepte und Guidelines für Applikationen in Cinematic Virtual Reality
Rothe, Sylvia. - : Ludwig-Maximilians-Universität München, 2020
BASE
Show details
7
Evaluating Unsupervised Representation Learning for Detecting Stances of Fake News
Guderlei, Maike; Aßenmacher, Matthias. - : Ludwig-Maximilians-Universität München, 2020
BASE
Show details
8
Multi-dimensional analysis : research methods and current issues
Sardinha, Tony Berber (Herausgeber); Pinto, Marcia Veirano (Herausgeber). - Sydney : Bloomsbury Academic, 2019
BLLDB
UB Frankfurt Linguistik
Show details
9
KoGra-R: Standardisierte statistische Auswertung von Korpusrecherchen
In: Grammatik im Korpus (2019), 299-357
IDS Bibliografie zur deutschen Grammatik
Show details
10
Bildungsforschung mit Daten der amtlichen Statistik ; Educational research with data of official statistics
In: Fickermann, Detlef [Hrsg.]; Weishaupt, Horst [Hrsg.]: Bildungsforschung mit Daten der amtlichen Statistik. Münster ; New York : Waxmann 2019, S. 11-18. - (Die Deutsche Schule, Beiheft; 14) (2019)
BASE
Show details
11
Bildungsforschung mit Daten der amtlichen Statistik
Fickermann, Detlef Hrsg.; Weishaupt, Horst Hrsg.. - : Waxmann, 2019. : Münster, 2019. : New York, 2019. : pedocs-Dokumentenserver/DIPF, 2019
In: Münster ; New York : Waxmann 2019, 267 S. - (Die Deutsche Schule, Beiheft; 14) (2019)
BASE
Show details
12
Multilabel text classification of public procurements using deep learning intent detection ; Textklassificering av offentliga upphandlingar med djupa artificiella neuronnät och avsåtsdetektering
Suta, Adin. - : KTH, Matematisk statistik, 2019
BASE
Show details
13
LSTM vs Random Forest for Binary Classification of Insurance Related Text ; LSTM vs Random Forest för binär klassificering av försäkringsrelaterad text
Kindbom, Hannes. - : KTH, Matematisk statistik, 2019
BASE
Show details
14
Public Sentiment on Twitter and Stock Performance : A Study in Natural Language Processing ; Allmänna sentimentet på Twitter och aktiemarknaden : En studie i språkteknologi
Henriksson, Jimmy; Hultberg, Carl. - : KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019
BASE
Show details
15
Integration of Migrant Populations into Health Monitoring in Germany: Results from a Feasibility Study
In: Survey Methods: Insights from the Field ; 1-11 ; Probability and Nonprobability Sampling: Sampling of hard-to-reach survey populations (2019)
BASE
Show details
16
Quantitative methods for second language research : a problem-solving approach
Phakiti, Aek; Röver, Carsten. - London : Routledge, 2018
BLLDB
UB Frankfurt Linguistik
Show details
17
FREDDIE Shiny - an online statistics interface ; FREDDIE Shiny - ein Online-Werkzeug für Statistik
BASE
Show details
18
Ein statistisches Mittel zur Messbarkeit von Semantik : = A statistical mean measuring semantics
Schäfer, Philipp. - Aachen : Shaker Verlag, 2017
BLLDB
UB Frankfurt Linguistik
Show details
19
Supervised and unsupervised methods for learning representations of linguistic units
Rothe, Sascha. - : Ludwig-Maximilians-Universität München, 2017
Abstract: Word representations, also called word embeddings, are generic representations, often high-dimensional vectors. They map the discrete space of words into a continuous vector space, which allows us to handle rare or even unseen events, e.g. by considering the nearest neighbors. Many Natural Language Processing tasks can be improved by word representations if we extend the task specific training data by the general knowledge incorporated in the word representations. The first publication investigates a supervised, graph-based method to create word representations. This method leads to a graph-theoretic similarity measure, CoSimRank, with equivalent formalizations that show CoSimRank’s close relationship to Personalized Page-Rank and SimRank. The new formalization is efficient because it can use the graph-based word representation to compute a single node similarity without having to compute the similarities of the entire graph. We also show how we can take advantage of fast matrix multiplication algorithms. In the second publication, we use existing unsupervised methods for word representation learning and combine these with semantic resources by learning representations for non-word objects like synsets and entities. We also investigate improved word representations which incorporate the semantic information from the resource. The method is flexible in that it can take any word representations as input and does not need an additional training corpus. A sparse tensor formalization guarantees efficiency and parallelizability. In the third publication, we introduce a method that learns an orthogonal transformation of the word representation space that focuses the information relevant for a task in an ultradense subspace of a dimensionality that is smaller by a factor of 100 than the original space. We use ultradense representations for a Lexicon Creation task in which words are annotated with three types of lexical information – sentiment, concreteness and frequency. The final publication introduces a new calculus for the interpretable ultradense subspaces, including polarity, concreteness, frequency and part-of-speech (POS). The calculus supports operations like “−1 × hate = love” and “give me a neutral word for greasy” (i.e., oleaginous) and extends existing analogy computations like “king − man + woman = queen”. ; Wortrepräsentationen, sogenannte Word Embeddings, sind generische Repräsentationen, meist hochdimensionale Vektoren. Sie bilden den diskreten Raum der Wörter in einen stetigen Vektorraum ab und erlauben uns, seltene oder ungesehene Ereignisse zu behandeln -- zum Beispiel durch die Betrachtung der nächsten Nachbarn. Viele Probleme der Computerlinguistik können durch Wortrepräsentationen gelöst werden, indem wir spezifische Trainingsdaten um die allgemeinen Informationen erweitern, welche in den Wortrepräsentationen enthalten sind. In der ersten Publikation untersuchen wir überwachte, graphenbasierte Methodenn um Wortrepräsentationen zu erzeugen. Diese Methoden führen zu einem graphenbasierten Ähnlichkeitsmaß, CoSimRank, für welches zwei äquivalente Formulierungen existieren, die sowohl die enge Beziehung zum personalisierten PageRank als auch zum SimRank zeigen. Die neue Formulierung kann einzelne Knotenähnlichkeiten effektiv berechnen, da graphenbasierte Wortrepräsentationen benutzt werden können. In der zweiten Publikation verwenden wir existierende Wortrepräsentationen und kombinieren diese mit semantischen Ressourcen, indem wir Repräsentationen für Objekte lernen, welche keine Wörter sind, wie zum Beispiel Synsets und Entitäten. Die Flexibilität unserer Methode zeichnet sich dadurch aus, dass wir beliebige Wortrepräsentationen als Eingabe verwenden können und keinen zusätzlichen Trainingskorpus benötigen. In der dritten Publikation stellen wir eine Methode vor, die eine Orthogonaltransformation des Vektorraums der Wortrepräsentationen lernt. Diese Transformation fokussiert relevante Informationen in einen ultra-kompakten Untervektorraum. Wir benutzen die ultra-kompakten Repräsentationen zur Erstellung von Wörterbüchern mit drei verschiedene Angaben -- Stimmung, Konkretheit und Häufigkeit. Die letzte Publikation präsentiert eine neue Rechenmethode für die interpretierbaren ultra-kompakten Untervektorräume -- Stimmung, Konkretheit, Häufigkeit und Wortart. Diese Rechenmethode beinhaltet Operationen wie ”−1 × Hass = Liebe” und ”neutrales Wort für Winkeladvokat” (d.h., Anwalt) und erweitert existierende Rechenmethoden, wie ”Onkel − Mann + Frau = Tante”.
Keyword: ddc:000; ddc:004; Fakultät für Mathematik; Informatik und Statistik
URL: http://nbn-resolving.de/urn:nbn:de:bvb:19-209381
https://edoc.ub.uni-muenchen.de/20938/7/Rothe_Sascha.pdf
BASE
Hide details
20
Functional linear mixed models for complex correlation structures and general sampling grids
Cederbaum, Jona. - : Ludwig-Maximilians-Universität München, 2017
BASE
Show details

Page: 1 2 3 4 5...15

Catalogues
33
54
0
0
1
7
35
Bibliographies
36
0
91
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
1
0
0
1
Open access documents
58
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern