DE eng

Search in the Catalogues and Directories

Page: 1 2 3 4 5...7
Hits 1 – 20 of 131

1
Automatic Speech Recognition and Query By Example for Creole Languages Documentation
In: Findings of the Association for Computational Linguistics: ACL 2022 ; https://hal.archives-ouvertes.fr/hal-03625303 ; Findings of the Association for Computational Linguistics: ACL 2022, May 2022, Dublin, Ireland (2022)
BASE
Show details
2
Cross-Situational Learning Towards Robot Grounding
In: https://hal.archives-ouvertes.fr/hal-03628290 ; 2022 (2022)
BASE
Show details
3
Cross-Situational Learning Towards Robot Grounding
In: https://hal.archives-ouvertes.fr/hal-03628290 ; 2022 (2022)
BASE
Show details
4
End-to-end speaker segmentation for overlap-aware resegmentation
In: Interspeech 2021 ; https://hal-univ-lemans.archives-ouvertes.fr/hal-03257524 ; Interspeech 2021, Aug 2021, Brno, Czech Republic ; https://www.interspeech2021.org/ (2021)
BASE
Show details
5
High-resolution speaker counting in reverberant rooms using CRNN with Ambisonics features
In: EUSIPCO 2020 - 28th European Signal Processing Conference (EUSIPCO) ; https://hal.archives-ouvertes.fr/hal-03537323 ; EUSIPCO 2020 - 28th European Signal Processing Conference (EUSIPCO), Jan 2021, Amsterdam, Netherlands. pp.71-75, ⟨10.23919/Eusipco47968.2020.9287637⟩ (2021)
BASE
Show details
6
Tackling Morphological Analogies Using Deep Learning -- Extended Version
In: https://hal.inria.fr/hal-03425776 ; 2021 (2021)
BASE
Show details
7
Recognizing lexical units in low-resource language contexts with supervised and unsupervised neural networks
In: https://hal.archives-ouvertes.fr/hal-03429051 ; [Research Report] LACITO (UMR 7107). 2021 (2021)
BASE
Show details
8
What does the Canary Say? Low-Dimensional GAN Applied to Birdsong
In: https://hal.inria.fr/hal-03244723 ; 2021 (2021)
BASE
Show details
9
What does the Canary Say? Low-Dimensional GAN Applied to Birdsong
In: https://hal.inria.fr/hal-03244723 ; 2021 (2021)
BASE
Show details
10
Artificial Text Detection via Examining the Topology of Attention Maps
In: ACL Anthology ; Empirical Methods in Natural Language Processing ; https://hal.archives-ouvertes.fr/hal-03456191 ; Empirical Methods in Natural Language Processing, ACL (Association for Computational Linguistics), Nov 2021, Punta Cana, Dominican Republic (2021)
BASE
Show details
11
Modeling the neural network responsible for song learning ; Modélisation du réseau neuronal responsable de l'apprentissage du chant chez l'oiseau chanteur
Pagliarini, Silvia. - : HAL CCSD, 2021
In: https://tel.archives-ouvertes.fr/tel-03217834 ; Modeling and Simulation. Université de Bordeaux, 2021. English. ⟨NNT : 2021BORD0107⟩ (2021)
Abstract: During the first period of their life, babies and juvenile birds show comparable phases of vocal development: first, they listen to their parents/tutors in order to build a neural representation of the experienced auditory stimulus, then they start to produce sound and progressively get closer to reproducing their tutor song. This phase of learning is called the sensorimotor phase and is characterized by the presence of babbling, in babies, and subsong, in birds. It ends when the song crystallizes and becomes similar to the one produced by the adults.It is possible to find analogies between brain pathways responsible for sensorimotor learning in humans and birds: a vocal production pathway involves direct projections from auditory areas to motor neurons, and a vocal learning pathway is responsible for imitation and plasticity. The behavioral studies and the neuroanatomical structure of the vocal control circuit in humans and birds provide the basis for bio-inspired models of vocal learning.In particular, birds have brain circuits exclusively dedicated to song learning, making them an ideal model for exploring the representation of vocal learning by imitation of tutors.This thesis aims to build a vocal learning model underlying song learning in birds. An extensive review of the existing literature is discussed in the thesis: many previous studies have attempted to implement imitative learning in computational models and share a common structure. These learning architectures include the learning mechanisms and, eventually, exploration and evaluation strategies. A motor control function enables sound production and sensory response models either how sound is perceived or how it shapes the reward. The inputs and outputs of these functions lie (1)~in the motor space (motor parameters’ space), (2)~in the sensory space (real sounds) and (3)~either in the perceptual space (a low dimensional representation of the sound) or in the internal representation of goals (a non-perceptual representation of the target sound).The first model proposed in this thesis is a theoretical inverse model based on a simplified vocal learning model where the sensory space coincides with the motor space (i.e., there is no sound production). Such a simplification allows us to investigate how to introduce biological assumptions (e.g. non-linearity response) into a vocal learning model and which parameters influence the computational power of the model the most. The influence of the sharpness of auditory selectivity and the motor dimension are discussed.To have a complete model (which is able to perceive and produce sound), we needed a motor control function capable of reproducing sounds similar to real data (e.g. recordings of adult canaries). We analyzed the capability of WaveGAN (a Generative Adversarial Network) to provide a generator model able to produce realistic canary songs. In this generator model, the input space becomes the latent space after training and allows the representation of a high-dimensional dataset in a lower-dimensional manifold. We obtained realistic canary sounds using only three dimensions for the latent space. Among other results, quantitative and qualitative analyses demonstrate the interpolation abilities of the model, which suggests that the generator model we studied can be used as a motor function in a vocal learning model.The second version of the sensorimotor model is a complete vocal learning model with a full action-perception loop (i.e., it includes motor space, sensory space, and perceptual space). The sound production is performed by the GAN generator previously obtained. A recurrent neural network classifying syllables serves as the perceptual sensory response. Similar to the first model, the mapping between the perceptual space and the motor space is learned via an inverse model. Preliminary results show the influence of the learning rate when different sensory response functions are implemented. ; Pendant la première période de leur vie, les bébés et les jeunes oiseaux présentent des phases de développement vocal comparables : ils écoutent d'abord leurs parents/tuteurs afin de construire une représentation neurale du stimulus auditif perçu, puis ils commencent à produire des sons qui se rapprochent progressivement du chant de leur tuteur. Cette phase d'apprentissage est appelée la phase sensorimotrice et se caractérise par la présence de babillage. Elle se termine lorsque le chant se cristallise, c'est-à-dire lorsqu'il devient semblable à celui produit par les adultes.Il y a des similitudes entre les voies cérébrales responsables de l'apprentissage sensorimoteur chez l'homme et chez les oiseaux. Dans les deux cas, une voie s’occupe de la production vocale et implique des projections directes des zones auditives vers les zones motrices, et une autre voie s’occupe de l’apprentissage vocal, de l'imitation et de la plasticité.Chez les oiseaux, ces circuits cérébraux sont exclusivement dédiés à l'apprentissage du chant, ce qui en fait un modèle idéal pour explorer les mécanismes neuronaux de l’apprentissage vocal par imitation.Cette thèse vise à construire un modèle de l'apprentissage du chant des oiseaux par imitation. De nombreuses études antérieures ont tenté de mettre en œuvre l'apprentissage par imitation dans des modèles informatiques et partagent une structure commune. Ces modèles comprennent des mécanismes d'apprentissage et, éventuellement, des stratégies d'exploration et d'évaluation.Dans ces modèles, une fonction de contrôle moteur permet la production de sons et une réponse sensorielle modélise soit la façon dont le son est perçu, soit la façon dont il façonne la récompense. Les entrées et les sorties de ces fonctions sont dans plusieurs espaces: l'espace moteur (paramètres moteurs), l'espace sensoriel (sons réels), l'espace perceptif (représentation à faible dimension du son) ou l’espace des objectifs (représentation non perceptive du son cible).Le premier modèle proposé est un modèle théorique inverse basé sur un modèle d'apprentissage vocal simplifié où l'espace sensoriel coïncide avec l'espace moteur (c'est-à-dire qu'il n'y a pas de production sonore). Une telle simplification permet d'étudier comment introduire des hypothèses biologiques (par exemple, une réponse non linéaire) dans un modèle d'apprentissage vocal et quels sont les paramètres qui influencent le plus la puissance de calcul du modèle.Afin de disposer d'un modèle complet (capable de percevoir et de produire des sons), nous avions besoin d'une fonction de contrôle moteur capable de reproduire des sons similaires à des données réelles. Nous avons analysé la capacité de WaveGAN (un réseau de génération) à produire des chants de canari réalistes. Dans ce modèle, l'espace d'entrée devient l'espace latent après l'entraînement et permet la représentation d'un ensemble de données à haute dimension dans une variété à plus basse dimension. Nous avons obtenu des chants de canari réalistes en utilisant seulement trois dimensions pour l'espace latent. Des analyses quantitatives et qualitatives démontrent les capacités d'interpolation du modèle, ce qui suggère que le modèle peut être utilisé comme fonction motrice dans un modèle d'apprentissage vocal.La deuxième version du modèle est un modèle d'apprentissage vocal complet avec une boucle action-perception complète (il comprend l'espace moteur, l'espace sensoriel et l'espace perceptif). La production sonore est réalisée par le générateur GAN obtenu précédemment. Un réseau neuronal récurrent classant les syllabes sert de réponse sensorielle perceptive. La correspondance entre l'espace perceptuel et l'espace moteur est apprise par un modèle inverse. Les résultats préliminaires montrent l'impact du taux d'apprentissage lorsque différentes fonctions de réponse sensorielle sont mises en œuvre.
Keyword: [INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation; [INFO.INFO-NE]Computer Science [cs]/Neural and Evolutionary Computing [cs.NE]; Apprentissage sensori-Moteur; Artificial neural network; Generative adversarial network; Inverse model; Modèle inverse; Modeling; Modélisation; Oiseau chanteur; Réseau de neurones artificiels; Réseaux génératifs antagonistes; Sensorimotor learning; Songbird
URL: https://tel.archives-ouvertes.fr/tel-03217834/file/PAGLIARINI_SILVIA_2021.pdf
https://tel.archives-ouvertes.fr/tel-03217834/document
https://tel.archives-ouvertes.fr/tel-03217834
BASE
Hide details
12
Multimodal Coarticulation Modeling : Towards the animation of an intelligible talking head ; Modélisation de la coarticulation multimodale : vers l'animation d'une tête parlante intelligible
Biasutto-Lervat, Théo. - : HAL CCSD, 2021
In: https://hal.univ-lorraine.fr/tel-03203815 ; Intelligence artificielle [cs.AI]. Université de Lorraine, 2021. Français. ⟨NNT : 2021LORR0019⟩ (2021)
BASE
Show details
13
Impact of Segmentation and Annotation in French end-to-end Synthesis
In: Proc. 11th ISCA Speech Synthesis Workshop (SSW 11) ; SSW 11th ISCA Speech Synthesis Workshop ; https://hal.archives-ouvertes.fr/hal-03362000 ; SSW 11th ISCA Speech Synthesis Workshop, Aug 2021, Budapest, Hungary. pp.13-18, ⟨10.21437/SSW.2021-3⟩ ; https://ssw11.hte.hu/ (2021)
BASE
Show details
14
Which Hype for my New Task? Hints and Random Search for Reservoir Computing Hyperparameters
In: ICANN 2021 - 30th International Conference on Artificial Neural Networks ; https://hal.inria.fr/hal-03203318 ; ICANN 2021 - 30th International Conference on Artificial Neural Networks, Sep 2021, Bratislava, Slovakia (2021)
BASE
Show details
15
Canary Song Decoder: Transduction and Implicit Segmentation with ESNs and LTSMs
In: https://hal.inria.fr/hal-03203374 ; 2021 (2021)
BASE
Show details
16
Which Hype for my New Task? Hints and Random Search for Reservoir Computing Hyperparameters
In: https://hal.inria.fr/hal-03203318 ; 2021 (2021)
BASE
Show details
17
Canary Song Decoder: Transduction and Implicit Segmentation with ESNs and LTSMs
In: ICANN 2021 - 30th International Conference on Artificial Neural Networks ; https://hal.inria.fr/hal-03203374 ; ICANN 2021 - 30th International Conference on Artificial Neural Networks, Sep 2021, Bratislava, Slovakia. pp.71--82, ⟨10.1007/978-3-030-86383-8_6⟩ ; https://link.springer.com/chapter/10.1007/978-3-030-86383-8_6 (2021)
BASE
Show details
18
On the use of Self-supervised Pre-trained Acoustic and Linguistic Features for Continuous Speech Emotion Recognition
In: IEEE Spoken Language Technology Workshop ; https://hal.archives-ouvertes.fr/hal-03003469 ; IEEE Spoken Language Technology Workshop, Jan 2021, Virtual, China (2021)
BASE
Show details
19
Hierarchical-Task Reservoir for Online Semantic Analysis from Continuous Speech
In: ISSN: 2162-237X ; IEEE Transactions on Neural Networks and Learning Systems ; https://hal.inria.fr/hal-03031413 ; IEEE Transactions on Neural Networks and Learning Systems, IEEE, 2021, ⟨10.1109/TNNLS.2021.3095140⟩ ; https://ieeexplore.ieee.org/abstract/document/9548713/metrics#metrics (2021)
BASE
Show details
20
Recognizing lexical units in low-resource language contexts with supervised and unsupervised neural networks
In: https://hal.archives-ouvertes.fr/hal-03429051 ; [Research Report] LACITO (UMR 7107). 2021 (2021)
BASE
Show details

Page: 1 2 3 4 5...7

Catalogues
0
0
0
0
0
0
0
Bibliographies
0
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
131
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern