Generative Adversarial Networks for Speech Synthesis

No Thumbnail Available

URL

Journal Title

Journal ISSN

Volume Title

Perustieteiden korkeakoulu | Master's thesis

Date

2020-06-15

Department

Major/Subject

Complex Systems

Mcode

SCI3060

Degree programme

Master’s Programme in Life Science Technologies

Language

en

Pages

54

Series

Abstract

This thesis adapts a style-based generator architecture for generative adversarial networks (StyleGAN) for speech generation with minimal or no conditioning on text. StyleGAN is a multi-scale convolutional GAN capable of hierarchically capturing data structure and latent variation on multiple spatial (or temporal) levels. The model has previously achieved impressive results on facial image generation, and it is appealing to audio applications due to similar multi-level structures present in the data. In this thesis, we train a StyleGAN to generate mel-frequency spectrograms on the Speech Commands dataset, which contains spoken digits uttered by multiple speakers in varying acoustic conditions. In a conditional setting our model is conditioned on the digit identity, while learning the remaining data variation remains an unsupervised task. We compare our model to the current unsupervised state-of-the-art speech synthesis GAN architecture, the WaveGAN, and show that the proposed model outperforms according to numerical measures and subjective evaluation by listening tests.

Tämä diplomityö tutkii tyylinsiirtoneuroverkko vaikutteista generaattoriarkkitehtuuria generatiivisille adversariaalisille neuroverkoille (StyleGAN), ja tutkii sen toimintaa puheen synteesissä vähäisellä tai olemattomalla tekstikonditioinnilla. StyleGAN on moniskaalainen konvolutiivinen GAN, joka kykenee hierarkkisesti toistamaan datan rakenteen ja latentin vaihtelun monella eri avaruudellisella tai ajallisella tasolla. Malli on aikaisemmin saavuttanut vaikuttavia tuloksia kasvokuvien generoimisessa. Tämä tekee mallista kiinnostavan audiosovelluksia ajatellen, koska audiodatassa on samankaltaista monitasoisuutta kuin kasvokuvissa. Koulutamme StyleGAN mallin generoimaan mel-taajuusspektrogrammeja Speech Commands data-aineistolla, joka sisältää monien eri puhujien lausumia numeroita akustisesti vaihtelevissa ympäristöissä. Ehdollistetussa tapauksessa malli on konditioitu numerotunnuksella, jolloin muu datan variaatio jää ohjaamattoman oppimisen tehtäväksi. Vertaamme malliamme GAN malliin, joka on ohjaamattoman puheen synteesin oppimisen huippuarkkitehtuuri (WaveGAN), ja osoitamme mallimme päihittävän sen numeeristen mittareiden ja subjektiivisten kuuntelutestien mukaan.

Description

Supervisor

Ilin, Alexander

Thesis advisor

Juvela, Lauri

Keywords

generative adversarial networks, speech synthesis, neural networks, machine learning

Other note

Citation