Th. Beroud, P. Abry, Y. Malevergne, M. Senneret, G. Perrin, J. Macq
La génération de séries temporelles avec une dynamique temporelle riche à l’aide de réseaux de neurones profonds reste une question difficile, mobilisant de nombreux efforts de recherche.
Au lieu d’inventer encore une nouvelle architecture surperformante, le présent travail vise à montrer que, lorsque des réseaux adversarials génératifs de Wasserstein classiques sont utilisés, les architectures peuvent être modifiées pour réduire le nombre total de paramètres à entraîner de cinq ordres de grandeur (de 10 000 000 à 1 000), sans diminution de la qualité de la synthèse. Ce travail explique également que ces modifications d’architecture présentent l’avantage de permettre de synthétiser des séries temporelles plus longues que celles utilisées pour l’entraînement, sans nécessiter de réentraîner le réseau neuronal profond.
Ces résultats sont obtenus en utilisant des séries temporelles artificielles dont la complexité peut être réglée et contrôlée, impliquant des dynamiques temporelles « scalefree », intermittentes et non réversibles par retournement du temps.
La qualité de la synthèse est également mesurée quantitativement au moyen d’analyses multi-échelles.
Ce travail peut donc être considéré comme une contribution à l’intelligence artificielle durable et frugale.
Cet article a été publié dans le cadre d’ICASSP 2023, 48e Conférence internationale sur l’acoustique, la parole et le traitement du signal.
> Télécharger l’article de recherche [en]
> Télécharger la présentation (slides) [en]
> Télécharger la présentation (vidéo) [en]