Le prochain tube à la mode sera-t-il… inhumain ? Une intelligence artificielle (IA) va-t-elle imaginer la chanson et la musique qui viendront déloger Aya Nakamura, Harry Styles, Lady Gaga ou Slimane au Top 50 et bouleverser le classement des meilleures morceaux de tous les temps ? Il n’y a pas encore à l’heure actuelle d’exemples de carton musical planétaire signé par une IA, mais elle s’invite déjà depuis plusieurs années dans l’industrie musicale et la transforme de l’intérieur.
Environ 30 ans après la sortie de l’album Nevermind de Nirvana, une intelligence artificielle a imaginé en 2020 une nouvelle chanson, Smother, générée par le logiciel Hal 9000. Celui-ci s’est basé sur l’ensemble des paroles du groupe et a utilisé un procédé mathématique aléatoire nommé « chaîne de Markov » pour rédiger un morceau « dans le style de ». Si le résultat n’est pas bluffant de ressemblance avec l’œuvre de Nirvana, la capacité de créer paroles et musiques était déjà prometteuse il y a trois ans.
En 2021, un étudiant de l’École polytechnique fédérale de Lausanne (EPFL) a élaboré, grâce à l’intelligence artificielle, une version 10.1 de la 10e symphonie inachevée de Beethoven.
Environ 30 ans après la sortie de l’album Nevermind de Nirvana, une intelligence artificielle a imaginé en 2020 une nouvelle chanson, Smother, générée par le logiciel Hal 9000. Celui-ci s’est basé sur l’ensemble des paroles du groupe et a utilisé un procédé mathématique aléatoire nommé « chaîne de Markov » pour rédiger un morceau « dans le style de ». Si le résultat n’est pas bluffant de ressemblance avec l’œuvre de Nirvana, la capacité de créer paroles et musiques était déjà prometteuse il y a trois ans.
En 2021, un étudiant de l’École polytechnique fédérale de Lausanne (EPFL) a élaboré, grâce à l’intelligence artificielle, une version 10.1 de la 10e symphonie inachevée de Beethoven.
« Il manque un fil conducteur. Il y a ce côté un peu convenu dans la musique. Un manque de structure. Il y a l’absence de ce côté génial du compositeur », avait alors jugé le chef d’orchestre Guillaume Berney.
Depuis, les intelligences artificielles ont fait un grand bond en avant et sont capables de bien plus.
IA musicales : de très vastes applications possibles
L’intelligence artificielle s’insère aujourd’hui de manière très variée dans l’industrie musicale. On peut compter au moins six usages bien distincts :
La création de musique : certaines IA peuvent être utilisées pour générer des airs de manière autonome en utilisant des algorithmes de traitement du signal et des bases de données discographiques pour produire des morceaux originaux. OpenAI (Dall-E) a ainsi imaginé Jukebox. La transcription de la musique : il est possible d’utiliser des IA pour transformer les enregistrements audio de morceaux en partitions écrites. Une fonction qui peut se révéler particulièrement utile pour les compositeurs ou encore les éditeurs de musique. C’est le cas de Klangio. L’analyse musicale : les IA peuvent être utilisées pour extraire des informations sur la structure et les caractéristiques d’un morceau, telles que les tonalités, les tempos et les accords utilisés. Le service Cyanite en fait partie. La recommandation de musique : les services de streaming audio comme Spotify, Apple Music ou encore Deezer utilisent des intelligences artificielles pour vous recommander de la musique en fonction de vos goûts et de votre historique d’écoute. La création de nouveaux instruments de musique : l’IA peut aussi utiliser une base de connaissances pour imaginer de nouveaux instruments contrôlés artificiellement. C’est le cas par exemple dans le metaverse Patchworld. L’amélioration de la performance asynchrone ou en direct des musiciens : l’IA est aussi capable de transformer la voix d’un chanteur ou la musique d’un instrument à la manière d’un système autotune aux capacités bien plus poussées. En 2022, lors du Sónar Festival à Barcelone, lorsque Mat Dryhurst a pris le micro sur scène et commencé à chanter en direct, ce n’est pas sa voix habituelle qui sortait des enceintes mais celle de sa femme, la musicienne électronique et technologue Holly Herndon. Il s’agissait d’une performance live du projet Holly+, une expérience qui prend un son et le transforme en un autre en conservant tout une partie de ses caractéristiques. Une intelligence artificielle peut-elle être créative ?
C’est la question qui revient de manière lancinante. Une IA peut-elle avoir une certaine forme de génie ? Ce problème philosophique s’applique à toutes les IA génératives capables de créer de l’art, que ce soit visuellement, par les mots ou les sons. « On peut prendre n’importe quel outil et en faire un art », assure Benoît Raphaël, fondateur de Flint, un projet d’intelligence artificielle pour les médias. Le designer Geoffrey Dorne abonde : « Dans la mesure où, pour chaque requête, le résultat sera différent avec une intelligence artificielle, il peut y avoir des “accidents” qui sont des petits miracles. » La variable aléatoire de l’algorithme peut alors être comparée à de la créativité, « à l’insu de son plein gré » en quelque sorte.
Citant le peintre américain James Abbott McNeill Whistler, l’écrivain argentin Jorge Luis Borges aimait rappeler que : « L’art fait irruption. Il a lieu. L’art est un petit miracle… qui échappe en quelque sorte à la causalité organisée de l’histoire. Oui, l’art survient ou ne survient pas. Cela ne dépend pas de l’artiste. »
Après tout, l’art, c’est aussi le regard que le public va porter sur une création. Et sa singularité.
Riffusion : quand l’IA compose de la musique en la visualisant
À la frontière entre la science et la culture, le projet Riffusion sort du lot. Il est basé sur la très puissante et très populaire IA Stable Diffusion, concurrente de DaLL-E 2 et MidJourney. Il s’agit d’un générateur de musique qui travaille à partir d’invites textuelles. Il crée une représentation visuelle du son et la convertit en audio pour la lecture. C’est ce qu’on appelle un sonagramme (ou spectrogramme), soit l’image d’un signal dans une représentation fréquence-intensité, en fonction du temps.
Comme c’est un visuel, Stable Diffusion sait l’analyser et le transformer. Les deux fondateurs de Riffusion, les Américains Seth Forsgren et Hayk Martiros, ont entraîné l’IA à faire le lien entre les sonagrammes et la description des sons ou de genres musicaux qu’ils représentaient. Grâce à cela, Riffusion est capable de générer une nouvelle musique à la volée en fonction d’invites textuelles (ou prompt en anglais). Il suffit de décrire en une phrase ou quelques mots le type de musique ou de son que vous voulez entendre. Par exemple, « ragtime dans le style de Scott Joplin », « Ibiza à 3 heures du matin » ou encore « violon acoustique ».
Comme c’est un visuel, Stable Diffusion sait l’analyser et le transformer. Les deux fondateurs de Riffusion, les Américains Seth Forsgren et Hayk Martiros, ont entraîné l’IA à faire le lien entre les sonagrammes et la description des sons ou de genres musicaux qu’ils représentaient. Grâce à cela, Riffusion est capable de générer une nouvelle musique à la volée en fonction d’invites textuelles (ou prompt en anglais). Il suffit de décrire en une phrase ou quelques mots le type de musique ou de son que vous voulez entendre. Par exemple, « ragtime dans le style de Scott Joplin », « Ibiza à 3 heures du matin » ou encore « violon acoustique ».
À l’écran, on voit défiler les suggestions soumises à l’IA par les internautes et leur représentation visuelle en sonagramme… tout en écoutant le résultat audio. Celui-ci est un peu étrange, assez basique. Mais il a le mérite de laisser entrevoir un univers créatif tout aussi amusant et empreint de liberté que les IA génératives d’images. Avec une constante : la qualité du prompt y est pour beaucoup dans « l’art » qui en découle. Preuve que le génie est encore l’apanage du cerveau humain. Pour l’instant, du moins.
Repéré sur l’Eclaireur Fnac, repris par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons
Repéré sur l’Eclaireur Fnac, repris par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons