L’avenir de la musique : comment l’IA générative transforme l’industrie de la musique
Andreessen Horowitz : « La musique générative a connu une année mouvementée, avec un contenu d’IA qui a gagné en reconnaissance et en popularité. MusicLM de Google et MusicGen de Meta ont montré comment l’IA peut générer de la musique à partir d’invites de base, tandis que Spotify et d’autres plateformes de streaming expérimentent des listes de lecture personnalisées. Les couvertures d’IA ont également gagné du terrain, bien que les droits légaux restent une préoccupation. Des pistes et des outils libres de droits générés par l’IA pour la production musicale font également leur apparition. L’objectif ultime est de créer un outil de bout en bout où l’IA collabore avec les utilisateurs pour écrire et produire des chansons. - Sujets d’intelligence artificielle ! »
TLDR (3 min):
La révolution de l'IA déclenchée par ChatGPT s'infiltre dans tous les secteurs, y compris celui de la musique. En février 2023, le DJ français David Guetta a utilisé la technologie pour ajouter la "voix" d'Eminem à l'une de ses chansons.
Fin avril 2023, "Heart on my Sleeve", une chanson créée par l'IA et chantée par les voix clonées de Drake et The Weeknd, a suscité beaucoup d'inquiétude dans le secteur.
En réaction, Universal Music Group a exhorté les services de streaming tels que Spotify et Apple Music à empêcher les robots d'IA d'accéder aux chansons protégées par le droit d'auteur.
De son côté, le service français de streaming musical Deezer travaille sur une technologie capable d'identifier les chansons créées à l'aide de l'intelligence artificielle (IA).
Les artistes doivent-ils commencer à craindre pour leurs sous ?
Les progrès technologiques rapides se heurtent souvent à des zones d'ombre (juridiques) et à des questions éthiques.
Fin avril dernier, la chanson intitulée "Heart on My Sleeve" a attiré l'attention, car elle a été créée par une intelligence artificielle (IA), montrant ainsi que l'IA peut produire des chansons de qualité.
Depuis lors, des développements notables ont eu lieu, tels que le lancement de l'outil MusicLM par Google, l'utilisation de l'IA par Paul McCartney pour extraire la voix de John Lennon, la proposition de Grimes de partager 50 % des redevances avec les créateurs utilisant une version IA de sa voix, et la publication par Meta de MusicGen, qui a stimulé la création d'applications permettant aux gens de composer leur musique.
Les créateurs de "Heart on My Sleeve," Justine Moore et Anish Acharya de a16z.com, estiment que la musique générative, créée par des intelligences artificielles, peut favoriser la créativité artistique en brouillant les frontières entre ceux qui créent, consomment, produisent et interprètent la musique.
Dans leur analyse disponible sur The Future of Music: How Generative AI Is Transforming the Music Industry | Andreessen Horowitz (a16z.com), Justine et Anish explorent les utilisations actuelles de la musique générative, envisagent les évolutions possibles, et présentent des entreprises et des capacités émergentes dans ce domaine. Ils identifient cinq principaux cas d'utilisation, notamment la création automatisée de musique, la génération de contenu personnalisé, la production de pistes instrumentales, la démocratisation de la création musicale, la réduction des coûts de production, l'innovation dans la composition, l'évolution des outils de production, et de nouveaux modèles économiques émergents.
Ces développements suggèrent une transformation majeure de l'industrie musicale grâce à l'IA générative, ouvrant de nouvelles possibilités créatives, réduisant les barrières à la création musicale, et suscitant des questions éthiques et réglementaires quant à l'originalité, les droits d'auteur, et l'authenticité artistique. L'équilibre entre l'intégration de l'IA dans la création musicale et le maintien de l'aspect humain et émotionnel de la musique reste un défi à relever.
Leur vision de l'avenir inclut une musique sans redevances largement générée par l'IA, facilitant la création de contenu musical de qualité professionnelle pour les amateurs. Bien que l'IA puisse être un puissant collaborateur, ils soulignent l'importance de préserver l'élément humain et émotionnel dans la musique, affirmant que l'assistance de l'IA facilitera la création musicale pour le grand public tout en préservant la connexion unique entre l'artiste et son public.
ARTICLE COMPLET (13 min lecture) :
Tout comme les synthétiseurs et les échantillonneurs ont révolutionné l’industrie musicale, les outils génératifs alimenteront le prochain saut créatif pour les consommateurs, les artistes, et les producteurs.
=> Comment l'IA générative révolutionne l'industrie musicale
La transformation de l'industrie musicale par l'IA générative est un sujet fascinant, plein de possibilités innovantes qui façonnent la manière dont la musique est créée, consommée et distribuée. Voici un aperçu des principaux aspects de cette révolution :
1. Création Musicale Automatisée : L'IA générative permet la création automatique de musique, allant de la composition de mélodies à la génération de paroles. Cela ouvre la porte à une création musicale rapide et audacieuse.
2. Génération de Contenu Personnalisé : Les algorithmes d'IA peuvent créer de la musique personnalisée en fonction des préférences individuelles des auditeurs. Les plateformes de streaming utilisent l'IA pour recommander des chansons adaptées à chaque utilisateur.
3. Production de Pistes Instrumentales et de Fond : L'IA peut générer des pistes instrumentales, des ambiances sonores et des fonds musicaux, bénéficiant particulièrement aux créateurs de contenu, cinéastes et professionnels nécessitant de la musique pour accompagner divers médias.
4. Démocratisation de la Création Musicale : Les outils d'IA rendent la création musicale accessible à ceux sans formation musicale formelle, élargissant ainsi la base de créateurs musicaux potentiels.
5. Réduction des Coûts de Production : L'automatisation de certains aspects de la création musicale peut réduire les coûts de production, offrant des avantages particuliers aux artistes indépendants et aux petites entreprises.
6. Innovation dans la Composition : L'IA générative introduit des éléments innovants en créant des structures harmoniques et mélodiques inédites, défiant parfois l'imagination des compositeurs humains traditionnels.
7. Évolution des Outils de Production : De nouveaux outils basés sur l'IA émergent, offrant des fonctionnalités telles que la séparation des pistes audio, la conversion audio en MIDI, et d'autres capacités qui révolutionnent la production musicale.
8. Nouveaux Modèles Économiques : Des modèles économiques émergent, comme la création de redevances pour les artistes dont la voix est utilisée dans des chansons générées par l'IA. Certains artistes permettent l'utilisation de leur voix pour la création de chansons par des tiers, avec une répartition des redevances.
Cependant, ces changements posent également des défis, tels que des préoccupations éthiques sur l'originalité, la réglementation des droits d'auteur, et la préservation de l'aspect humain et émotionnel de la musique. Trouver l'équilibre entre l'intégration de l'IA dans la création musicale et le maintien de l'authenticité artistique reste un défi continu.
L'article suivant évoque également des événements marquants récents dans le domaine, notamment des reprises virales générées par IA et des outils tels que MusicLM de Google, soulignant l'impact croissant de l'IA générative dans l'industrie musicale.
Avenir de la musique : Comment l'IA générative transforme l'industrie musicale
Selon les 2 auteurs de l’article qui a inspiré cette publication, Justine Moore et Anish Acharya (*), cette année 2023 a été marquée par d'importants événements dans le domaine de la musique générative.
En avril, la sortie de la première reprise virale par IA, "Heart on My Sleeve" de ghostwriter, a non seulement démontré que le contenu généré par IA peut exister, mais qu'il peut aussi être de qualité. Peu de temps après, Google a introduit MusicLM, un outil texte-vers-musique qui génère des chansons à partir d'une requête de base. De manière innovante, Paul McCartney a utilisé l'IA pour extraire la voix de John Lennon pour une nouvelle chanson des Beatles, tandis que Grimes a offert aux créateurs 50 % des redevances pour les flux de chansons utilisant un clone de sa voix par IA. En outre, Meta a publié en open source MusicGen, un modèle de génération musicale capable de transformer une requête texte en échantillons de qualité. Cette initiative a engendré de nombreuses nouvelles applications utilisant et étendant le modèle pour faciliter la création musicale.
Similaire à l'impact des instruments, de la musique enregistrée, des synthétiseurs et des échantillonneurs sur le nombre de créateurs et de consommateurs de musique lors de leur introduction, nous croyons que la musique générative aidera les artistes à faire un saut créatif similaire en brouillant les frontières entre artiste, consommateur, producteur et interprète. En réduisant considérablement les obstacles de l'idée à la création, l'IA permettra à un plus grand nombre de personnes de faire de la musique, tout en renforçant les capacités créatives des artistes et producteurs existants.
Dans cette publication, nous explorerons les actions actuelles des gens, examinerons le futur possible de la musique générative, et présenterons quelques-unes des entreprises et capacités émergentes en tête de ce secteur. Le post est structuré autour de 5 cas d'utilisation principaux pour faciliter la compréhension, mais les 2 auteurs ont également trouvé utile de catégoriser ces produits en fonction de leur public cible. Les produits destinés aux consommateurs quotidiens diffèrent considérablement de ceux destinés aux prosumers/créateurs avec des cas d'utilisation commerciale.
Ils ont observé le chevauchement ci-dessous :
Streaming musical en temps réel : Jusqu'à présent, la plupart des produits de streaming génératif émergents se concentrent sur la musique fonctionnelle. Des applications comme Endel, Brain.fm et Aimi génèrent des listes de lecture sans fin pour aider à entrer dans un certain état d'esprit, s'adaptant ensuite en fonction de l'heure de la journée et des activités. Bien que la musique fonctionnelle convergent avec la musique traditionnelle, des labels puissants comme UMG s'associent à des entreprises de musique générative comme Endel pour créer des versions "fonctionnelles" des nouvelles sorties populaires.
Recommandé par LinkedIn
Dans l'application Endel, le son varie selon que vous êtes en mode "travail intense" ou "détente". Endel s'est également associée à des créatifs pour produire des paysages sonores basés sur leur travail, comme un album génératif. La plupart des produits dans l'espace de streaming musical se concentrent sur les paysages sonores ou le bruit de fond, et ils ne génèrent pas de voix. Cependant, il n'est pas difficile d'imaginer un futur où les applications de streaming alimentées par l'IA peuvent également créer une musique plus traditionnelle avec des voix générées par l'IA. Comme la musique enregistrée a introduit l'album long play comme format musical, on peut imaginer des modèles génératifs permettant des "chansons infinies" en tant que nouveau format.
Cela devient plus intéressant si vous n'avez pas à donner d'instructions au produit avec du texte. Et si vous pouviez plutôt fournir des orientations générales sur les genres ou les artistes qui vous intéressent, voire lui permettre d'apprendre de votre historique d'écoute passé sans aucune instruction requise ? Ou si le produit se connecte à votre calendrier pour proposer la playlist "boost" parfaite avant une grande réunion ?
Spotify a avancé dans le domaine des listes de lecture personnalisées générées automatiquement. En février, le lancement d'un DJ IA a été réalisé, établissant une programmation de musique commentée basée sur votre écoute récente et vos anciens favoris. Cette programmation est constamment mise à jour en fonction de vos commentaires. Ce mois-ci, ils ont introduit "Daylist", une playlist automatisée qui se met à jour plusieurs fois par jour en fonction de vos habitudes d'écoute à des moments spécifiques.
Il n'est pas surprenant que Spotify n'ait pas encore généré de nouvelle musique, se contentant d'éditer ces playlists à partir de chansons existantes. Cependant, une version évoluée de ce produit impliquerait probablement un mélange de contenu généré par l'IA et créé par des humains, y compris des paysages sonores, des instrumentaux et des chansons.
Reprises générées par l'IA
Les reprises générées par l'IA représentent sans aucun doute le premier cas d'utilisation incontournable pour la musique IA. Depuis la sortie de "Heart on My Sleeve" en avril, l'industrie des reprises IA a explosé, avec des vidéos marquées #aicover totalisant plus de 10 milliards de vues sur TikTok.
Cette activité a principalement débuté avec des créateurs dans le Discord de l'IA Hub, qui comptait plus de 500 000 membres avant sa fermeture début octobre en raison de violations présumées du droit d'auteur. Ces préoccupations légales n'ont pas été résolues, et le serveur s'est maintenant disséminé en communautés plus privées où les utilisateurs entraînent et partagent des modèles vocaux pour des personnages ou des artistes spécifiques. Beaucoup utilisent la conversion vocale basée sur la récupération, transformant essentiellement un extrait de quelqu'un qui parle (ou chante !) en la voix d'une autre personne. Certains experts, malgré l'incertitude juridique, ont créé des guides sur la manière d'entraîner un modèle et de faire des reprises, publiant des liens vers des modèles qu'ils ont entraînés pour que d'autres les téléchargent.
Exécuter l'un de ces modèles localement nécessite une certaine sophistication technique. Cependant, plusieurs alternatives basées sur le navigateur, telles que Musicfy, Voicify, Covers et Kits, tentent de rationaliser le processus. La plupart vous demandent de télécharger un extrait de vous-même (ou de quelqu'un d'autre) chantant pour transformer la voix, mais l'avenir pourrait voir l'introduction du texte à la chanson (comme le fait déjà Uberduck pour les rappeurs).
Le principal problème non résolu avec les reprises IA concerne les droits légaux, une considération importante si vous travaillez dans cet espace. Cependant, une incertitude juridique similaire a accompagné d'autres changements technologiques, comme les litiges autour de l'échantillonnage qui ont défini les premières années du hip-hop. Après des années de litiges, de nombreux artistes échantillonnés ont réalisé que trouver un arrangement économique était positif à la fois sur le plan créatif et financier. Nous nous attendons à voir émerger une infrastructure pour soutenir cela à plus grande échelle, où les artistes stockent leurs modèles vocaux personnalisés, suivent les reprises IA, et comprennent les flux et la monétisation des pistes. Certains artistes ou producteurs peuvent même vouloir utiliser leurs modèles vocaux pour tester différentes paroles, voir comment une voix donnée sonne sur une chanson, ou expérimenter avec différents collaborateurs sur une piste.
Pistes sans droits d'auteur (alias AI Muzak)
Lorsque vous passez aux outils prosumer et que vous avez déjà créé une vidéo YouTube, un podcast, ou tout autre contenu vidéo pour une entreprise, vous avez probablement rencontré la difficulté de trouver de la musique sans droits d'auteur. Bien que des bibliothèques de musique libre de droits existent, elles sont souvent complexes à naviguer, et les meilleures pistes ont tendance à être trop utilisées. Un genre de musique souvent moqué, définissant ce son oubliable mais sans droits d'auteur, est communément appelé "muzak" ou "elevator music".
C'est là que la musique générée par l'IA entre en jeu. Des produits tels que Beatoven, Soundraw, et Boomy simplifient la génération de pistes uniques et sans droits d'auteur pour tout individu. Ces outils vous permettent généralement de choisir un genre, une ambiance, et un niveau d'énergie pour votre chanson, puis d'utiliser ces paramètres pour générer automatiquement une nouvelle piste. Certains de ces outils autorisent même l'édition du résultat si nécessaire, vous permettant d'ajuster le tempo, d'ajouter ou de supprimer des instruments, voire de réarranger des notes.
Nous prévoyons que l'avenir de la musique sans redevances sera largement dominé par l'IA. Ce genre est déjà devenu courant, laissant présager un monde où toute la musique d'ambiance est créée par des systèmes IA, abolissant ainsi le compromis historique entre la qualité et le coût. Les premiers adoptants de ces produits ont été principalement des créateurs de contenu individuels et des petites et moyennes entreprises. Cependant, nous prévoyons que ces outils évolueront vers des ventes traditionnelles aux grandes entreprises, telles que les studios de jeux, et une intégration de la génération musicale dans les plateformes de création de contenu via des API.
Génération de musique
L'aspect le plus enthousiasmant de la fusion des grands modèles avec la musique réside peut-être dans la possibilité offerte aux producteurs amateurs et autres utilisateurs prosumers, y compris ceux sans formation musicale formelle, de créer une musique de qualité professionnelle.
Quelques-unes des principales capacités incluent :
On peut imaginer le flux de travail d'un producteur futur ressemblant à ceci :
Nous assistons également à l'émergence de produits basés uniquement sur des logiciels se concentrant sur divers aspects de la chaîne de production, tels que la génération d'échantillons (Soundry AI), de mélodies (MelodyStudio), de fichiers MIDI (Lemonaide, AudioCipher), voire de mixage (RoEx). Il sera essentiel que ces modèles soient multimodaux et acceptent des entrées musicales et audio, car de nombreuses personnes ne possèdent pas le vocabulaire précis pour décrire les sons qu'elles recherchent. Nous nous attendons à voir une boucle étroite entre le matériel et le logiciel, avec l'émergence d'"instruments génératifs", qui pourraient être des contrôleurs DJ et des synthétiseurs intégrant directement ces idées dans le produit physique.
Outils Professionnels
Pour conclure, les 2 auteurs explorent une catégorie émergente de produits musicaux basés sur l'IA : les outils professionnels intégrés dans les flux de travail des producteurs de musique, des artistes, et des labels. Ils précisent : « À noter que, lorsque nous évoquons le terme "professionnel", beaucoup de ces produits sont également bénéfiques pour les créateurs indépendants ou amateurs. »
Ces produits présentent une grande diversité en termes de complexité, d'applications, et d'intégration dans les flux de production traditionnels. On peut les classer en trois catégories principales :
1. Outils basés sur le navigateur : Ces outils se concentrent sur des aspects spécifiques du processus de création ou d'édition et sont accessibles à tous, ne nécessitant pas l'utilisation d'un logiciel de production traditionnel. Par exemple, Demucs (un modèle open source de Meta), Lalal, AudioShake, et PhonicMind se spécialisent dans la séparation des pistes.
2. Technologies de studio virtuel alimentées par l'IA (VST) : Ces VST s'intègrent dans des stations de travail audio numériques (DAWs) telles que Ableton Live, Pro Tools, et Logic Pro. Des VST comme Mawf, Neutone, et Izotope peuvent être utilisés pour la synthèse ou le traitement du son dans le cadre de travail existant d'un producteur, sans nécessiter une réorganisation majeure de son flux de travail.
3. Produits réinventant entièrement la DAW avec une approche axée sur l'IA : Ces produits visent à rendre la DAW plus accessible à une nouvelle génération de consommateurs et de professionnels. Bien que de nombreuses DAW populaires aujourd'hui aient plus de 20 ans, des start-ups comme TuneFlow et WavTool relèvent le défi ambitieux de construire une nouvelle version de la DAW à partir de zéro.
Mi-Parcours pour la Musique ?
Des produits tels que Midjourney et Runway ont permis aux consommateurs de créer du contenu visuel impressionnant qui aurait auparavant nécessité une connaissance et un accès à des outils coûteux, spécialisés, et volumineux. Déjà, des professionnels créatifs tels que des graphistes adoptent ces premiers outils d'IA générative pour accélérer leurs flux de travail et itérer plus rapidement sur le contenu. Nous anticipons l'émergence de produits similaires dans le domaine musical - des outils alimentés par l'IA réduisant le frottement de l'inspiration à l'expression à zéro.
Ce "moment du milieu de parcours" pour la musique générative, où la création d'une piste de qualité devient suffisamment rapide et facile pour que les consommateurs ordinaires puissent le faire, aura d'énormes implications pour l'industrie musicale. Cela touchera aussi bien les producteurs et artistes professionnels que la nouvelle classe de créateurs consommateurs.
Notre rêve ultime ?
Les 2 auteurs concluent sur : « Un outil de bout en bout où vous fournissez des indications sur l'ambiance et les thèmes de la piste que vous souhaitez créer, sous forme de texte, audio, images, voire vidéo, et un copilote IA collabore ensuite avec vous pour écrire et produire la chanson. Nous n'imaginons pas que les chansons les plus populaires seront entièrement générées par l'IA - il y a une part d'humanité dans la musique, ainsi qu'une connexion à l'artiste qui ne peut être remplacée - cependant, nous nous attendons à ce que l'assistance de l'IA facilite la tâche pour la personne moyenne de devenir musicienne. Et nous aimons le son de cela ! »
*******************************************
Remarque : Justine Moore, titulaire d'un doctorat sur le sujet, a rédigé un article sur le sujet avec l'aide d'Anish Acharya. Tous deux ont exploré les outils actuellement disponibles ainsi que leurs attentes pour l'avenir. Ce texte est largement inspiré du leur. Vous pouvez suivre Justine sur LinkedIn @ Justine Moore | LinkedIn (Thèse sur l’IA x musique 🎶).
Plus ⬇
The Future of Music: How Generative AI Is Transforming the Music Industry | Andreessen Horowitz (a16z.com)
#IA #musique #ai #tendances #evolution #beatles #ontheedge #musicgen #musicLM #industriemusicale