Après avoir bouleversé le monde du texte et de la vidéo, OpenAI semble prête à faire vibrer une autre corde sensible : celle de la musique. L’entreprise fondée par Sam Altman travaillerait sur un outil capable de composer des morceaux entiers à partir de simples instructions, une innovation qui pourrait redéfinir la création sonore.
Une IA capable de créer une bande-son à la demande
Selon plusieurs sources proches du dossier, les équipes d’OpenAI développent actuellement un modèle d’intelligence artificielle capable de générer de la musique à partir d’un texte, d’une mélodie ou même d’un échantillon sonore. L’idée ? Permettre à n’importe qui — vidéaste, musicien amateur ou simple curieux — de créer un morceau sur mesure, simplement en décrivant ce qu’il souhaite entendre.
Imaginez : vous tapez « une ballade au piano inspirée par la pluie et les souvenirs », et quelques secondes plus tard, l’IA vous livre une composition mélancolique, prête à être utilisée dans votre vidéo ou votre podcast. Un peu comme un compositeur numérique, disponible 24 heures sur 24.
Cette avancée s’inscrit dans la logique des modèles multimodaux d’OpenAI, capables d’associer texte, image, son et vidéo. Après le succès (et la controverse) de Sora, son outil de génération vidéo, la firme semble vouloir étendre son influence au monde musical — un univers aussi passionné que fragile.
Une collaboration prestigieuse avec la Juilliard School
Pour entraîner son futur modèle, OpenAI aurait fait appel à un partenaire de choix : la Juilliard School de New York, l’une des plus grandes écoles d’art au monde. Des étudiants participeraient à l’annotation de partitions musicales, afin d’aider l’IA à mieux comprendre les structures harmoniques, les rythmes, les nuances et les styles.
Un tel partenariat montre la volonté d’OpenAI d’ancrer son outil dans une approche artistique sérieuse, et non simplement technologique. Si le projet venait à voir le jour, il pourrait servir à composer des bandes originales de films, créer des accompagnements instrumentaux ou même imaginer des styles hybrides mêlant genres et époques.
Reste une inconnue : l’outil prendra-t-il la forme d’un produit autonome, ou sera-t-il intégré directement à ChatGPT ou Sora ? OpenAI garde le mystère, mais tout indique que la musique sera bientôt la quatrième corde de son arc créatif, après le texte, l’image et la vidéo.
Un retour à la musique… et des débats qui s’annoncent houleux
Ce n’est pas la première fois qu’OpenAI s’intéresse à la musique. En 2020 déjà, la société avait lancé Jukebox, un outil capable de reproduire le style d’artistes célèbres. L’expérience avait été abandonnée, faute de maturité technologique et face aux questions juridiques qu’elle soulevait.
Mais le contexte a changé : les géants du streaming comme Spotify doivent désormais gérer une vague de titres créés par IA. Certains ont même été contraints d’établir des règles pour éviter la saturation de leur catalogue. Et pendant que des « artistes virtuels » comme Xania Monet, entièrement générée par IA, signent des contrats à plusieurs millions de dollars, les musiciens humains s’inquiètent pour leur avenir.
Les enjeux sont considérables : propriété intellectuelle, rémunération des créateurs, authenticité artistique… Les débats risquent d’être aussi intenses que ceux qui ont agité le cinéma avec l’arrivée de Sora.
Vers une créativité augmentée plutôt que remplacée ?
Si OpenAI parvient à trouver le bon équilibre, cette IA pourrait devenir un outil d’assistance à la création plutôt qu’un substitut. Un compositeur pourrait, par exemple, utiliser l’outil pour tester des harmonies, accélérer une phase d’arrangement ou explorer de nouveaux styles.
Comme souvent avec l’intelligence artificielle, tout dépendra de la manière dont elle sera utilisée — et régulée. Mais une chose est sûre : le jour où une machine pourra composer une chanson qui nous émeut, il ne s’agira plus simplement de technologie… mais bien d’art.


