Dans une passionnante (et grinçante) interview donnée au Blog du Modérateur, François Pachet, directeur du laboratoire Sony CSL, parle intelligence artificielle et musique. De quoi y voir plus clair dans ce que nous réserve l’avenir en terme de création musicale, ainsi que dans ce qui se fait déjà.
Daddy’s Car, les Beatles 2.0
La nouvelle avait fait sensation en septembre dernier : un morceau de pop ressemblant à un inédit des Beatles a été entièrement composé par une intelligence artificielle. Daddy’s Car reprend de nombreux codes de la musique pop des années 60 avec beaucoup de talent, jusqu’au chant de McCartney singé sur le pont.
Derrière ce projet glaçant et cette réussite partielle, le laboratoire du susnommé François Pachet. Il explique le fonctionnement de cet algorithme qui a réussi à créer un morceau entièrement neuf à partir d’une immense base de données musicale.
C’est un algorithme de Machine Learning, nous lui donnons des exemples, ici des partitions (13 000 chansons). L’algorithme est capable d’analyser ces chansons et de trouver des régularités, puis de faire du sampling pour générer une nouvelle chanson. Nous arrivons donc à créer de nouvelles partitions, mais aussi de nouvelles orchestrations. Nous avons une autre base de données sur des fichiers audio d’accompagnement musical, le système est capable de générer un accompagnement ou une orchestration pour une partition.
Du sampling fait par des ordinateurs. Soit. Mais est-ce bien neuf ? Selon lui non, puisque, je cite : « Il y a de la recherche en IA dans la musique depuis 1958 (sur Bach) ». Cette info lancée comme ça n’est pas étayée dans l’article, mais on en vient au principal : que se passe-t-il actuellement en IA musicale et que nous réserve l’avenir ?
L’algorithme comme assistant
Ce bon vieux François nous rassure quelque peu dans la suite de l’entretien, puisqu’il estime que les recherches actuelles et les algorithmes déjà en fonction ne sont pour l’instant que de simples assistants.
Les nouveaux algorithmes que nous développons sont en fait des outils d’aide à la composition. Ils peuvent être utilisés en mode autonome, mais ce n’est pas une fin en soi. Ce qui est intéressant, c’est quand un artiste les utilise, les guide, les paramètre, les oriente…
Difficile de croire cependant que des recherches financées par Sony en restent là. Faire chanter des stars mortes sur scène, c’est bien, mais faire composer des chansons sans qu’aucun artiste-hippie ne demande de compte : quel pied mes aïeux !
Avec ces outils, on va aussi pouvoir créer des musiques nouvelles et innovantes. Il n’y a jamais eu autant de musique créée qu’aujourd’hui, mais la musique est aussi très conventionnelle, et très calibrée, du moins pour ce qui concerne la musique mainstream. C’est une musique très imitative.
Ce ne sont pas Matt Pokora, Kids United et Génération *mettre ici un artiste ringard ou mort – ou les deux – ne vendant plus assez* qui diront le contraire.
Avec ces nouvelles techniques et ces nouveaux outils, on peut créer des choses nouvelles, notamment au niveau mélodique (une dimension qui a quasiment disparu du songwritting moderne), au niveau harmonique, au niveau du timbre, et au niveau de la production et du mixage.
Bingo. Le futur de la musique est là, bitch.
De l’artiste à l’algorithme, il n’y a qu’un pas…
Nos futurs Justin Bieber, Tailor Swift, Louane et consorts seront donc des lignes de code complexes ?Visiblement pas pour tout de suite, toujours selon notre chercheur.
Il manque encore des ingrédients pour qu’un système fabrique de manière autonome des choses complètes et intéressantes. Les algorithmes n’ont ni intentionnalité, ni envie. Ils ne font que ce qu’on leur dit de faire. Ils n’ont aucune idée de ce qui plaît et de ce qui ne plaît pas.
Si ce n’est qu’une question d’intentionnalité, qu’est-ce qui empêche actuellement les maisons de disque de le faire – si tant est qu’elles ne le fassent pas déjà ? Le retour du consommateur, bien sûr. C’est d’ailleurs ce sur quoi planchent actuellement les bons toutous du laboratoire de Sony : « comprendre les retours utilisateurs, et apprendre de ces retours (Feedback Learning) ».
(Je rêve du coup d’algorithmes pulvérisant de feedbacks négatifs chaque sortie.)
…que la France ne semble pas prête à franchir.
Mais il y a un mais.
Il y a une résistance de fond qui est très française et qui est due, selon les analyses de Frédéric Kaplan, à notre éducation et héritage Rousseauiste. On nous enseigne qu’il y a une vraie dichotomie entre la nature et la culture, avec l’idée que l’homme bon est l’homme de la nature. On est imprégné de cette pensée, alors que cette distinction n’a absolument aucun sens dans certaines cultures (Japon et USA notamment).
Quand on est persuadé que tout ce qui n’est pas naturel est par essence suspect, cela pose des freins dans la vision des technologies.
Eh oui, la France, berceau de la philosophie des Lumières, du cinéma, du taille-crayon et du récepteur radio à changement de fréquence, a un problème majeur : sa fâcheuse tendance à râler et à mettre des batons dans les roues du prodigieux progrès. Contrairement aux visionnaires Japonais et Américains, qui, on ne peut le contester, ce sont toujours évertués à chier sur la nature avec autant d’application qu’ils embrassent les avancées technologiques.
Heureusement pour l’espèce humaine, les jeunes générations biberonnées au smartphone, aux stories Snapchat et aux vlogs beauté semblent plus conciliantes. « Je pense néanmoins que ce biais est peu à peu en train de disparaître avec les jeunes générations », nous dit-il.
Même si ces propos sont assez nauséabonds, ils soulèvent un fait indéniable : nous préférerons toujours ce qui est semble fait « naturellement » à ce qui provient de combines artificielles.
Certaines recherches ont montré que si on fait écouter de la musique à des gens en leur proposant de la musique composée par un être humain et par un ordinateur, ils préfèrent la musique faite par un humain. Y compris quand c’est faux, et qu’elle est en fait composée par une machine. Il y a un vrai biais cognitif.
Difficile pour autant de blâmer qui que ce soit, quand ton poste est remplacé par un service automatique en ligne et quand ta bouffe est faite à la chaîne par des robots, difficile d’accueillir avec un vin chaud et une tarte à la cerise ce fameux progrès.
Après, on est d’accord, on se fait sûrement déjà duper depuis de lustres par ce qu’on appelle la « création musicale », et rajouter des artistes fictifs dans un paysage musical médiatique pas bien folichon ne changerait pas foncièrement la donne. Cela n’empêchera en rien de continuer d’apprécier nos artistes indépendants et les quelques superstars irremplaçables que continueront de nous pondre les majors. Reste à voir sous quelle forme ce blabla condescendant d’un chercheur va se matérialiser, ce que la musique assistée par l’IA donnera vraiment, déjà.
Et toi, tu le vois comment ce futur de la création musicale ?
Image : John Hult