La machine devait soulager l’homme des tâches les plus fatigantes et des travaux répétitifs. Aujourd’hui, elle l’assiste, voire le remplace dans les tâches les plus précises, et nul doute qu’à terme l’humain déléguera tout travail aux robots, se débarrassant ainsi de la nécessité même du travail dit alimentaire.
L’IA sera à l’art ce que la machine est à l’industrie
Les années 1970 ont vu arriver la commercialisation des premières machines à but créatif, les instruments de musiques électroniques : les premières boîtes à rythmes, les premiers samplers, les enregistreurs cassettes, bien souvent de conception nippone (ce qui, nous le verrons plus tard, était annonciateur) avec des marques comme Akai, Roland, Ace Tone, Yamaha … Même si la première boîte à rythme est commercialisée par Wurlitzer en 1959, l’idée est franco-russe car le fameux Léon Theremin sera le premier à déposer un brevet officiel pour la Rythmicon, toute première boite à rythme de l’histoire. Dans ce cas précis, l’épopée des instruments électroniques va nous aider à comprendre le possible développement de L’IA dans la musique.
Entre les années 1970 et 2019, ces instruments et leurs successeurs de plus en plus évolués comme les ordinateurs, les logiciels de MAO, les VST, les consoles de mixages ou les synthétiseurs, ont totalement révolutionné la manière de faire et de concevoir la musique à un point tel qu’aujourd’hui n’importe quel musicien, qu’il soit professionnel ou amateur, utilise ces outils et parfois ne produit qu’avec ceux-ci. Dans la musique commerciale, celle qui est la plus diffusée, la plus écoutée, celle qui dégage le plus de profit, les outils cités plus haut sont utilisés pour 99% du travail. Une évolution radicale et irrésistible, sur une période de seulement 40 ans, même si l’enregistrement et l’édition des supports avec interaction audio, donc la diffusion massive des biens culturels, n’a qu’une centaine d’années.
On peut dès lors imaginer que pour l’IA à but “artistique”, tout au moins musical, le schéma pour l’utilisation, la commercialisation et le remplacement des technologies antérieures sera le même, et en plus rapide, grâce à internet et aux nouvelles méthodes de diffusion qui n’existaient pas à l’époque où les machines ont fait leur apparition dans ce domaine. Surtout si les profits sont au rendez-vous, ce qui sera le cas puisque toutes les grandes plateformes de partage, de vente, ainsi que les sociétés travaillant dans le numérique et dans les technologies NEXTGEN, ont déjà financé la création et le développement d’outils utilisant l’IA à des fins musicales ou même artistiques dans un sens plus large : Google avec son programme Magenta, Sony avec son Flowmachine (qui a publié la musique Daddy’s car en 2016), IBM avec Watson et d’autres… Les GAFAM sont dans la course depuis quelques années et rivalisent d’intelligence et d’investissements pour produire l’IA, le programme le plus poussé.
Traité
Néoréactionnaire
Le premier livre de NIMH
Traité
Néoréactionnaire
Le premier livre de NIMH
Force est de reconnaître que même si les innovations technologiques sont bluffantes, cela n’est pas suffisant puisqu’il s’agit d’avoir un résultat audible, appréciable et plaisant à l’oreille humaine. Aujourd’hui tous les projets présentés au grand public ont été finalisés par des compositeurs qui ont travaillé sur le découpage des pistes proposées par l’IA, leur assemblage et ont ajouté des nappes musicales pour rendre le tout écoutable. C’est ainsi qu’est né l’album HELLO, WORLD sorti sur Spotify avec la collaboration d’artistes en vogue, travaillé avec des experts, et même si quelques titres ont des côtés légèrement perturbants, le travail de l’IA passe presque inaperçu dans cet album de POP qui n’est ni plus ni moins qu’une tentative de buzz.
Il est toutefois possible d’écouter des musiques composées entièrement par l’IA mais il est difficile de tenir plus de 3 ou 4 minutes. Soyons francs, ce n’est pas cette année que l’IA révolutionnera la musique et son commerce, mais dans une dizaine d’années vous pouvez être sûrs qu’une grande partie des titres commerciaux diffusés à la télévision, à la radio et partout ailleurs seront composés par une IA. Cela ne fait aucun doute pour qui connait le processus de création d’une musique commerciale dans un studio dédié à l’heure actuelle. Il serait trop long d’aborder le sujet ici.
L’avancée la plus marquante dans le domaine de l’IA musicale est sans doute la performance de la marque Huawei, avec leur “Symphonie inachevée”.
Il s’agit en fait de la symphonie numéro 8 en si mineur de Schubert, qu’il n’a pas eu le temps de finir à cause, probablement, de la maladie qui l’emportait. Le concept est simple faire travailler de concert leur IA en y injectant l’ensemble des œuvres de Schubert, un chef d’orchestre et un philharmonique pour tenter de terminer la dite symphonie. 9 mois de travail et de répétitions, une inauguration en grandes pompes, des musicologues du monde entier invités à en débattre, un budget colossal… pour un résultat décevant. Cependant lors de l’écoute il est difficile de s’enlever de la tête le fait que la composition est en partie due à une IA ce qui peut fausser le jugement du plus averti des mélomanes, et ce travail ne concerne que le 3ème et le 4ème mouvement de la symphonie. Certains s’inquiètent d’ailleurs de l’avenir de l’art et de la musique suite à ces récentes prestations à moitié composées par une intelligence non-humaine. Le souci n’est pas d’avoir à disposition de la musique faite par un robot et composée par une IA, le soucis serait que toutes les musiques à l’avenir soient composées de la sorte, ce qui bien sûr ne sera pas le cas.
Toutes les IA musicales actuelles fonctionnent de la même manière, ce sont des IA fortes composées de “neurones artificiels” capables de piocher dans des bases de données immenses, ce que l’on nomme Deep Learning. On gave l’IA de milliers de musiques (tout dépend de son but exact), généralement, de tous genres musicaux, de milliers de partitions ce qui compose la base des connaissances de l’IA à qui on demande ensuite de créer une mélodie dans un genre précis. Même si Baidu, Orb Composer, Jukedeck sont utilisés depuis quelques temps par des musiciens et des scientifiques, les résultats ont toujours besoin d’être retravaillés par un humain, il n’existe aucune musique capable de plaire à un grand nombre, d’être diffusée et commercialisée, créée par une IA. Les intelligences artificielles sont couplées à des instruments électroniques et produisent donc leur propre musique. Le risque d’être dépassé par l’IA dans ce secteur, n’est pour l’instant qu’une chimère.
Il serait intéressant à terme de voir ce que créerait une IA forte à but musical, de la laisser interagir avec les humains via internet et les plateformes, les réseaux sociaux, peut-être se dégagerait-il un nouveau genre musical, peut être adulerait-on alors un artiste dématérialisé ? Surtout si cette IA intégrait dans sa base de données les conseils des internautes sur ses musiques, ou les autres musiques que les gens lui proposeraient, les ratios et les chiffres que dégageraient ses publications, pour gonfler son expérience.
Nos chers amis Japonais (enfin), ont réalisé une prouesse récemment dans un domaine très proche de celui qui nous intéresse : ils ont fait chanter des paroles écrites par un humain, sur une musique composée par un humain, par une IA. Un nouveau genre musical est né : Le Vocarock, qu’ils ne sont plus les seuls à pratiquer. Au Japon le personnage virtuel Hatsune Miku est une véritable star, l’apparence d’une jeune fille stylisée en Manga, dansant sur une musique mi rock mi électro avec une bonne dose de “Geek universe” a réussi à percer les charts, remplir des salles de concerts immenses (le tout avec des projections en 3D, “hologramme” sur écran). Aujourd’hui Hatsune est une véritable idole au pays du soleil levant. J’avoue bien volontiers que leurs mœurs et leur culture m’échapperont toujours, mais je reconnais, qu’encore une fois, ils ont su devancer tout le monde, comme si leur pays tout entier, dans certains domaines avait 20 ans d’avance sur les pays occidentaux.
Une question d’ordre philosophique se pose : la création artistique d’une IA musicale est-elle une œuvre d’art à part entière ? Comme les exemples cités ci-dessus, ou dans le domaine pictural avec par exemple le projet The Next Rembrandt – qui après avoir étudié toutes les œuvres du maître a réalisé un “tableau” tiré de sa propre expérience et totalement original, à peine retouché par une main humaine, il a, à l’époque, trompé beaucoup de gens, médias compris. L’IA n’a pourtant aucune compréhension de ce qu’est l’art ni de la notion du beau. Il faut dire que le projet utilisait une imprimante 3D couplée à l’IA pour un résultat époustouflant. Est-ce de l’art quand il n’y a aucune volonté derrière la création ? Les machines étant, pour l’instant incapables de ressentir des émotions. C’est là une véritable question de fond, mais qui n’intéressera qu’une minorité de personnes. Le lambda se fiche de savoir qui a composé la dernière musique à la mode qui passe en boucle à la TV. Une marionnette est une marionnette et les véritables producteurs sont bien souvent dans l’ombre, alors qu’ils soient humains ou non…
Alors, même si les IA ne sont pas encore aptes à nous satisfaire émotionnellement et à satisfaire les grandes firmes financièrement, nous sommes sûrement à l’aube d’une ère nouvelle pour la musique, pour la production et même peut-être pour l’art lui-même. Certains verront d’un œil intrigué et bienveillant ces informations, d’autres s’en inquiéteront peut-être, mais il est certain que pour l’instant, rien ne semble menacer le progrès dans sa marche forcée.