#42 Deep generative Bach

Deep generative Bach

Deep generative Bach

Hace ya unos 71 años que Turing escribió el artículo Computing Machinery and Intelligence. En aquel texto, el matemático inglés delineó los puntos de partida fundamentales para el desarrollo de lo que en la década del 50’, en la conferencia de Dartmouth, se empezó a denominar “Inteligencia Artificial”. Su propuesta ya es un clásico: si una computadora logra engañar a más de la mitad de un grupo de personas en un juego de imitación, ¿estamos en condiciones de plantear la posibilidad de una acción inteligente en las computadoras?

La pregunta queda -y quizás siempre quedará- como una consigna abierta que abre un debate prácticamente interminable que se puede encarar desde decenas de ángulos. En el mismo artículo, Turing anticipa algunas objeciones y contra-objeciones que podrían hacerse a la idea de una computadora inteligente, para testear la hilacha de ambos lados. A una de ellas la llama “La objeción de la conciencia”. Jefferson, un matemático de esa época conocido por Turing, lo decía del siguiente modo:

“Hasta que una máquina pueda escribir un soneto o componer un concierto debido a las emociones y pensamientos que tuvo, y que no sea debido al uso de símbolos al azar, podremos estar de acuerdo que máquina es igual a cerebro significa no sólo que lo escriba, sino saber que lo escribió. Ningún mecanismo podría sentir (y no sólo una mera señal artificial, cosa fácil de hacer) placer por sus éxitos, sentir pesar cuando se le funde una válvula, sentirse bien con un halago, sentirse miserable por sus errores, estar encantado por el sexo, estar enojado o deprimido cuando no consigue lo que quiere.”

O sea que, según Jefferson, una computadora podría componer una melodía que bien podría haber sido creada por Bach. Pero si esa creación no naciera de una pasión, una intención, un motivo, un afecto, o una consciencia de su realización, entonces no estaríamos hablando de lo mismo a lo que aludimos por “inteligencia” o “creatividad”. Lo cierto es que para el año 1949, la hipótesis de una computadora que componga música era razonable, pero aún no había sido probada con la tecnología existente. Hoy por hoy, al año 2021, ya tenemos una rica tradición implementaciones de machine learning que producen piezas musicales complejas. Entre las más actuales y famosas están la plataforma de Google proyecto Magenta; el sistema de Sony Flow Machines, que compuso una canción llamada Daddy’s Car; Jukedeck y Amper, que son utilizadas por músicxs amateurs y profesionales para guiar el proceso creativo; o AIVA, un software que utiliza técnicas de deep learning para producir piezas musicales que luego son interpretadas por orquestas. Por otra parte, hay varios ejemplos de artistas del mainstream como David Bowie, Toro y Moi, The Flaming Lips o Arca que han utilizado algunas formas de intervención de música artificial en sus composiciones. Un caso emblemático es el del grupo musical SKYGGE, que en el año 2018 lanzaron el disco Hello World, presumiblemente el primer disco pop compuesto enteramente con el acompañamiento de la inteligencia artificial.

Todas estas nuevas experimentaciones ya están teniendo un impacto en la industria musical y seguirán teniéndolo al responder a una premisa simple: la apabullante cantidad de contenidos que se crean día a día en las plataformas virtuales hace que se necesite más música que nunca, y la automatización parece ser una salida tentadora. Incluso la artista canadiense Grimes se aventuró a decir que “Cuando logremos una inteligencia artificial general, las computadoras van a volverse mucho mejores en crear arte que lxs humanxs”, haciendo reflotar al famoso cuco de si las máquinas van a reemplazar a las personas en algo tan íntimo y significativo como la creación musical.

La objeción de la conciencia revisitada

¿Puede decirse que todas estas interesantes implementaciones tecnológicas sean genuinamente “creativas?, O más aún ¿puede decirse que están guiadas por una “inteligencia” propia? Pareciera que, si lo ponemos en estos términos, el debate sigue siendo el mismo hoy que en 1949. Por un lado, podemos decir que si una plataforma digital elabora una pieza musical nueva, entonces estamos hablando de un acto creativo ipso facto, y si no hay sentimientos, pasiones o una consciencia involucrada en el proceso, es porque los programas no necesitan de ellos para producir nuevas creaciones que sean valoradas y apreciadas por el público. Por otro lado, siempre podrá objetarse que la creación musical humana está hecha por vidas basadas en carbono, con cerebros, fluidos, hormonas, pasiones, sentimientos y conciencia. Todos elementos que no le atribuirías a una laptop. En definitiva, los intercambios de impulsos eléctricos dentro de la arquitectura de un ordenador comandados por un programa, no dan como resultado la experiencia vívida que se tiene al rasguear un acorde o escuchar una melodía.

Posiblemente nada de esto importe. La parte jugosa de la música artificial no está en el radar del debate de “La objeción de la conciencia”. Tampoco pasa por preguntarnos si las máquinas reemplazarán a lxs músicxs. Si hacemos un poco de historia, esa preocupación no es nueva: en la década del 70’, cuando los sintetizadores digitales, las cajas de ritmos automáticas y otras formas de automatización musical empezaban a volverse masivas, no eran pocos quienes advertían que esto signficaría la muerte de la música, el fin de la intervención humana en la creación musical. Algo así como la performance que hace Kraftwerk en We Are The Robots, pero real: una música completamente controlada por máquinas, despojada de seres humanxs. La realidad es que eso no sucedió; todas esas tecnologías de automatización fueron incorporadas como herramientas para la composición y producción musical, y permitieron la proliferación de entornos creativos y estilos musicales como el hip-hop, el house, el new wave, diversas variantes de post-punk y música experimental, entre muchísimas otras formas de apropiación musical. A priori, nada indica que con la música artificial no pase algo parecido.

Cuando desmitificamos la inteligencia artificial y la entendemos como una compleja interfaz humanx-computadora, pasamos a ver algo obvio, pero nunca trivial: no son las máquinas solas las que componen esta o aquella melodía, sino una red técnica acoplada entre grupos humanos y entornos computacionales, en los cuales se toma como datos de entrada un set sonidos y composiciones musicales existentes, se procesa esa información a nivel computacional en busca de patrones, y se arroja como output creaciones imprevistas. La creatividad humana, vista así, está entrelazada en la música artificial en varios niveles: en los entornos computacionales diseñados, en las estrategias algorítmicas implementadas, en los desafíos que se asumen para lograr cierta calidad y originalidad, en los datasets compuestos por creaciones musicales humanas preexistentes y en el ulterior feedback entre los outputs elaborados por los programas y la persona que interactúa de manera recíproca para complementar, ajustar, modular o redefinir la creación musical arrojada por el programa en cuestión.

La música artificial casi que indudablemente será un caso bastante diferente de las ya conocidas formas de automatización musical. Pero antes que perdernos en interminables discusiones metafísicas acerca de si los programas son inteligentes o no, o si reemplazarán a lxs músicxs o no, es más propicio adentrarse en el mundo de posibilidades de acción que ofrecen las herramientas de

machine learning

para estimular la creatividad musical, definir perfiles, intervenir en técnicas de producción y postproducción, y en el camino, ir encontrando nuevas formas de entender, escuchar y crear música. Resulta difícil imaginar que en 10, 20 o 30 años el deseo humano de crear música quede totalmente erradicado por la música artificial. Parece más plausible, en su lugar, observar y anticipar formas de cooperación retroalimentativa entre máquinas y humanxs en las que la música mutará en formas que aún no imaginamos.