Archives du mot-clé Center for Music Experiment

Démocratisation de l’informatique musicale

Retour au texte original anglais : Democratisation of Computer Music

 


 

Comment le passé a le don de vous rattraper, ou
La démocratisation de l’informatique musicale,
10 ans après.

Warren Burt

Traduction de l’anglais: Jean-Charles François[1]

 

Warren Burt est compositeur, performeur, fabricant d’instruments, poète sonore, cinéaste, artiste multimédia, écrivain et créateur d’œuvres visuelles et sonores…

 

Sommaire :

1. Introduction – La Conférence internationale 2013 Computer Music
2. 1967-1975 : SUNY Albany et UCSD
3. 1975-1981 : Australie, Plastic Platypus
4. 1981-75 : Micro-ordinateur monocarte à petit budget
5. 1985-2000 : Accessibilité accrue
6. Période post-2000 : L’informalité des trains de banlieue et l’informatique en train sans lieu
7. Aujourd’hui : L’utopie des technologies musicales et les musiciens impertinents
8. Conclusion


 

1. Introduction – Computer Music, La Conférence internationale 2013

En 2013, l’International Computer Music Conference s’est tenue à Perth en Australie. Le comité d’organisation était présidé par Cat Hope[2], qui a eu la gentillesse de m’inviter à prononcer l’un des discours d’ouverture. Le sujet de mon exposé était la « démocratisation » de « l’informatique musicale ». Je mets ces termes entre guillemets, parce que les deux termes faisaient l’objet de controverses (ils le sont toujours), même si leur signification a peut-être changé, voire beaucoup changé, au cours des dix ans qui viennent de s’écouler. Mon exposé s’est situé dans des perspectives australiennes, parce que c’est là que j’ai vécu la plupart du temps pendant les 47 dernières années. Il s’agissait pour moi de faire comprendre au public de ce colloque international, dans quel contexte particulier celui-ci se déroulait. Le contexte culturel de l’Australie est à certains égards très différent et en même temps très proche de ce qui se passe en l’Europe, en Amérique du Nord, ou dans d’autres parties du monde. Je me souviens de Chris Mann, un poète et compositeur, qui, en 1975, en m’accueillant à l’aéroport lors de ma première visite en Australie, m’a dit, « OK, voici ce qu’il faut savoir : on parle la même langue, mais ce n’est pas la même langue ». Les expériences que j’ai vécues au cours des années suivantes m’ont permis de découvrir, dans les détails les plus exquis, les nombreuses nuances qui différencient l’anglais australien des autres versions de la langue anglaise dans le reste du monde. Et en fait, l’anglais parlé par les Australiens il y a cinquante ans n’est pas celui utilisé aujourd’hui. Je me suis probablement trop habitué à la langue au fil du temps, mais beaucoup des caractéristiques uniques de l’anglais-australien que j’avais remarquées à l’époque ont à présent disparues.

Ce que j’ai voulu montrer à l’époque avait un double objectif : premièrement, que les progrès des technologies rendaient les outils de « l’informatique musicale » plus accessibles à un grand nombre de personnes, et deuxièmement, que la définition de ce qu’on considérait alors comme « informatique musicale » était en train de changer. En 2013, Susan Frykberg[3] m’avait posé la question de savoir si je parlais de « démocratisation » ou bien de « commercialisation » ? Cette question m’avait paru pertinente à l’époque. Depuis lors, la prolifération des téléphones portables et autres objets des technologies numériques qu’on peut tenir dans sa main ont rendu son argument initial moins convaincant qu’hier, même s’il garde aujourd’hui son mordant. Avec « le monde » maintenant complètement unifié par des outils de communication miniaturisés, il semble que les technologies ne sont devenues ni démocratisées, ni commercialisées (ou à la fois démocratisées et complètement commercialisées) mais simplement omniprésentes dans notre environnement culturel continu. Richard Letts, le rédacteur en chef de Loudmouth, un magazine électronique consacré à la musique, vient de me demander d’écrire un article sur l’état actuel des technologies musicales. Pour montrer à quel point le secteur des technologies musicales de pointe était partout répandu, j’ai axé mon article sur les technologies musicales disponibles sur l’iPhone, en montrant que la plupart des applications technologiques musicales sophistiquées du passé étaient désormais disponibles, dans une certaine mesure, sur le plus répandu des appareils électroniques grand public.

Le terme « Informatique musicale » a suivi la même voie. En 2013 il faisait référence à la musique expérimentale utilisant des ordinateurs et aux musiques électroniques populaires [dance musics] fabriquée avec des technologies numériques. Il est clair que le nombre de musiques produites à l’aide des technologies musicales s’est encore élargi. Avec humour, j’ai souligné que le périodique mensuel britannique « Computer Music » publiait surtout des articles de type « mode d’emploi » (« tutoriels ») – pour des personnes produisant de la musique de danse « électro » numérique dans leur chambre à coucher plutôt que des articles traitant des aspects les plus subtiles de la synthèse de pointe. Il y a quelques années, Future Music, l’éditeur britannique de « Computer Music », a racheté le magazine américain « Keyboard » et « Electronic Musician », qui de temps en temps publiait des articles sur des sujets intéressant le monde de « l’avant-garde », et aujourd’hui, les deux publications appartenant à « Future Music » ont non seulement des sphères d’intérêt qui se chevauchent, mais certains articles publiés dans l’un apparaissent également dans l’autre. L’accent continue d’être mis sur la musique de pop/dance réalisée à l’aide des technologies commercialement disponibles, mais au fur et à mesure que le temps passe, certains sujets considérés comme marginaux, tels que la synthèse granulaire, sont désormais abordés dans leurs pages, sans que soit généralement mentionnée les personnes qui ont été les pionniers de ces techniques.

Pour montrer combien le terme « informatique musicale » a changé au cours des ans, j’avais inclus dans mon texte original un bref aperçu de ce que j’avais réalisé au cours du temps en expliquant en quoi ces activités s’inscrivaient ou non, aux différentes époques, dans le cadre de « l’informatique musicale ». Ma démarche se voulait humoristique et en grande partie ironique.

 

2. 1967-1975: SUNY Albany et UCSD

Il est temps évoquer un peu mon autobiographie. J’ai pu observer combien le terme d’informatique musicale a changé sans arrêt de sens depuis les années 1960. Pour commencer, selon quelle série télévisée on regardait dans notre enfance, on peut aller voir nos chères machines Waybac ou Tardis. En 1967, j’ai commencé mes études à l’Université d’État de New York à Albany [State University of New York at Albany]. Peu de temps après, le département de musique a installé un système Moog de très grande taille conçu par Joel Chadabe[4], sur lequel un dispositif numérique avait été construit par Bob Moog. Ce système permettait divers types de synchronisations et de déclenchements rythmiques. L’Université avait aussi un centre informatique, où l’on pouvait développer des projets impliquant des piles de cartes perforées traitées en temps différé. Je n’étais pas attiré par les cours d’informatique, mais j’ai été immédiatement attiré par le Moog. Au contraire, deux de mes amis étudiants, Randy Cohen et Rich Gold, ont commencé immédiatement à travailler au centre informatique, en déposant leurs piles de cartes perforées et en attendant très longtemps leurs résultats. Si je me souviens bien, Randy avait écrit un programme pour produire de la poésie expérimentale. J’ai été très enthousiasmé par les résultats de sa démarche qui manipulait le sens et le non-sens des mots d’une manière que je trouvais très habile. Randy, qui s’est lancé peu de temps après dans une carrière d’auteur de comédie, pensait au contraire que la quantité de travail nécessaire pour arriver à un résultat que seuls quelques cinglés comme moi pourraient apprécier, n’en valait pas la chandelle. Ainsi, dès le début de mes études, j’ai eu le pressentiment qu’une division existait entre les « musiciens électroniques » et les « artistes de l’informatique » et tout au moins pour le moment, je me plaçais du côté des « musiciens électroniques ».

En 1967, je suis allé faire des études à l’Université de Californie San Diego, et j’ai très vite été impliqué dans les activités du Center for Music Experiment (CME)[5]. Cette structure incluait en son sein des studios de musique analogique et numérique, ainsi que des projets de danse, de multimédia, de vidéo et de performance art. Il y avait un énorme ordinateur[6] tendrement entretenu par plusieurs de mes amis. Ed Kobrin[7] était alors présent avec son système hybride qui comportait un petit ordinateur qui produisait des contrôles de tension pour des modules analogiques. J’étais responsable d’un petit studio qui avait un synthétiseur Serge[8], un système appelé « Daisy », construit par John Roy et Joel Chadabe (un générateur d’information aléatoire très intéressant) et des modules analogiques construits par un autre de mes collègues, Bruce Rittenbach. On pouvait aussi utiliser des tensions de contrôle issus de la sortie de l’ordinateur principal. Mon propre travail consistait pour l’instant à utiliser des « appareils à commandes manuelles », le monde des « lignes de code » étant pour moi encore trop opaque, même si j’avais travaillé sur plusieurs projets où d’autres personnes généraient des signaux de contrôle avec des « lignes de code » pendant que je manipulais les boutons des « appareils à commandes ». J’ai pu aussi faire le constat de la présence d’une division sociale : alors que moi-même et mes amis chanteur et violoncelliste attendions avec impatience la fin de la journée pour nous rendre à la plage Black’s Beach[9], nos amis informaticiens continuaient à travailler sur leur code, généralement tard dans la nuit. À l’époque, le travail sur ordinateur impliquait nécessairement une certaine obsession qui distinguait les « vrais musiciens informaticiens » du reste « d’entre nous ».

En fait, cette distinction s’avère être un peu ridicule, elle rappelle les sempiternels débats sur les « vrais hommes » ou son alternative non sexiste, la « personne authentique ».

Déjà à l’époque, mon intérêt portait sur l’idée de rendre les technologies plus accessibles. Mes amis de SUNY Albany, Rich Gold et Randy Cohen, qui étaient inscrits dans des études postdoctorales au California Institute of the Arts, m’ont fait connaître les travaux de Serge Tcherepnin et son « People’s Synthesizer Project ». L’idée était de pouvoir disposer d’un kit de synthétiseur pour à peu près 700$ qu’un groupe de personnes pouvait assembler. Le faible coût, l’accessibilité et le fait de faire partie d’un collectif étaient des éléments très attractifs. Par ailleurs, le synthétiseur était conçu par et pour des musiciens évoluant dans le cadre de la musique expérimentale. Le projet comportait également une part importante de ce qui allait être connu sous le nom d’autonomisation [empowerment], c’est-à-dire la possibilité de faire les choses par soi-même en complète autonomie. Au même moment, pour mon projet de maîtrise, j’avais commencé à construire un module de circuits électroniques connu sous le nom d’Aardvarks IV. Constitué de circuits numériques, avec des Convertisseurs Numérique à Analogique [DACs, Digital to Analog Converters] que j’avais moi-même bricolés, je l’ai décrit comme « un modèle intégré d’un programme particulier de composition sur ordinateur ». Mon besoin d’avoir des boutons à tourner – c’est-à-dire, d’avoir un dispositif capable d’être contrôlé physiquement en temps réel – restait une préoccupation majeure. Mon approche de la précision numérique était légèrement idiosyncratique. La singularité et le funk faisaient partie de mon esthétique.

Une illustration de ce qu’est le funk dans la conception de circuits électroniques peut s’observer dans la construction des DACs de Aardvarks IV. En suivant les suggestions de Kenneth Gaburo[10] j’ai utilisé des résistances de très basse qualité dans la fabrication des Convertisseurs Numérique à Analogique.

  plus d’informations sur Aardvarks IV

Au moment où les Convertisseurs Numérique à Analogique étaient considérés comme des dispositifs utilitaires qui devaient être le plus précis possible, dans la conception de ce module, j’ai essayé de traiter un dispositif utilitaire comme une source de variations et d’imprévisibilité créative. Cet intérêt pour l’imprévisibilité créative probablement me différenciait du reste des copains qui travaillaient dans l’arrière-salle du CME. Et en plus, je préférais aller à la plage Black’s Beach plutôt que de me trouver dans l’arrière-salle.

Les ordinateurs de cette époque étaient des monstres très avides, dévorant toutes les ressources se trouvant à proximité. Maintenant qu’ils ont totalement pris le pouvoir sur nos vies, ils peuvent se permettre d’être plus tolérants, mais en ce temps-là, il s’agissait de la survie du plus fort. Quand j’étais à UCSD, CME ne se limitait pas à la recherche sur l’informatique musicale. Le Centre hébergeait en son sein des projets se situant dans beaucoup de domaines différents. Lorsque ma partenaire, Catherine Schieve[11] est arrivée à UCSD au début des années 1980, le CME multidisciplinaire était en passe de devenir exclusivement un centre des arts informatiques, et elle aussi se souvient d’un fossé social entre les personnes travaillant dans l’informatique et le reste des musiciens et musiciennes. Ce qui différenciait aussi les « types de l’informatique » des autres, c’était la quantité de leur production. C’était encore normal pour une personne travaillant sur ordinateur de travailler de longs mois pour produire une pièce courte. Pour ceux et celles parmi nous qui voulaient produire beaucoup, rapidement, travailler uniquement avec des ordinateurs n’était pas la solution. Éventuellement, l’institution du CME a évoluée pour devenir le CRCA, le « Centre for Research into Computers and the Arts ». En 2013, je suis allé visiter le site internet du CRCA, et je me suis aperçu qu’il avait maintenant de nouveau mis l’accent sur la recherche multidisciplinaire, avec des projets assez passionnants. Cependant, j’ai appris par des personnes travaillant à UCSD en 2013 que depuis, le CRCA avait malheureusement fermé ses portes. Encore une institution qui mord la poussière !

 

3. 1975-1981 : Australie, Plastic Platypus

Entre à peu près les années 1980 et aujourd’hui, « l’informatique musicale » est devenue un domaine qui regroupe un très large éventail de points de vue esthétiques. Aujourd’hui, pratiquement le seul facteur commun qui unit ce champ d’activité est l’utilisation de l’électricité et, généralement, d’une sorte d’ordinateur (ou circuit numérique). Mais concernant les styles de musique, nous sommes entrés dans une période où « tout est possible ».

À la fin des années 1970 et au début des années 1980 les choses ont changé. De nouveaux ordinateurs de petite taille ont commencé à apparaître et ont été appliqués aux tâches de production musicale. Plusieurs systèmes très prometteurs ont été construits[12] qui ont consisté à fondamentalement dissimuler l’ordinateur derrière une sorte d’interface musicale conviviale. Au même moment, toute une série de micro-ordinateurs ont fait leur apparition, habituellement sous la forme de kits à construire soi-même. Un fossé s’est rapidement creusé dans le monde de l’informatique musicale entre les « personnes de l’ordinateur central » qui préféraient travailler sur les ordinateurs très onéreux qui existaient dans des institutions et les « adeptes de la performance en temps réel » qui préféraient travailler avec leurs propres petits systèmes, microprocesseurs portables, à la portée de leurs moyens financiers. L’ouvrage de Georgina Born, Rationalizing Culture[13], une étude sur la sociologie de l’IRCAM dans les années 1980, a permis de voir comment George Lewis[14], avec son travail sur micro-ordinateur, a réussi à s’insérer dans le monde de l’IRCAM basé sur l’utilisation d’ordinateurs centraux et la présence de structures hiérarchiques.

En 1975, je suis arrivé en Australie. J’ai mis en place un studio de synthèse analogique et de synthèse vidéo à l’Université La Trobe à Melbourne. Dans cette université, Graham Hair[15] a commencé à travailler sur l’informatique musicale sur un ordinateur PDP-11. En poursuivant mes travaux sur « Aardvarks IV » réalisés à UCSD, je me suis remis à travailler avec des puces numériques. Inspiré par ce qu’avait réalisé Stanley Lunetta[16], j’ai conçu un module, « Aardvarks VII » en utilisant exclusivement des puces compteur/diviseur 4017 et gate puces 4016. Il s’agissait de la forme de conception numérique la plus rudimentaire. Les puces étaient simplement soudées sur des cartes de circuits imprimées. En d’autres termes, la façade en plastique du synthétiseur comportait les connexions de circuit imprimées à l’arrière, et les puces étaient directement soudées sur ces connecteurs imprimés. Pas de mise en mémoire tampon, rien d’autre. Juste des puces. Il était principalement conçu pour travailler avec des fréquences accordées en intonation juste et il m’a permis de jouer avec beaucoup plus de modules. Tout cela en temps réel. L’esthétique du patching restait pour moi le paradigme, basé sur la manipulation physique en temps réel et sur des modules combinatoires. À cette époque, en 1978-79, j’avais l’impression d’être devenu un musicien électronique qui travaillait avec des circuits numériques, mais je n’étais pas encore cette bête rarissime qu’est le « musicien informaticien ».

Simultanément, j’ai été amené à utiliser la technologie la plus rudimentaire – c’est-à-dire l’électronique grand public la moins chère, au bas de l’échelle économique – pour faire de la musique. Ron Nagorcka[17] (que j’avais rencontré pour la première fois à UCSD) et moi-même nous avons formé un groupe nommé Plastic Platypus qui faisait de la musique électronique vivante avec des magnétophones à cassette, des jouets et de la camelote électronique [electronic junk]. Certaines de nos installations étaient très sophistiquées, la nature low-tech et low-fi de nos outils dissimulant une pensée systémique très complexe, mais notre travail est né d’un questionnement idéologique sur la nature de la haute-fidélité. Alors qu’à l’occasion, il était pour nous très agréable de travailler dans des institutions qui pouvaient se payer des haut-parleurs de qualité (etc.), nous étions aussi conscients que les coûts des systèmes audiophiles étaient hors de la portée de beaucoup de gens. Étant donné que l’une des principales raisons pour lesquelles nous avons créé le groupe était de travailler sur les types d’équipement les plus courants afin de montrer que la musique électronique pouvait être accessible au plus grand nombre, nous avons adopté la qualité sonore du magnétophone à cassette, du minuscule haut-parleur suspendu à un fil se balançant, celle du piano jouet ou du xylophone jouet. Comme le disait Ron avec éloquence, « l’essence-même des médias électroniques c’est la distorsion ». La technologie, bien sûr, à la longue allait nous rattraper et l’accès des « masses » à une bonne qualité sonore est devenue une question sans objet vers la fin des années 1980, mais notre travail sérieux avec les problèmes et joies de la technologie de basse qualité entre temps nous a beaucoup amusé.

Ron et moi (et plusieurs autres personnes qui travaillaient alors avec la technologie des cassettes, comme par exemple Ernie Althoff[18] et Graeme Davis[19]) on était généralement d’accord sur la manière d’envisager l’utilisation de cette technologie. Un processus de feedback multigénérationnel, tel que celui illustré dans l’œuvre d’Alvin Luciers, « I Am Sitting in a Room »[20], était à la base d’une grande partie de nos productions. Dans ce processus, un son est produit sur une machine et enregistré simultanément sur une deuxième machine. La seconde machine est ensuite rembobinée et la lecture de cette machine est enregistrée sur la première machine. En répétant plusieurs fois ce processus, il en résulte d’épaisses textures sonores, entourées d’une rétroaction acoustique qui s’accumule progressivement. Dans la pièce de Ron « Atom Bomb », pour deux interprètes et quatre magnétophones à cassette, il a eu l’idée d’ajouter l’action d’avance et de retour rapides des cassettes en cours de lecture pour créer une distribution aléatoire dans le temps des sources sonores au fur et à mesure qu’on les enregistrait. A la fin de cette section, les quatre cassettes étaient rembobinées et rediffusée aux quatre coins de la salle, créant ainsi une « pièce pour bande électroacoustique » quadriphonique que le public avait vu assemblée devant lui. Dans ma pièce « Hebraic Variations », pour alto, deux magnétophones à cassette et haut-parleur portable attaché à une très longue corde, je jouais (ou essayait de jouer) la mélodie de « Summertime » de George Gershwin (je suis un altiste de niveau très insuffisant). Pendant que je jouais la mélodie en boucle sans fin, Ron enregistrait à peu près 30 secondes de mon jeu sur un magnétophone à cassette (« l’enregistreur »), puis il transférait cette bande sur une deuxième machine (le « lecteur »), recommençait à enregistrer sur la première machine, et puis faisait tourner en cercle au-dessus de sa tête le haut-parleur de la seconde machine pendant à peu près une minute. Cela créait des décalages Doppler et une texture plus épaisse par rapport à mon jeu sur l’alto. Après 5 ou 6 cycles de ce procédé, un paysage sonore d’une très grande densité était assemblé, constitué par des glissandi, des notes pas très justes et de nombreux types de clusters sonores. La médiocrité de la technologie liée à celle de ma production se multipliaient mutuellement, créant un monde sonore micro-tonal épais.

L’entente entre Ron et moi dans l’élaboration du répertoire de Plastic Platypus a été presque unanimement parfaite. La composition des pièces a été laissée à la responsabilité de chacun, et ensuite les désirs de chaque compositeur ont été pris en compte du mieux possible. Le niveau de confiance et d’accord entre nous était très élevé. Il y deux ans, Ron a retrouvé des cassettes des performances de Plastic Platypus, il les a copiées et me les a envoyées. Beaucoup de nos anciens moments favoris étaient présents et étaient instantanément reconnaissables. Mais de temps en temps, nous avons été désarçonnés tous les deux à l’écoute d’une pièce – on n’arrivait pas à déterminer qui avait composé la pièce ou à quelle occasion elle avait été enregistrée. Ces pièces étaient peut-être des improvisations qui, par les processus utilisés, obscurcissaient l’identité de qui en était l’auteur.

 
Nogorcka

Ron Nagorcka au Clifton Hill Community Music Centre, 1978

 

En plus de mes travaux sur les synthétiseurs analogues, de la fabrication de mes propres circuits numériques et de mes travaux avec la low-tech, j’ai alors commencé à m’impliquer sérieusement dans l’informatique[21]. Lors de mes séjours aux Etats-Unis, Joel Chadabe m’a permis de travailler gracieusement dans son studio et pour la première fois, j’ai effectivement utilisé un code pour déterminer des évènements musicaux. Les résultats étaient produits presque en temps réel, ce qui donnait satisfaction au « tourneur de boutons » que j’étais. Plus tard, de retour en Australie, en 1979, j’ai travaillé sur le Synclavier à l’Université d’Adélaïde à l’invitation de Tristam Cary[22] et en 1980, à Melbourne, j’ai demandé à avoir accès au Fairlight CMI au Victorian College of the Arts et j’ai appris tous les tenants et les aboutissants de cette machine. J’ai contracté le virus de posséder mon propre système informatique[23]. Mon choix s’est porté sur un micro-ordinateur Rockwell AIM-65. Je me suis donc plongé dans l’apprentissage de cette machine et j’ai construit pour cela ma propre interface de manière extrêmement idiosyncratique. Ensuite, ayant élargi la mémoire du AIM à 32k, j’étais super excité [I was hot]. Il était maintenant possible de réaliser de la synthèse des sons en temps réel (en utilisant des formes d’ondes dérivées du code dans la mémoire). En utilisant le AIM-65 de cette façon et en traitant sa sortie avec le Serge, je pense que j’étais finalement devenu un « musicien informaticien », mais je ne sais pas si j’en étais un « véritable ». Plus précisément, mon approche restait toujours idiosyncratique, et mon penchant pour rendre l’équipement plus accessible à tous en donnant en exemple ma propre démarche (un marxiste aurait un mouvement de répulsion à cette idée) semblait, au moins dans ma tête, me distinguer encore de mon homme de paille mythique, l’élitiste, obsédé par la perfection et la répétabilité, opérateur d’ordinateurs institutionnels qui ne veut toujours pas aller à la plage.

 

4. 1981-75 : Micro-ordinateur monocarte à petit budget

Mes aventures avec le micro-ordinateur mono-carte pas cher m’ont occupé par intermittence pendant les années 1981-85[24]. Les travaux réalisés avec ce système entre 1982 et 1984 ont été regroupés sous le titre d’Aardvarks IX. Un des mouvements a été nommé « Three Part Inventions (1984) ». Il s’agissait d’une pièce semi-improvisée dans laquelle j’utilisais le clavier de mon ordinateur comme un clavier musical. Programmé en FORTH, j’étais capable de réaccorder le clavier sur n’importe quelle gamme micro-tonale en appuyant sur une touche[25]. Dans cette pièce, je combinais mes capacités de « musicien informaticien » avec mon intérêt pour la technologie démocratisée grâce à des coûts abordables et mon intérêt pour les formes de diffusions musicales non publiques. Chaque matin (je pense que c’était en juin 1984) je m’asseyais et j’improvisais une version de la pièce, en enregistrant cette improvisation du matin sur une cassette de haute qualité. Je pense que j’ai réalisé 12 versions uniques de la pièce de cette manière. J’ai aussi réalisé encore une autre version de la pièce, que j’ai enregistrée sur un magnétophone à bobines et je l’ai gardée pour l’utiliser dans la version enregistrée de l’ensemble du cycle. Chacune des 12 versions uniques de la pièce a été envoyée en cadeau à une de mes connaissances. Bien sûr, je n’ai pas gardé trace de quelles versions j’avais amicalement envoyé aux 12 personnes. C’est ainsi que dans cette pièce, j’ai pu combiner mon intérêt pour les systèmes d’intonation micro-tonale, l’improvisation, les processus électroniques en temps réel, l’utilisation des technologies bon marché (ou moins chères) (l’ordinateur AIM et le magnétophone à cassettes), l’art par courrier postal personnel, et les réseaux non publics de distribution de la musique, tout ceci intégré dans une seule pièce. J’ai voulu tout avoir – une recherche sérieuse high-tech et des réseaux d’édition et de distribution prolétaires, réalisés avec des circuits électroniques fabriqués à la maison et une informatique de niveau amateur. Il n’a pas été surprenant de constater que certains de mes amis se situant dans la « sphère haute » de « l’informatique musicale » aient exprimé un certain nombre de points de divergence concernant mes choix dans cette pièce d’instrument, de performance et de diffusion.

Quelques questions à l’époque semblaient pertinentes et, dans une certaine mesure, elles le sont encore aujourd’hui. Une des questions est : « À quel point est-on prêt à construire la totalité des choses par soi-même de la cave au grenier ? » Je pense que la raison pour laquelle on voulait effectuer ce travail de construction était que les équipements étaient onéreux et surtout confinés dans les institutions. Aujourd’hui, on dispose d’un éventail de possibilités allant d’applications limitées ne faisant qu’une seule chose correctement (avec un peu de chance) à des projets dans lesquels on construit soi-même ses propres puces et leur mise en œuvre. Même si les exemples que j’ai donnés sont un peu extrêmes, il s’agit là de l’éventail des choix qui s’offraient à nous à l’époque : le bricolage artisanal ou bien le prêt-à-porter sur catalogue, et dans quelle proportion ?

Une autre question concernait la notion de propriété. Était-on dans la situation d’utiliser les outils de quelqu’un d’autre, que ce soit ceux d’une institution à laquelle on était associé ou l’équipement d’un ami lors d’une visite chez lui ? Ou bien était-ce la situation d’utiliser ses propres outils qu’on avait été capable de développer dans une relation de longue durée ? À ce stade de ma vie, je faisais les deux à la fois. Encouragé par l’exemple de Harry Partch[26],qui pendant mes années à UCSD (1971-75) était encore en vie et installé à San Diego et directement encouragé par mon professeur Kenneth Gaburo, j’ai pris la décision que, même s’il était possible de prendre avantage des facilités offertes par les institutions si elles étaient disponibles, je préférais posséder mon propre équipement. Ce qui voulait dire que j’étais disposé à ce que l’ensemble de mes activités soit déterminé par mon pouvoir d’achat. Ainsi, une exploration intense de la micro-tonalité était rendue possible par les outils disponibles à bas prix (ou que j’avais la capacité de construire), mais une exploration sérieuse du son multicanal n’était pas à l’ordre du jour, parce que je ne pouvais me payer ni l’espace ni les haut-parleurs qu’on pouvait trouver pour cet usage. Pourtant, j’ai pu réaliser des projets utilisant à la fois des haut-parleurs peu orthodoxes et de la spatialisation sonore. Voici deux photos du Grand Ni, une installation à l’Experimental Foundation, Adelaïde (Australie).

 
Grand Ni 1

Warren Burt : Le Grand Ni, Experimental Art Foundation, Adelaïde, 1978, Aardvarks IV (la boîte argentée verticale).
Aardvarks VII (le panneau plat placé devant Aardvarks IV), transducteurs attachés à des panneaux publicitaires en métal utilisés comme haut-parleurs.
Photo : Warren Burt.

 
Grand Ni 2

Le Grand Ni, 1978 – vue sur les panneaux en métal utilisés comme haut-parleurs.
Photo : Warren Burt.

 

Voici un extrait du 5ème mouvement du Grand Ni. Ce mouvement est diffusé par des haut-parleurs normaux, pas par les haut-parleurs en sculpture métallique :

 

Warren Burt, « Le Grand Ni », extrait du 5ème mouvement.

 

Plus récemment, j’ai eu peu d’opportunité de réaliser des travaux impliquant des systèmes de son multicanaux, car je n’ai pas été en situation d’avoir accès à des espaces et du temps pour le faire, mais il y a peu, j’ai reçu une commission du MESS, le Melbourne Electronic Sound Studio, pour composer une pièce pour leur système de son à 8 canaux. Cela a eu lieu en septembre-octobre 2022 et le 8 octobre 2022 à la SubStation, à Newport dans l’Etat de Victoria, j’ai présenté la nouvelle œuvre pour 8 canaux en concert. (Merci beaucoup à MESS pour m’avoir donné l’opportunité de réaliser ce projet et pour l’assistance fournie).

Une autre raison pour disposer de son propre équipement a été – au moins en ce qui me concerne – la nature fragile des relations que j’ai pu avoir avec les institutions. Comme beaucoup d’entre nous, nous avons été mis dans la situation de consacrer plusieurs années à développer des équipements institutionnels, pour ensuite perdre notre emploi dans cette institution. Cette situation en Australie est de plus en plus grave. La plupart des personnes que je connais qui travaillent dans les institutions universitaires ne sont plus que des vacataires avec des contrats renouvelables à l’année. Même le statut « d’employé permanent », déjà fort éloigné des positions avec garantie d’emploi à vie, mais qui est au moins quelque chose, semble être de moins en moins offert. Quant aux Teaching Assistants [étudiants de troisième cycle servant d’assistants à un membre de la faculté] ce n’est plus la peine de les mentionner – ils n’existent plus. En 2012, dans le cadre de mon emploi, j’ai dû faire de la recherche concernant l’état de l’enseignement des technologies musicales en Australie. J’ai découvert qu’à l’échelle nationale, dans la période 1999-2012, 19 institutions avaient soit supprimé leur programme de technologies musicales ou en avaient sévèrement réduit leur budget. Cela ne s’est pas seulement produit dans les petites institutions, mais les grands établissements ont été aussi partout impactés. Par exemple, quatre des principaux chercheurs en informatique musicale travaillant en Australie, David Worrall, Greg Schiemer, Peter McIlwain, et Garth Paine ont tous été licenciés des institutions qu’ils avaient contribué à développer pendant de nombreuses années. Notons qu’il ne s’agit pas de personnes ayant quitté volontairement leur poste universitaire avec un remplacement par une autre personne dans la foulée, mais ce sont les postes aux-mêmes qui ont été supprimés. Étant donné cette situation, ma décision prise il y a plusieurs dizaines d’années de « posséder mon propre studio » est aujourd’hui plus sage que jamais.

Voici une photo qui donne un exemple des résultats de mon « adresse au citoyen » au début des années 1980. Les sons produits lors de la performance incluaient : 1) Cliquetis de crevettes ; 2) Sons électroniques (à hauteurs déterminées) en réponse aux crevettes ; 3) Sizzzz de sons sous-marins de bateaux à moteurs ; 4) Vagues ; 5) Un gong trempé dans de l’eau ; 6) Tortillements d’oscillateurs retraçant l’amplitude de la production sonore d’un hydrophone ; 7) « La Mer » de Debussy jouée sous l’eau et traitée par les vagues ; 8) Les sons produits par le public ; 9) Mes paroles s’adressant au public ; 10) Mouettes. Cette performance qui a duré toute la journée a eu lieu au Festival de St Kilda[27], évènement orienté vers la large participation du public, sur la jetée de St Kilda en 1983.

 
StKilda

Adresse aux « citoyens » : Warren Burt: Natural Rhythm 1983. Hydrophone, water gongs,
Serge, Driscoll et modules bricolés à la maison, Gentle Electric Pitch to Voltage, haut-parleurs Auratone.
St. Kilda Festival, St. Kilda Pier, Melbourne.
Photo : Trevor Dunn.

Au milieu des années 1980, j’ai changé : j’ai commencé à utiliser des ordinateurs commerciaux. J’avais démissionné de l’université à la fin de 1981, et en tant que musicien indépendant, j’avais besoin d’un ordinateur moins onéreux. Le AIM-65 single-board micro-ordinateur que j’ai utilisé de 1981 à 1985, s’est éventuellement avéré ne pas être assez puissant, ni assez fiable, pour ce dont j’avais besoin. Une série de machines basées sur PC-Dos a alors suivi. Pendant tout ce temps-là, j’ai continué à m’intéresser à composer et à utiliser des systèmes de synthèse de manière non conventionnelle. Je me suis beaucoup amusé pendant un certain temps sur US, développé par les Universités d’Iowa et d’Illinois. Wigout de Arun Chandra[28] – une reconstitution de « Sawdust » d’Herbert Brün[29] – s’est avéré également une précieuse ressource. J’ai observé avec enthousiasme mes amies et amis en Angleterre, motivées par la même « éthique de la pauvreté et de l’enthousiasme-pour-l’accessibilité » à laquelle j’adhérais, développer le Composers’ Desktop Project, même si je n’ai pas réellement utilisé le CDP système avant un certain temps. J’ai étudié des programmes plus anciens quand ils étaient disponibles, tels que le PR1 de Gottfried-Michael Koenig [30] qui s’est avéré fertile pour quelques pièces de la fin des années 1990. Et je me suis trouvé dans la situation de m’impliquer avec des développeurs de logiciel et j’ai commencé à faire des tests bêta pour les aider. John Dunn (1943-2018) d’Algorithmic Arts a été l’un de mes plus constants collègues de travail pendant à peu près 23 ans, et j’ai créé un certain nombre d’outils disponibles sur ses programmes SoftStep, ArtWork et Music Wonk.

 

5. 1985-2000 : Technologies plus accessibles<

William Burroughs raconte une anecdote très amusante dans une de ses histoires au sujet d’un voyageur malheureux qui est invité par la Green Nun[31] à « voir le merveilleux travail effectué avec mes patients dans le service psychiatrique ». En entrant dans l’institution son comportement change. « À tout moment, vous devez obtenir la permission pour quitter la pièce ». Etc. Et donc les années ont passé. En ayant conscience du temps qui passe, on arrive maintenant au présent et ce qu’on voit c’est une corne d’abondance de dispositifs pour faire de la musique, de programmes (etc.), tous disponibles à bas coûts, etc.

À un certain moment dans les années 1980, les ordinateurs sont devenus plus petits et ils ont été dotés d’une foison de boutons et de capacités en temps réel, et ont cessé d’être le domaine exclusif de quelques personnes ayant accès à des studios bien dotés pour devenir accessible à pratiquement toutes les personnes intéressées. À condition évidemment d’avoir les connaissances adéquates, le statut social, etc. Et dans cette idée d’un ordinateur avec une pléthore de boutons de contrôle, j’aime bien la conception de l’interface du GRM [Groupe de Recherche Musicale] Tools en France. « Tools » en France. En suivant les idées de Pierre Schaeffer, ce qui a primé dans la conception de ce logiciel, c’est le fait de pouvoir contrôler tous les paramètres de l’extérieur, d’avoir beaucoup de possibilités de passer en douceur d’un réglage à un autre, et d’éviter d’avoir à manipuler une grande quantité de nombres dans le feu de l’action.

À un certain moment, vers (peut-être) la fin des années 1990, le nombre d’oscillateurs mis à disposition n’était plus un problème. La question de l’accessibilité s’est concentrée dès lors sur les moyens de contrôler un grand nombre d’oscillateurs. Je me souviens qu’Andy Hunt à l’Université de York travaillait sur Midigrid, un système mis à la disposition des personnes handicapées pour contrôler les systèmes de musique électronique par rapport à leur mobilité réduite. Le développement de ce système s’est arrêté en 2003. Il se trouve que cette année, une entreprise anglaise, ADSR Systems, a mis sur le marché un produit appelé Midgrid. Au vu de leur vidéo YouTube, je ne pense pas que les deux logiciels ont quoi que ce soit en commun. Et ces deux dernières années, l’équipe du AUMI – Adaptive Use Musical Instruments [Instruments de musique à utilisation adaptée][32] ont fait des avancées considérables pour développer des systèmes de contrôle de la musique pour les tablettes et ordinateurs portables qui rendent l’accès aux contrôles encore plus facile.

De plus, au cours des années 1990, l’accès à la qualité de la diffusion sonore (l’économie de la haute-fidélité) a cessé d’être un problème. C’est-à-dire, la question du désir et du confort est devenue plus importante que les aspects économiques. Les prix des équipements se sont écroulés, pour moins cher, on peut avoir de plus en plus de puissance. De nouveaux paradigmes d’interaction ont fait leur apparition, tels que l’écran tactile et d’autres nouveaux dispositifs de performance, et à peu près tout ce qu’on peut espérer avoir est maintenant disponible à un prix relativement bas. En face de cette abondance, on peut être déconcerté, accablé ou enchanté et se plonger dans l’utilisation de tous ces nouveaux outils, jouets et paradigmes mis à disposition.

Voici quelques photos qui illustrent certains des changements qui ont eu lieu pendant la brève histoire de « l’informatique musicale » :

 
Hrpsch

John Cage, Lejaren Hiller et Illiac 2, University od Illinois, 1968, en train de travailler sur HPSCHD.

 
Android

Les coulisses d’un salon professionnel, Melbourne 2013.
Chacune des tablettes Android travaillant à la sortie de l’ordinateur portable est plus puissante qu’Illiac 2
et coûte infiniment moins cher.
Photo : Catherine Schieve.

 
Mafra

Dispositif informatique par Warren Burt pour « Experience of Marfa » de Catherine Schieve.
Concerts Astra, Melbourne, 1-2 juin 2013.
Deux ordinateurs portables et deux netbooks contrôlés par des unités de contrôles Korg.
Photo: Warren Burt.

 
Marfa2 - Grande

Une autre vue du dispositif informatique de « Experience of Marfa ».
Notez le gong et l’orchestre artisanal de Surti Box derrières les ordinateurs.
Photo : Warren Burt.

 
RandCorp

Cette photo est pour rire.
Il s’agit d’une photo de 1954 de la RAND Corporation montrant comment on pouvait imaginer
à quoi ressemblerait l’ordinateur domestique standard en 2004.

 

6. Période post-2000 : L’informalité des trains de banlieue et l’informatique en train sans lieu

Il y a une ressource néanmoins qui déjà coûtait cher à l’époque, et qui l’est encore plus aujourd’hui. Cette ressource, c’est le temps. Le temps d’apprendre les nouveaux outils/jouets, le temps pour composer des pièces avec les jouets, le temps pour écouter les travaux des autres personnes et que les autres puissent écouter nos œuvres. En Australie, les conditions de travail se sont détériorées et les dépenses ont augmenté, de sorte qu’il faut maintenant travailler plus longtemps pour disposer de moins de ressources. L’époque semble révolue, du moins pour le moment, où l’on pouvait travailler trois jours de la semaine pour gagner assez d’argent pour exister et pouvoir disposer de quelques jours pour travailler sur sa production artistique. Dans notre société complètement dominée par l’économie, le temps consacré à des activités non économiques devient un véritable luxe. Ou bien, comme Kyle Gann l’a exprimé avec éloquence dans son blog Arts.Journal.com Post Classic, blog du 24 août 2013 :

En bref, nous sommes tous, chacun d’entre nous, en train d’essayer de discerner quel genre de musique il est possible de produire de manière satisfaisante, signifiante et/ou utile socialement dans le contexte d’une oligarchie contrôlée par le monde de l’entreprise. Il y a une myriade de réponses possibles, chacune ayant ses avantages et ses inconvénients sans qu’il y ait pour le moment de preuves d’un côté comme de l’autre. Nous conservons notre idéalisme et faisons le mieux que nous pouvons.

Un autre facteur de l’érosion de notre temps disponible est l’expansion des médias de communication. Je ne sais pas ce qu’il en est pour vous, mais sauf si j’éteins mon portable et mon courrier électronique, il est très rare qu’il y ait une période de plus d’une demi-heure où quelque chose ne réclame pas mon attention urgente, que ce soit sous la forme d’un texte, d’un coup de téléphone, ou d’un courriel. Cet état d’interruption constante du temps de travail, qui ne cesse de diminuer, est la situation dans laquelle beaucoup d’entre nous se trouvent.

Ma propre solution a été d’investir dans l’achat d’un casque supprimant les bruits et d’ordinateurs portables petits mais assez puissants, et après 2016, dans des tablettes, telles que l’iPad Pro, pour pouvoir travailler dans les excellents trains de banlieue de l’État de Victoria. Quand on est entouré de 400 personnes, que le modem est éteint, et que le casque nous empêche d’entendre le téléphone portable, alors on peut disposer d’au moins une heure, à l’aller comme au retour, pour se consacrer de manière ininterrompue à la composition. Cependant, je me demande bien quel est l’effet sur ma musique lorsqu’elle est composée dans un environnement aussi confiné, étroit et hermétique. Je continue à composer de cette manière et j’ai écrit beaucoup de pièces dans cet environnement. Dans cette pièce, « A Bureaucrat Tells the Truth » [Un bureaucrate dit la vérité] tirée des « Cellular Etudes » (2012-13) je combine des échantillons sophistiqués avec des sons bruts à 8 bits reconstruits avec amour dans le softsynth Plogue, Chipsounds :

 

Warren Burt, « A Bureaucrat Tells the Truth »

 

J’ai envoyé cette pièce à David Dunn et voici ses observations :

Une des questions formelles qui m’est venue à l’esprit a été l’idée que les échantillons sonores pour le contrôle midi sont des objets trouvés (de la même manière que tout instrument musical est un objet trouvé) qui portent en eux des constructions culturelles particulières (la tradition). La plupart des compositeurs veulent habituellement qu’une pièce se situe dans une ces traditions (bourges vs. Stanford vs. cage vs. orchestre occidental vs. musiques du monde vs. musiques bruitistes vs. jazz vs. musique spectrale vs. rinky-dink lo-fi diy etc.). C’est le cas généralement de compositeurs qui essaient de limiter leurs choix de timbres de manière à définir un contexte d’association particulier (genre). Dans ces pièces on laisse les cultures divergentes se frotter le nez jusqu’à ce qu’elles saignent. Et c’est vrai. Je veux jouer sur les deux tableaux, ou peut-être sur tous les tableaux. Je ne vois rien de mal à être à la fois hi-tech et lo-tech, à être à la fois complexe et élitiste, ET prolétaire.[33]

Peut-être que ma méthode de composition dans le confinement et l’isolement du train me fait accumuler côte à côte de plus en plus de cultures, tout comme ces personnes dans ce train, issues de tant de cultures, qui se serrent les unes à côté des autres.

La question du temps est donc plus que jamais un problème. L’une des raisons en est l’accélération sur le marché de la mise à disposition de matériels, qui dépasse de beaucoup ma capacité à les interroger sérieusement. L’une de mes stratégies pour composer consiste à étudier un appareil ou un logiciel et de me demander, « Quels en sont les potentiels pour la composition ? » Pas tellement « pour quel usage a-t-il été conçu », mais plutôt « comment peut-il être subverti ? » Ou bien si cela paraît trop romantique, peut-être de se demander, « Qu’est-ce que je peux faire avec cet outil que je n’ai pas déjà fait ? » Et « Quelle est la Structure Profonde contenue dans cet outil ? » En me souvenant des premières années de la musique électroacoustique, quand des gens comme Cage, Grainger et Schaeffer ont utilisé des équipements clairement conçus pour d’autres usages que celui de produire de la musique, je me trouve dans une situation similaire aujourd’hui. Le meilleur magasin de nouvel équipement musical que j’ai trouvé à Melbourne est StoreDJ, qui propose une bonne sélection, des prix modiques et un personnel connaisseur. Alors que Cage et ses amis se procuraient leur équipent dans le monde de la science et de l’armée, je trouve maintenant que je peux me procurer certaines de mes ressources dans l’industrie de la dance-music. Dans une période très récente (2020-22) je me suis impliqué dans la communauté VCV-Rack. Il s’agit d’un groupe de programmeurs, sous la direction d’Andrew Belt (voir aussi Rack 2) qui a construit des modules virtuels qui peuvent être assemblés ensemble, comme les modules analogues étaient utilisés (ils le sont encore aujourd’hui) pour créer des systèmes de composition complexes. J’ai contribué au projet NYSTHI d’Antonio Tuzzi qui fait partie du projet VCV, avec certaines de mes conceptions de circuits. On peut avoir accès à 2500 modules, certains d’entre eux étant des copies de logiciels de modules physiques existants, et d’autres sont des créations originales et uniques qui ouvrent la voie à l’exploration de nouveaux potentiels compositionnels. La distinction évoquée ci-dessus, entre l’industrie de la dance-music et les ressources mises à la disposition du monde de la « musique contemporaine » ou de la « musique expérimentale » a maintenant largement disparue. Il y a tant de nouvelles ressources disponibles, provenant de toutes sortes de concepteurs, avec toutes sortes d’orientations esthétiques, qu’on est submergé par la diversité des choix à faire.

Il y a deux ans j’ai dit en plaisantant qu’il y avait beaucoup trop de post-doctorants japonais dans les écoles d’ingénieurs du son avec beaucoup trop de temps libre pour créer de nombreux plug-ins gratuits intéressants, si bien qu’ils ne me laissaient que peu de possibilités d’être capable de tous les suivre. Maintenant, bien sûr, la situation s’est empirée considérablement, est-ce une bonne chose ? La quantité de ressources disponibles gratuitement, ou à très bas prix, dans le projet VCV Rack ou dans l’écosystème de l’iPad, est telle que je pourrais y passer plusieurs de mes prochaines vies. Et aussi longtemps que je serais capable d’avoir une ouverture d’esprit et une attitude expérimentale, ce sera probablement le cas.

Voici des liens pour regarder deux vidéos, montrant des travaux réalisés il y a une dizaine d’années. La première, « Launching Piece » utilise 5 tablettes numériques[34]. À l’époque, je venais juste de commencer à travailler avec cette installation, et c’était très agréable de sortir de la situation d’être « derrière l’écran de l’ordinateur », et de pouvoir d’avantage s’engager physiquement pendant la performance. Je suis très attaché à ce que Harry Partch appelait la « nature spirituelle et corporelle de l’être humain »[35] fasse intégralement partie de la pratique musicale. La seconde, « Morning at Princess Pier » utilise un iPad dont le son est traité par un vénérable Alesis AirFX pour produire une série d’accords microtonaux ayant une fluidité de timbre. Et en guise de choc du futur (parlons-en !), quand j’ai acheté le AirFX en 2000, je me souviens de m’être moqué de leurs slogans publicitaires – « Le premier instrument de musique du 21e siècle ! » et « parce que maintenant, tout le reste est tellement 20e siècle ! ». Dans les deux pièces, les nouvelles ressources m’ont enfin permis de retrouver une implication plus physique dans ma prestation musicale..

 

Vidéo
Warren Burt “Launching Piece”

 

Vidéo
Warren Burt,
“Morning at Princes Pier”

 

7. Aujourd’hui, qu’en est-il de l’utopie des technologies musicales et des musiciens impertinents ?

J’ai un ami qui est aussi audiophile. Il a un merveilleux système de diffusion sonore avec lequel il passe beaucoup de temps d’écoute. Je lui ai proposé l’idée qu’être audiophile était une activité élitiste, à la fois par rapport au coût des équipements et du fait qu’il pouvait se permettre de prendre le temps d’écouter attentivement les choses. Je lui ai demandé s’il était capable de concevoir un système sonore audiophile que la classe ouvrière pourrait se payer – autrement dit, s’il pouvait concevoir un système sonore audiophile prolétarien. Sa réponse a été grandiose : « Pour qui ? Pour les gens qui dépensent 2000$ pour une télévision à écran plat ? » J’ai dû admettre qu’il avait raison. Les « classes populaires » peuvent dépenser beaucoup d’argent pour se procurer les équipements nécessaires aux divertissements qu’elles souhaitent. Et j’ai décidé que tout comme André Malraux quand il disait qu’il pensait que le marxisme était une volonté de ressentir, de se sentir prolétarien, être un audiophile était aussi une volonté de ressentir, une volonté de ressentir que cela valait la peine d’avoir accès à une haute qualité sonore et à la possibilité de mettre du temps de côté pour l’utilisation de cet équipement.

 
Doonesbury Malraux


– Pardon, mec, est-ce que je peux te poser une question ?
– Ben oui.
– Pourquoi vous, les ouvriers du bâtiment, êtes si ignorants ? Êtes-vous au courant des doctrines marxistes ?
– Oh ! ouais, un peu. Mais je pense qu’elles sont très anachroniques. Je préfère l’affirmation d’André Malraux selon laquelle le marxisme n’est pas une doctrine, mais une volonté, la volonté de ressentir le prolétariat. Passe-moi une autre brique.

 

C’est ainsi que nous avons atteint une sorte d’utopie technologique en matière de musique, et nous sommes entourés quotidiennement d’idées, de matériels qui impliquent des idées, et de matériels qui peuvent réaliser des idées – tout cela à des prix accessibles aux pauvres – ou tout au moins à un enseignant de la classe moyenne inférieure, même si sa situation économique va à reculons. C’est formidable. Ce qui n’est pas formidable, c’est que nous n’avons pas réalisé que dans le futur, il y aurait si peu de place pour nous qui travaillons dans le secteur des musiques expérimentales. Car ce qui n’a pas changé pour nous, depuis les années 1960, c’est la place que nous occupons – notre position par rapport au monde musical dans son ensemble. Comme l’a dit si éloquemment Ben Boretz[36] nous sommes à la « fine pointe d’un acte en voie de disparition »[37]. Nous sommes l’activité marginale d’un mastodonte économique. Et le mastodonte utilise nos découvertes, la plupart du temps sans les reconnaître.

Les mots que nous-mêmes utilisons ont continuellement été repris par différents styles. J’ai vu les termes de « new music », « musique expérimentale », « musique électronique », « musique minimaliste », et la liste est sans fin, utilisés par un genre pop ou par un autre au cours des dernières décennies sans qu’aucune reconnaissance concernant l’origine de ces termes ne soit exprimée. En fait, de nos jours, lorsque mes étudiants parlent de « musique contemporaine », ils ne font pas référence à nous. Ils pensent à la musique pop à laquelle ils s’intéressent actuellement. Nous, et nos travaux, avons été constamment « non définis » par l’industrie, la culture populaire et les médias.

« Soundbytes Magazine »[38] a été une petite publication web à laquelle j’ai contribué de 2008 à 2021 environ, avec des critiques de logiciels ou de livres. Le rédacteur en chef, Dave Baer, était impliqué dans l’informatique depuis les années 1960. Il a été technicien sur l’Illiac IV, puis il a rejoint le centre informatique de l’Université de Californie à San Diego. Il se souvient d’avoir été présent au concert à l’Université d’Illinois de HPSCHD de Cage et Hiller. C’est aussi un très bon vocaliste, qui a chanté dans les chœurs de productions d’opéra amateur. Nos démarches ne lui sont donc pas étrangères. En 2013, pour un numéro de Soundbytes, je lui ai proposé de réaliser une interview avec moi, puisque j’utilisais les ordinateurs d’une manière que je pensais être assez intéressante. Sa réponse m’a sidéré – il serait content de le faire, mais il faudrait probablement y inclure une introduction substantielle pour situer mon œuvre dans son contexte, puisque, ce que je faisais était si éloigné des intérêts grand public des concepteurs de l’informatique musicale ! En disant cela, il ne voulait pas dire, par exemple, que mon travail sur la micro-tonalité était très éloigné, disons, des démarches spectromorphologiques acousmatiques. Non, il voulait dire que mon travail, et toutes les autres choses que nous faisons, étaient très éloignés des compositeurs de dance-music amateurs travaillant dans leur chambre à coucher. C’est ainsi que, selon sa conception de la conscience populaire en 2013, même le terme qu’on utilisait pour nous décrire – « musicien informaticien » – ne s’appliquait plus à nous-même. Une fois de plus, la conscience populaire nous avait volé notre identité. C’est sans doute le prix à payer pour se situer aux confins des lisières sanglantes.

Bien évidemment, si l’on rend un outil accessible à « tout le monde », il est plus que probable qu’il va être utilisé pour faire quelque chose que les gens veulent faire, et pas nécessairement ce pour quoi on a envisagé l’utilisation de l’outil. Cela fait longtemps que ce phénomène existe. Je peux raconter une drôle d’histoire qui m’est arrivée à ce sujet. Au début des années 1970, à San Diego, je faisais partie d’un groupe appelé « Fatty Acid » qui jouait mal les pièces populaires de la musique classique. (Le groupe était dirigé par le violoncelliste et musicologue Ronald Al Robboy ; l’autre membre régulier du groupe était le compositeur, écrivain et interprète David Dunn). Il s’agissait d’un acte de comédie d’art conceptuel musicologique, avec de sérieuses connotations stravinskiennes néo classiques – ou peut-être de sérieuses prétentions spectromorphologiques stravinskiennes. Il faut imaginer quel impact fondamental Fatty Acid a eu sur mes démarches de compositeur et de performer. Par la suite, en 1980, j’ai découvert le Fairlight CMI. C’était le paradis. À partir de ce moment, j’étais capable de produire ma « musique incompétente » tout seul, sans avoir à retourner à San Diego de Melbourne pour jouer avec mes potes. Mon enthousiasme était total. Quand j’ai rencontré Peter Vogel et Kim Ryrie, les développeurs de Fairlight, je n’ai pas pu m’empêcher de leur jouer ma musique « de mauvais ensemble de blues amateur ». Ils n’ont pas été, c’est assez naturel, très impressionnés. Ce que je pensais être une utilisation naturelle et excitante de leur machine, était pour eux, bizarre, c’est tout. Je n’étais pas Stevie Wonder. Je me souviens d’Alvin Curran il y a bien longtemps, me disant que je devais faire attention à qui je faisais écouter certaines de mes productions les plus extravagantes. Pour mon plus grand malheur, ils ne faisaient pas partie de mon public cible idéal.

Ainsi, la pression exercée sur nous les gens bizarres, pour qu’on se conforme est toujours là, avec la même intensité. Il convient de remonter le temps et d’écouter ce que disait Mao Zedong en 1942, au Forum sur la littérature et l’art de Yenan. La langue est ici celle du marxisme doctrinaire, mais en substituant les termes, elle pourra paraître extrêmement contemporaine, bien qu’elle soit née à une autre époque et dans un monde idéologique très différent :

[Le premier problème est le suivant] : qui la littérature et l’art doivent-ils servir ? À vrai dire, ce problème a été depuis longtemps résolu par les marxistes, et en particulier par Lénine. Dès 1905, Lénine soulignait que notre art et notre littérature doivent « servir… les millions et les dizaines de millions de travailleurs » (…) Le problème : qui servir ? étant résolu, nous abordons maintenant le problème : comment servir ? Ou, comme le posent nos camarades, devons-nous consacrer nos efforts à élever le niveau de la littérature et de l’art ou bien à les populariser ? (…) Dans le passé, des camarades ont sous-estimé ou négligé dans une certaine mesure, et parfois dans une mesure importante, la popularisation de la littérature et de l’art. (…) Nous devons populariser seulement ce dont ont besoin les ouvriers, paysans et soldats et qu’ils sont prêts à accueillir.[39]

Si l’on substitue « public cible » à « ouvriers, paysans et soldats » et « produire quelque chose qu’on peut vendre » à « popularisation », il devient assez clair, peu importe que le système soit capitaliste ou communiste, qu’ils veulent tous que nous dansions à leur guise.

En 1970, Cornelius Cardew dans des perspectives marxistes-léninistes, nous a exhortés à « mettre nos pas du côté du peuple, et à produire de la musique qui serve à ses luttes »[40].

Aujourd’hui, la scène de la dance-music nous exhorte (à Melbourne) à mettre nos pas du côté du peuple et à produire de la musique qui serve ses luttes pour le groove.

Today, the film-music industry exhorts us to shuffle our feet over to the side of the industry and provide music which serves their narratives.

Aujourd’hui l’industrie de la musique de film nous exhorte à mettre nos pas du côté de l’industrie, et à produire de la musique qui serve à leurs narrations.

Eh bien, peut-être que nous n’avons pas envie de mettre nos pas dans ces engrenages. Peut-être que nous voulons rester ce que Kenneth Gaburo a appelé des « musiciens impertinents » [Irrelevant Musicians][41]. Peut-être que nous voulons être assez arrogants pour faire une musique qui exige ses propres offres et offre ses propres demandes. Je ne suis pas sûr d’être d’accord avec Gaburo lorsqu’il dit : « Si le monde entier va un jour se réveiller, il aura besoin de trouver quelque chose pour s’éveiller ». Je pense qu’un jour le monde entier fournira probablement les choses dont il a besoin pour son propre éveil. Mais je comprends où Gaburo veut en venir. Car en opposition à toute pensée orientée vers le marché, certains parmi nous considèrent la musique comme un cadeau, et non pas comme un prix de vente. Pendant les dernières années, Bandcamp a semblé être un lieu où les gens pouvaient créer une communauté qui s’intéressait en premier lieu à la musique comme moyens d’échange esthétique ou informationnel, et seulement accessoirement comme un produit du marché.

 

8. Conclusion

Ainsi, depuis longtemps nous étions dans l’opposition et nous le sommes toujours aujourd’hui. J’ai lu quelque part il y a peu une assertion qui m’a consterné. C’était quelque chose comme : « Toute position esthétique profondément ancrée n’est devenue aujourd’hui qu’un élément prédéfini de plus dans l’arsenal de possibilités utilisé pour la composition ». Quand dans le passé j’avais énoncé une réflexion un peu ironique sur le fait que, par exemple, la FM et l’algorithme Karplus-Strong, des choses auxquelles des forcenés du travail avaient consacré une partie substantielle de leur vie, étaient maintenant devenues juste des options de timbre dans le cadre du softsynth, ou bien des options dans un module de logiciel de synthèse, je m’attendais en quelque sorte à ce que les nouvelles idées technologiques soient absorbées dans le contexte plus large des techniques contemporaines. Mais cette remarque impliquait que les idées compositionnelles n’étaient que des ressources recyclables parmi d’autres, du grain à moudre pour la grande fabrique de saucisses post-moderne (ou de l’alter-moderne pour citer les critiques britanniques). C’est peut-être un peu vrai, mais c’est tout de même dérangeant.

Est-on alors réellement arrivé à une situation de démocratisation de nos outils par le biais de leur omniprésence ? Ou bien est-on en présence d’une quantité limitée de ressources, celles offertes par « l’industrie » qui ne vont pas faire dérailler le système 4/4 ? Je pense que la réponse est les deux à la fois. Les ressources sont là pour que les gens les utilisent. C’est à nous de continuer à rappeler aux gens quelles autres utilisations potentielles il y a à explorer et comment la nouvelle utopie technologique peut leur procurer les moyens d’exploration et même de transformation de soi. Pour réaliser cela, il faut probablement se battre (toi et moi, mon frère!) contre les médias qui veulent désavouer nos existences qui les dérangent. Mais cette lutte en vaut la peine, si l’on est capable de constituer l’un des nombreux groupes de personnes qui vont maintenir en vie les modes de pensée alternatives et transformationnelles, accessibles à ceux et celles qui ont la curiosité et le désir d’explorer.

Que nous reste-t-il ? Ce qui nous reste, c’est le travail. Le travail qui élargit notre conscience ; le travail qui offre les opportunités de changement de perception ; le travail qui tente de provoquer des changements dans la société ou qui met à disposition un modèle du type de société dans laquelle on veut vivre ; le travail qui réaffirme notre identité comme faisant partie de notre société de manière unique et utile. Le travail qu’on a besoin de retrouver de manière ininterrompue. Comme l’ont dit les Teen Age Mutant Ninja Turtles, ou était-ce Maxwell Smart ou bien Arnold Schoenberg ? – « C’est un sale boulot, mais quelqu’un doit le faire ».

 
 

Warren Burt, Nightshade Etudes 2012-2013 #19 – [Steinway à sourdine tomate]

Gamme micro-tonale basée sur l’œuvre d’Ery Wilson, « Moment of Symmetry »
Timbre – piano en sourdine de la synthé Pianoteq Physical Modeling
Modèles de protéines d’ADN de la banque de données génétiques du NIH
Logiciel de composition ADN – ArtWork par Algorithmic Arts
Studio de composition : trains de banlieue régionaux de la ligne V/Line, Victoria
Les motifs de protéine de l’ADN de tomates sont appliqués aux hauteurs, intensités, rythmes
et sont joués comme canon polyrythmique sur un Steinway virtuel en sourdine.

 


1.Merci à Guillaume Dussably et Gilles Laval pour leur relecture de la traduction française.

2. Cat Hope, compositrice, flûtiste et bassiste, crée des musiques conceptuelles, sous formes de partitions graphiques animées pour des combinaisons acoustiques et électroniques et pour des improvisations. Voir Cat Hope

3. Susan Frykberg (1954-2023) est une compositrice (Nouvelle Zélande) qui a vécu au Canada de 1979 à 1998. Voir wikipedia, Susan Frykberg

4. Joel Chadabe (1938-2021), compositeur (Etats-Unis), auteur et pionnier du développement des systèmes interactifs électroacoustiques. Voir wikipedia, Joel Chadabe

5. Le Center for Music Experiment était de 1972 à 1983 le centre de recherche attaché au département de musique de l’Université de Californie San Diego.

6. Un PDP-11, voir wikipedia PDP-11.

7. Ed Kobrin, un pionnier de la musique électronique (Etats-Unis). Il avait créé un système hybride très sophistiqué : Hybrid I-V. openlibrary Ed Kobrin.

8. Les synthétiseurs Serge ont été créés par Serge Tcherepnine, un compositeur et fabricant d’instruments de musique électronique : wikipedia Serge Tcherepnine. Voir aussi : radiofrance: Archéologie du synthétiseur Serge Modular

9. Célèbre plage nudiste à proximité de UCSD. Voir wikipedia

10. Kenneth Gaburo (1926-1993), compositeur (Etats-Unis). A l’époque mentionnée dans cet article, il était professeur au département de musique à UCSD. Voir wikipedia Kenneth Gaburo

11. Catherine Schieve est une artiste intermédia, compositrice et autrice. Elle vit près d’Ararat, dans le centre de l’État de Victoria (Australie). Voir astramusic.org; et rainerlinz.net

12. Il s’agit du New England Digital Synthesizer – une première version de ce qui deviendra le Synclavier, et le Quasar M-8 – qui deviendra le Fairlight CMI

13. Georgina Born, Rationalizing Culture, IRCAM, Boulez and the Institutionalization of the Musical Avant-Garde, Berkley – Los Angeles – London : University of California Press, 1995.

14. George Lewis, compositeur, performer, et chercheur en musique expérimentale, professeur à l’Université Columbia, New York. wikipedia George Lewis

15. Graham Hair, compositeur et chercheur (Australie). Voir wikipedia Graham Hair

16. Stanley Lunetta (1937-2016), percussionniste, compositeur, et sculpteur (Californie).

17. Ron Nagorcka, compositeur, il joue du didgeridoo and des claviers (Australie). Voir wikipedia Ron Nagorcka

18. Ernie Althoff, musicien, compositeur, constructeur d’instruments et artiste plasticien (Australie). Voir wikipedia Ernie Althoff

19. Graeme Davis, musicien, et performance artiste. daao.org.au Graeme Davis

20. Alvin Lucier (1931-2021), compositeur (Etats-Unis). Voir wikipedia Alvin Lucier et pour I am sitting in a room: youtube

21. Joel Chadabe avait commencé à travailler avec le New England Digital Synthesizer, et avec Roger Meyers, il avait développé un logiciel appelé Play2D pour le contrôler.

22. Tristam Cary ‘1925-2008), compositeur, pionnier de la musique électronique et musique concrète en Angleterre, puis en Australie. Voir wikipedia Tristam Cary

23. George Lewis à New York m’avait montré ses travaux avec le AIM-65de Rockwell et il m’avait parlé du langage FORTH. Un peu plus tard Serge Tcherepnin m’a donné la puce qui faisait tourner FORTH. Cela m’a amené à me lancer sérieusement, peut-être la première fois, dans la programmation informatique .

24. Mon ordinateur était un Rockwell AIM-65 qui comportait trois horloges, toutes décomptées à partir d’une source commune. On pouvait entrer des nombres dans chaque horloge et cela produisait des sous-harmoniques (diviseurs) de l’horloge principale qui fonctionnait à approximativement 1 MHZ. Ce système pouvait être facilement mis en interface avec mon synthétiseur Serge./p>

25. Les trois horloges/oscillateurs du AIM étaient alors traités par les circuits analogiques du Serge.

26. Harry Partch (1901-1974), compositeur et constructeur d’instruments (Etats-Unis). Voir wikipedia Harry Partch

27. St Kilda est un quartier de Melbourne (Australie).

28. Arun Chandra, compositeur et chef d’orchestre. Voir evergreen.edu Arun Chandra

29. Herbert Brün: wikipedia Herbert Brün.

30. Gottfried Michael Koenig (1926-2021), compositeur germano-néerlandais. Voir wikipedia Gottfried Michael Koenig

31. William Burroughs, The Green Nun : youtube The Green Nun

32. Le système AUMI est conçu pour être utilisé par n’importe qui à n’importe quel niveau de compétence – en fonction de la manière de programmer ce système, l’utilisateur peut le jouer à n’importe quel niveau de sa capacité physique. Voir AUMI

33. David Dunn, courriel à Warren Burt, à la fin de 2014.

34. Deux tablettes basées sur Android, deux basées sur iOS, et une tablette Windows 8 en mode Bureau.

35. Harry Partch: “The Spiritual Corporeal nature of man” tiré de “Harry Partch in Prologue” sur le disque bonus de la “Delusion of the Fury”, Columbia Masterworks – M2 30576 · 3 x Vinyl, LP. Box Set · US · 1971.

36. Ben Boretz, compositeur et théoricien de la musique (Etats-Unis). Voir paalabres.org Ben Boretz

37. Ben Boretz, If I am a Musical Thinker, Station Hill Press, 2010.

38. Soundbytes Magazine et Dave Baer (rédacteur en chef) : Depuis que cet article a été écrit et révisé, toutes les références au magazine Soundbytes ont disparu du web. J’espère publier une compilation des critiques que j’ai écrites pour ce magazine sur mon site www.warrenburt.com à la fin de l’année 2024.

39. Mao Zedong : Interventions sur l’art et la littérature. Mai 1942. materialisme-dialectique

40. Cornelius Cardew, Stockhausen Serves Imperialism, Londres: Latimer New Dimension, 1974.

41. Kenneth Gaburo, The Beauty of Irrelevant Music, La Jolla: Lingua Press, 1974; Frog Peak Music, 1995.

 

Democratisation of Computer Music

Accès à la traduction en français : Démocratisation de l’informatique musicale

 


 

The Past Has a Way of Catching up with You, or
The Democratisation of Computer Music,
10 Years On.

Warren Burt

 

 

Summary :

1. Introduction – The 2013 International Computer Music Conference
2. 1967-1975: SUNY Albany and UCSD
3. 1975-1981: Moving to Australia, Plastic Platypus
4. 1981-75: Low cost Single-board Microcomputer
5. 1985-2000: Incresed Accessibility
6. Post-2000 Period: Commuter Train Work and Brain Work on Computer
7. Today: Technological Music Uptopia and Irrelevant Musicians
8. Conclusion


 

1. Introduction – The 2013 International Computer Music Conference

Back in 2013, the International Computer Music Conference was held in Perth Australia. It was organised by a team led by Cat Hope,[1] and they kindly invited me to give one of the keynote addresses. My topic was the “democratisation” of “computer music.” I put the words in inverted commas because both terms were, and are, points of contention, although perhaps the meanings of those terms have changed, maybe quite a lot, in the past decade. My talk was given from an Australian perspective because that’s where I’ve mostly lived for the past 47 years. With an international audience at the conference, I wanted to give them a quick introduction to the somewhat unique context the conference was occurring in. Australia has, in some ways, a very different cultural context than Europe, or North America, among other places, and in some ways a context that is very similar to those places. I remember Chris Mann, poet and composer, back in 1975, picking me up at the airport on my first arrival in Australia saying, “OK, ground rules: We speak the same language, but it’s not the same language.” My experiences over the next few years were to show me, in exquisite detail, the many nuances of difference that existed between Australian English and the Englishes from the rest of the world. And in the way of things, the Australian English of a half-century ago is not the Australian English of today. I’ve probably become too acclimatised to the language after all that time, but many of the unique characteristics of Australian English I noticed back then have disappeared with the passing of time.

My point back then was two-fold: first, that advances in technology were making the tools of what we called “computer music” more accessible to lots of people, and that second, the definition of what was considered “computer music” was itself changing. In 2013, I mentioned Susan Frykberg’s,[2] asking me if I was talking about “democratisation” or “commercialisation?” This seemed like a relevant point to bring up at the time. Since then, the proliferation of cell phones and other hand-held digital technology has made her original point, if not moot, at least less keen than it was. With “the world” now thoroughly united by miniature communications hardware, it seems that the technology has become neither democratised nor commercialised, (or both democratised and thoroughly commercialised) but simply ubiquitous, our continuous cultural environment. I was just asked by Richard Letts, the editor of Loudmouth, a music ezine, to write an article about the current state of music technology. To show how advanced music technology had spread everywhere, I focused my article on what music technology was available for the iPhone, showing that most of the sophisticated music technology applications of the past were now available, to some extent, on that most widespread of consumer electronic devices.

Similarly with the term “Computer Music.” In 2013 it denoted both experimental music using computers and popular and dance musics made with digital technology. If anything, the range of musics made using music technology has gotten even wider. I pointed out, humorously, that the British magazine called “Computer Music” was devoted to “how to” articles for those making digital dance music in their bedrooms, and not to articles dealing with the finer points of advanced synthesis. In the past few years, Future Music, the British publisher behind “Computer Music” acquired the American magazines “Keyboard,” and « Electronic Musician, » which occasionally covered topics of interest to the more “avant-garde” side of things, and these days, the magazines owned by “Future Music” not only have overlapping spheres of interest, but some articles that appear in one also appear in the other. The focus still remains on pop/dance music made with commercially available technology, but with the passing of time, some topics which were formerly considered obscure, such as granular synthesis, are now covered in their pages, albeit usually without acknowledging the people who pioneered those techniques.

As a means of showing how the term “computer music” had changed over the years, in my original essay I included a brief survey of things I had done over the years and how those activities fitted or did not fit, at the time, under the umbrella of “computer music.” My approach was humorous, and more than slightly ironic.

 

2. 1967-1975: SUNY Albany and UCSD

Here’s where we get into a bit of autobiography. I’ve watched the term change meanings ever since the 1960s. Let’s go into our Waybac machine, or Tardis, depending on which TV shows you watched as a kid. In 1967, I entered the State University of New York at Albany. They soon acquired a very large Moog system designed by Joel Chadabe,[3] which had a digital device in it, made by Bob Moog, which allowed various kinds of synchronizations and rhythmic triggerings of things. The university also had a computer centre, where people did projects involving piles of punchcards processed in batch mode. I wasn’t attracted to the computer courses but was immediately attracted to the Moog. On the other hand, two of my fellow students, Randy Cohen and Rich Gold, immediately began working at the computer centre, submitting their piles of punchcards, and waiting long periods for their results. I remember in particular, Randy wrote a program to produce experimental poetry. I was absolutely thrilled with his results, playing with sense and nonsense in a way that I thought was very clever. Randy, on the other hand, who was soon to embark on a career as a comedy writer, thought that the amount of labour required to get results that only a few weirdos like me would dig, was too great. So, for my earliest work, I felt there was a divide between “electronic musicians” and “computer artists,” and I was, for the moment at least, on the “electronic musician” side of things. In 1971, I went to the University of California, San Diego, and soon became involved with the Centre for Music Experiment (CME).[4] This was a facility which had both analogue and digital music labs, as well as projects involving dance, multimedia, video, and performance art. There was a huge computer[5] lovingly tended over by several of my friends. Ed Kobrin[6] was there at the time with his hybrid system, which had a small computer generating control voltages for analogue modules. I ran a small lab which had a Serge synthesizer,[7] a John Roy/Joel Chadabe designed system called Daisy (a very interesting random information generator), and some analogue modules designed by another of the fellows Bruce Rittenbach. As well, we could take control voltages from the output of the central computer. My own work still involved using “devices with knobs,” the world of “lines of code” was still opaque to me, although I did work on several projects where other people generated control signals with “lines of code” while I adjusted the “devices with knobs.” There was also a social divide I noticed. While I and my singer and cellist friends could hardly wait for the day to be over to head down to Black’s Beach,[8] our computer friends would be continuing to work, usually far into the night, on their code. There was a certain necessary obsessiveness involved with working with computers at that time which distinguished “real computer musicians” from the rest of “us.”

Of course, we acknowledge that the distinction is also faintly ridiculous, smacking as it does of those old silly arguments about “real men” or its non-sexist alternative, the “authentically self-realised person.”

My interests in making technology more accessible were already active at this time. From SUNY Albany friends Rich Gold and Randy Cohen, then doing post-graduate studies at California Institute of the Arts, I learned about Serge Tcherepnin and his “People’s Synthesizer Project.” The idea was to have a synthesizer kit for about $700 that people could assemble as a collective. Affordability, accessibility, and being part of a community were all very appealing things. And, the synthesizer was designed by experimental musicians for experimental musicians. There was a fair amount of what would become known as empowerment in the project as well. Simultaneous with that, for my Masters’ project, I began to design a box of electronics that became known as Aardvarks IV. Made of digital circuitry, with hand-made DACS, I described it as “a hard-wired model of a particular computer composing program.” My need for knobs – that is, for a device I could physically perform with- was still paramount. My approach to digital accuracy was a bit idiosyncratic. Uniqueness and funk were part of my aesthetic.

An illustration of what “funk” in electronic circuit design consisted of is seen in the design of the DACs on Aardvarks IV. Following Kenneth Gaburo’s[9] suggestion, I used very low quality resistors in the making of the Digital to Analog Converters.

  more information on Aardvarks IV (Click again to hide)

At a time when DACs were viewed as utilitarian devices to be made as precise as possible, in the design of this box, I was trying to treat a utilitarian device as a source of variation, of creative unpredictability. This interest in creative unpredictability probably distinguished me from the rest of the guys in the back room at CME. That and the fact that I would rather be at Black’s Beach than in the back room.

Computers at the time were very hungry beasts, devouring resources around them. Now that they’ve totally taken over, they can afford to be more benign, but in those early days, it was a survival of the fittest situation. For example, when I was at UCSD, CME had projects in many different fields. By the time my wife, Catherine Schieve,[10] arrived there in the early 1980s, the multidisciplinary CME was well on the way to becoming exclusively a computer arts centre, and she too, remembers a social divide between the computer people and the rest of the musicians. What also distinguished the “computer guys” from others was the amount of their output. It was still the norm for a computer person to work for months to produce one short piece. For those of us who wanted a lot of output, fast, working exclusively with computers still wasn’t the way to go. Eventually, the organization evolved into CRCA, the Centre for Research into Computers and the Arts. In 2013, I looked at the CRCA website, and I saw that it now had a focus on multidisciplinary research, with some quite fascinating projects. However, visitors from UCSD to the 2013 conference told me that the CRCA had since been shut down. Another one bites the dust!

 

3. 1975-1981: Moving to Australia, Plastic Platypus

Somewhere between the 80s and today, “computer music” became a field that embraced the widest range of aesthetic positions. Today, just about the only common factor across the field is the use of electricity, and usually, a computer (or digital circuit) of some kind. But stylistically, we’re in a period of “anything goes.”

In the late 70s and early 80s, things changed. New, tiny computers began appearing and were applied to music making tasks. Several systems that promised much were designed,[11] which basically hid the computer behind a sort of musician-friendly interface. Simultaneously with that, a whole series of microcomputers, usually in build your own kit form, began to appear. There soon developed a divide in the computer music world between the “mainframe guys” – those who preferred to work on large expensive institutionally-based computers – and the “perform it in real-time folks” – those who preferred to work on small, portable microprocessor-based systems that they could afford to own themselves. Georgina Born’s Rationalizing Culture,[12] her study on the sociology of IRCAM in the 1980s, featured a look at how George Lewis,[13] with his microcomputer-based work, fared in the mainframe-and-hierarchy-based world of IRCAM.

In 1975, I arrived in Australia. I set up an analogue synthesis and video synthesis studio at La Trobe University in Melbourne. Graham Hair,[14] installed a PDP-11 computer and began some computer work with that. Following on from my work on “Aardvarks IV” at UCSD, I began once again working with digital chips. Inspired by Stanley Lunetta’s[15] example, I made a box, “Aardvarks VII,” exclusively out of 4017 counter/divider chips and 4016 gate chips. This was the rawest kind of digital design. The chips were simply soldered into printed back-plane boards. That is, the plastic faceplate of the synthesizer had the circuit connections printed on the back, and the chips were directly soldered onto these printed connectors. No buffering, no nothing. Just the chips. It was mainly designed to work with just intonation frequencies, and it gave me many more modules to play with. All in real-time. The physical-performance, combinational-module based patching aesthetic was still the paradigm for me. So, by this time, 1978-79, I felt I was an electronic musician who was working with digital circuitry, but I still wasn’t that rarest of beasts, the “computer musician.”

Simultaneously with this, I became involved with using the lowest of low technology – that is, the cheapest kind of consumer electronics, at the bottom of the economic scale – to make music. Ron Nagorcka[16] (who I had first met at UCSD) and I formed a group called Plastic Platypus, which made live electronic music with cassette recorders, toys, and electronic junk. Some of our setups were very sophisticated, the low-tech and low-fi nature of our tools concealing some very complex systems thinking, but our work came out of an ideological questioning of the nature of high fidelity. While we were also happy to work in institutions which could afford good loudspeakers, etc. we were also aware that the cost of audiophile systems was prohibitive for many people. Since one of our chief reasons for the group was to make work on the most common types of equipment to show that electronic music could be accessible to many, we embraced the sonic quality of the cassette recorder, the tiny loudspeaker swung on a cord, the toy piano or xylophone. As Ron put it eloquently, “the very essence of electronic media is distortion.” Technology, of course, would overtake us in the long run, and availability of sound quality to “the masses” became a non-issue by the late 1980s, but our serious working with the problems and joys of low technology was fun while it lasted.

Ron and I (and various other people who were working with cassette technology at the time, such as Ernie Althoff[17] and Graeme Davis[18]) were in agreement as to the basic structure of our work with this technology. A many generational feedback process, such as shown in Alvin Lucier’s “I Am Sitting in a Room,”[19] formed the basis for much of our work. In this process, a sound is made on one machine, and simultaneously recorded on a second machine. The second machine is then rewound and the playback from that machine is recorded on the first machine. Over the course of several generations of this, thick textures of sound, surrounded by gradually accumulating acoustic feedback, result. In Ron’s “Atom Bomb,” for two performers and four cassette recorders, he added the idea of fast forwarding and rewinding cassettes in progress to create a random distribution in time of the source sounds as we recorded them. At the end of this section, the four cassettes were rewound and played from the four corners of the room, creating a four channel “tape piece” which the audience had seen assembled in front of them. In my piece “Hebraic Variations,” for viola, two cassette recorders and portable speaker on a very long cord, I played (or attempted to play) the melody of “Summertime” by George Gershwin (I’m a very inadequate viola player). While I was playing this melody as an endless loop, Ron was recording about 30 seconds of my playing on one cassette recorder (the “recorder”) and then moving that tape to a second machine (the “player”), starting another cassette recording in the first machine, and then swinging the loudspeaker of the second machine in a circle around his head for about a minute. This created doppler shifts and made a thicker texture out of my viola playing. After 5 or 6 generations of this, a very thick soundscape of glissandi, out of tune playing and many kinds of tone clusters was assembled. The inadequate technology, and my inadequate playing multiplied each other creating a thick microtonal sound world.

There was pretty much complete unanimity between Ron and myself in making Plastic Platypus repertoire. We mostly left the composing of pieces to each other, and then learned the other composer’s desires as best as we could. The level of trust, and agreement between us was very high. A couple of years ago, Ron found some cassettes of Plastic Platypus performances and dubbed them and sent them to me. A lot of our old favorites were there and were immediately recognizable. But occasionally there was a piece that bewildered both of us – we couldn’t figure out who had composed the piece, or in what circumstances it was recorded. Maybe these pieces were improvisations where our authorship was obscured by the processes we used.

 
Nogorcka

Ron Nagorcka at Clifton Hill Community Music Centre, 1978

 

In addition to my work with analogue synthesizers, with making my own digital circuits and with my work with low-tech, my own involvement with computers now began in earnest.[20] On trips back to the US, Joel Chadabe kindly lent me his studio, and for the first time, I actually used code to determine musical events. The results occurred in almost real time, so the “knob twiddler” in me was satisfied. Later, back in Australia, in 1979, I worked with the Synclavier at Adelaide University, with an invitation from Tristram Cary,[21] and in 1980 in Melbourne, I asked for access to the Fairlight CMI at the Victorian College of the Arts and learned the ins and outs of that machine. I’d contracted the virus of owning my own computer system.[22] A Rockwell AIM-65 microcomputer was my choice. So, I immersed myself in learning this machine and built my own interface for it in an extremely idiosyncratic way. Then, when I expanded the AIM’s memory to 32k, I was hot. Real time sound synthesis (using waveforms derived from the code in memory) was now possible. Using the AIM-65 like this, and processing its output with the Serge, I guess I was finally a “computer-musician,” but I don’t know if I was a “real” one. That is, my approach was still idiosyncratic, and my impulses towards making the equipment more accessible to all, using myself as an example (something a Marxist might cringe at), still seemed, in my own mind at least, to distinguish me from my mythical straw-dog of the elitist, obsessed with perfection and repeatability, mainframe computer operator who still didn’t want to go to the beach.

 

4. 1981-85: Low-cost Single-board Microcomputer

My adventures in the low-cost single-board microcomputer world occupied me, on and off from about 1981-85.[23] The overarching title for the work I did with this system between 1982 and 1984 was Aardvarks IX. One of the movements was called “Three Part Inventions (1984).” This was a semi-improvised piece in which I used the typewriter keyboard of the AIM-65 as a musical keyboard. Programmed in FORTH, I could retune the keyboard to any microtonal scale at the touch of a button.[24] In this piece, I combined my “computer-musician” chops with my interest in democratised cheap technology, and an interest in non-public distributed forms of music distribution. Each morning (in June 1984, I believe it was), I would sit down and improvise a version of the piece, recording that morning’s improvisation to a high-quality cassette. I believe I made 12 unique versions of the piece like this. I also made one more version of the piece, recorded to a reel-to-reel recorder and kept that to use in the recorded version of the whole cycle. Each of the 12 unique versions of the piece were each mailed to a different friend as a gift. Of course, I didn’t keep a record of which 12 friends I sent the cassettes to. So, in this piece, I combined my interest in microtonal tuning systems, improvisation, real-time electronic processes, the use of cheap(er) technology (the AIM computer, and the cassette recorder), mail art, and distributed music networks in one piece. I wanted to have it all – serious high-tech research and proletarian publishing and distribution networks, being done with homemade electronic circuitry and hobbyist level computing. Not surprisingly, some of my friends who lived in the “high end” of the “computer music” world found a number of points of contention with my choices of instrument and performance and distribution in this piece.

A couple of issues seemed relevant then, and to a degree, still are. One is the question: “How much building from the ground up do you want to do?” I mean, the reason we were doing this building was because the equipment was expensive, and mostly confined to institutions. Today, we have a spectrum which ranges from closed apps which do only one thing well (hopefully) to projects where you basically design your own chips and their implementation. Although these are slightly more extreme examples, that was the spectrum of choice that was available to us back then, as well: home-brew versus off-the shelf, and to what degree?

Another issue was that of ownership. Was one using someone else’s tools, whether that was an institution that you were associated with, or a friend’s gear that you used while visiting them; or were you using your own tools that you could develop an ongoing relationship with. At this point in my life, I was doing both. Although, encouraged by the example of Harry Partch,[25] who during my years at UCSD (1971-75) was still alive and living in San Diego, and directly encouraged by my teacher, Kenneth Gaburo, I made the decision that although I would work in institutional facilities if they were available, I would prefer to own my own equipment. Here are 2 pictures of Le Grand Ni, a 1978 installation at the Experimental Arts Foundation, Adelaide.

Grand Ni 1

Warren Burt: Le Grand Ni, Experimental Art Foundation Adelaide, 1978. Aardvarks IV (Silver Upright Box),
Aardvarks VII (flat panel in front of Aardvarks IV),
transducers on metal advertising signs used as loudspeakers.
Photo by Warren Burt.

 
Grand Ni 2

Le Grand Ni, 1978 – view of metal sign loudspeakers.
Photo by Warren Burt

 

Here’s a link to an excerpt from the 5th movement. This movement is played through regular loudspeakers, not the metal sculpture speakers:

 

Warren Burt, « Le Grand Ni », exerpt of 5th movement.

 

In more recent years, I’ve done very little work with multi-channel sound systems, because I haven’t been in a situation where either the space or the time to do so was available, although just recently, I received a commission from MESS, the Melbourne Electronic Sound Studio, to compose a piece for their 8-channel sound system. I did this in September-October 2022 and on October 8, 2022, at the SubStation, in Newport, Vic. I presented the new 8 channel work in concert. (Many thanks to MESS for this opportunity and for assistance in realising the piece.)

Another reason for owning one’s own was the – in my experience at least – tenuous nature of connections with institutions that I’ve experienced. For many of us, we’ve devoted several years of development to an institutional-based system, only to then lose our job at that institution. This situation in Australia is getting even worse. Most of the people I know in academia are now only on year-to-year contracts. Even the status of “ongoing staff,” a far cry from tenure, but at least something, seems to be less and less available. And as for Teaching Assistants, forget it – they don’t exist anymore. In 2012, as part of my employment, I had to do some research as to the state of music technology education in Australia. I found that nationwide, in the period from 1999-2012, 19 institutions had either terminated, or radically cut back, their music technology programs. This did not only occur in small institutions, but across the board in major institutions as well. For example, 4 of Australia’s leading computer music researchers, David Worrall, Greg Schiemer, Peter McIlwain, and Garth Paine all lost their positions at the institutions which they helped build over a series of many years. Note that we’re not talking about people leaving their jobs and another person replacing them, but the positions themselves being eliminated. Given a situation like that, my decades ago decision to “own my own” seems wiser than ever.

Here’s a picture which gives an example of the results of my “taking it to the people” in the early 1980s. Sounds made in the performance include: 1) Clicking of shrimp 2) Electronic pitches in reply to shrimp 3) Sizzzz of motorboats underwater sound 4) Waves 5) A water gong 6) Random pitch glissandi of oscillators responding to the changing amplitude of the hydrophone output 7) Debussy’s « La Mer » played under water and processed by waves 8) General public sounds 9) me talking to the public 10) seagulls. This all-day performance was given at the community-oriented St Kilda Festival,[26] on St Kilda Pier, in 1983.

 
StKilda

Taking it to “the people”: Warren Burt: Natural Rhythm 1983. Hydrophone, water gongs,
Serge, Driscoll and home-brew modules, Gentle Electric Pitch to Voltage, Auratone Loudspeakers.
St. Kilda Festival, St. Kilda Pier, Melbourne.
Photo by Trevor Dunn.

 

In the mid-80s, I switched over to using commercial computers. I had left academia at the end of 1981, so as a freelancer, I needed a cheaper computer. The AIM-65 single-board micro, which I used from 1981-85, eventually proved not powerful enough, or reliable enough, for my needs. A series of PC-Dos based machines then followed. Along the way, I continued my interest in unusual composing and synthesis systems. US, developed at the Universities of Iowa and Illinois provided a lot of fun for a while. Arun Chandra’s Wigout[27] – his reconstruction of Herbert Brün’s “Sawdust”[28] also proved a rich resource. I enthusiastically watched my friends in England, motivated by the same “poverty and enthusiasm-for-accessibility ethic” that I had, develop the Composers’ Desktop Project, although I didn’t actually start working with the CDP for quite a while. I looked up older programs when they were available, such as Gottfried-Michael Koenig’s PR1,[29] which proved fruitful for a few pieces in the late 90s. And I found that I soon became involved with software developers and began beta-testing things for them. John Dunn (1943-2018) of Algorithmic Arts was one of my most constant co-workers for about 23 years, and I created a number of the tools available in his SoftStep, ArtWonk and MusicWonk programs.

 

5. 1985-2000: Increased Accessibility

William Burroughs has a very funny anecdote in one of his stories which involves the unfortunate traveller being invited by the Green Nun[30] to “see the wonderful work being done with my patients in the mental ward.” On entering the institution, her demeanour changes. “You must have permission to leave the room at any time.” Etc. And so the years passed. With that knowledge of time passing, we now come to the present, and what we see is a cornucopia of music making devices, programs etc all available at modest cost etc.

At a certain point in the 1980s, computers got smaller, and sprouted knobs and real time abilities, and stopped being the domain of a few people with mainframes and became the domain of just about anyone interested. With the requisite education, social status, etc, of course. And on that idea of the computer sprouting knobs, I like the interface design of the GRM [Groupe de Recherche Musicale] Tools in France. Following Pierre Schaeffer’s ideas, they insist that all controls can be externally controlled, there are many possibilities to move smoothly between different settings, and you don’t need to deal with a lot of numbers to use them.

At a certain point in (maybe) the late 90s, the number of oscillators available also became not an issue. The issue of accessibility was now focused on ways of controlling lots of oscillators. I remember Andy Hunt at York University worked on Midigrid, a system for disabled people to control electronic music systems with the limited mobility they had. Development largely stopped by 2003. Just this year, an English company, ADSR systems, has released a product called MidiGrid. From the YouTube video, I don’t think the two programs have anything to do with each other. And in the past couple of years, the AUMI team – Adaptive Use Musical Instruments[31] – have made marvellous strides in developing music control systems for tablet and desktop computers that make access to control even easier.

Also, at a certain point in the 1990s, access to sound quality (the economics of hi-fi) ceased to be an issue. That is, desire and convenience became more of an issue than economics. Prices on equipment have plummeted, more and more power is available for less money. New paradigms of interaction have occurred, such as the touch-screen, and other new performance devices, and just about anything one could want is now available fairly inexpensively. Faced with this abundance, one can be bewildered, or overwhelmed, or delighted and plunge into working with all the new tools, toys and paradigms that are here.

Here are some pictures that illustrate some of the changes that have occurred in the brief history of “computer music.”

 
Hrpsch

John Cage, Lejaren Hiller and Illiac 2, University of Illinois, 1968 working on HPSCHD.

 
Android

Backstage at a Trade Fair, Melbourne 2013.
Each of the Android tablet machines working off the laptop is more powerful than the Illiac 2,
and costs many times less.
Photo : Catherine Schieve.

 
Mafra

Computer setup by Warren Burt for Catherine Schieve’s « Experience of Marfa. »
Astra Concerts, Melbourne June 1-2, 2013.
Two laptops and two netbooks controlled by Korg control boxes.
Photo: Warren Burt

 
Marfa2 - Grande

Another view of the computer setup for Experience of Marfa.
Note the gong and custom made Sruti Box orchestra beyond the computers. Photo: Warren Burt.

 
RandCorp

This one’s for laughs.
This is a picture from 1954 of what the RAND Corporation thought
that the average home computer would look like in 2004.

 
 

6. Post-2000 Period: Commuter Train Work and Computer Brain Work

There is one resource, however, which was expensive way back then, and has become even more expensive now. That resource is time. Time to learn the new tools/toys, time to make pieces with the toys, and time to hear other people’s work and for others to listen to our work. In Australia, working conditions have deteriorated, and expenses have risen, so that now one works longer hours to have less resources. The days of working 3 days a week to get just enough money to get by, and still have a couple of days to work on one’s art, seem to be gone, at least for now. In our totally economics-dominated society, time to do non-economically oriented activities becomes a real luxury. Or, as Kyle Gann expressed it eloquently in his ArtsJournal.com Post Classic blog for August 24, 2013:

In short, we are all, every one of us, trying to discern what kind of music it might be satisfying, meaningful, and/or socially useful to make in a corporate-controlled oligarchy. The answers are myriad, the pros and cons of each still unproven. We maintain our idealism and do the best we can.

Another factor in the erosion of our time is the expansion of communications media. I don’t know about you, but unless I turn off the mobile phone and the email, there is very seldom a period of more than a half-hour where something is not calling for my urgent attention, be it in text, telephone, or email form. This state of constant interruption of the ever-decreasing amount of time one has to work is the situation many of us find ourselves in.

My own solution was to invest in a pair of noise-cancelling headphones, and small, but kind of powerful netbook computers, and after 2016, increasingly powerful tablet computers, such as the iPad Pro, so that I could work on Victoria’s excellent commuter trains. When one is surrounded by 400 other people, and the modem is switched off, and the headphones prevented one from hearing the mobile, then one could get at least an hour, each way, of uninterrupted compositional concentration time. Yet still, I wonder what has been the effect on my music when made in such a contained, tight, hermetic environment. I continue to compose in this manner and have written many pieces in this environment. In this piece, “A Bureaucrat Tells the Truth” from “Cellular Etudes (2012-2013)” I combine sophisticated samples and 8-bit crude sounds lovingly reconstructed in the Plogue softsynth, Chipsounds:

 

Warren Burt, « A Bureaucrat Tells the Truth »

 

I sent the piece to David Dunn and his observation was:

One of the formal issues that came up for me was the idea of sound samples for midi control as found objects (in the same way that any musical instrument is a found object) that carry with them definite cultural constructs (tradition). Most composers usually want a piece to be located within one of these (bourges vs. Stanford vs. cage vs. western orchestra vs. world musics vs. noise music vs. jazz vs. spectral music vs. rinky-dink lo fi diy, etc.). This usually plays out with composers trying to constrain their timbral choices so as to define a singular associative context (genre). In these pieces you let the divergent cultures rub noses until they bleed.” And it’s true. I want to have it both ways, or perhaps all ways. I see nothing wrong with being both high-tech and low-tech, with being both complex and elitist, AND proletarian.[32]

Perhaps my isolation-booth composing environment on the train makes me cram more and more cultures side by side, just as all of us on that train, from so many cultures, are jammed in there side-by-side.

So, the time issue is more of a problem than ever. One of the reasons for that is the accelerating amount of gear that is being released, which far outstrips my ability to seriously interrogate it. One of my strategies for composing involves looking at a piece of gear or software and asking, “What are the compositional potentials of this?” Not so much “what was it designed for,” but more “how can it be subverted?” Or if that seems too Romantic, maybe asking “What can I do with this that I haven’t done before?” And “What does the Deep Structure of this tool imply?” Remembering the early days of electronic music where people like Cage, Grainger and Schaeffer would use equipment clearly designed for other purposes in order to make their music, I find myself in a similar position today. The best new music equipment store I’ve found in Melbourne is StoreDJ, which has a good selection, good prices and a knowledgeable staff. Where Cage and friends appropriated their gear from science and the military, I now find I’m appropriating some of my resources from the dance-music industry. Most recently (2020-22) I’ve been involved with the VCV-Rack community. This is a group of programmers, led by Andrew Belt (see also Rack 2), who have been designing virtual modules which can be patched together, like analog hardware modules used to be (and still are), to make complex composing systems. I’ve contributed some of my circuit designs to Antonio Tuzzi’s NYSTHI project, which is a part of the larger VCV project. There are over 2500 modules now available, some of which are duplicates in software of earlier types of modules, and some of which are unique and original designs which point the way to exploring new compositional potentials. The distinction, raised above, between the dance-music industry and resources for the “new music” or “experimental music” scenes, has now largely disappeared. There are so many new resources out there, from all sorts of designers, with all sorts of aesthetic orientations, that one has an almost overwhelming variety of choices to select among.

A couple of years ago I quipped that there were far too many Japanese post-graduate audio engineering students with far too much time on their hands making far too many interesting free plugins for me to keep up with them all. Now of course, the situation is far worse, or is that better? The amount of resources available for free, or very cheaply, in the VCV Rack project, or in the iPad eco-system, is enough to keep me occupied for the next several lifetimes. And as long as I maintain an open-minded and exploratory attitude, they probably will.

Here are links to two videos, showing work from about 10 years ago. The first, “Launching Piece” uses 5 tablet computers.[33] At the time, I had just started working with this setup, and it was very nice to get out of the “behind the laptop” mode, and into a greater physical engagement while performing. I’m very involved in having what Harry Partch called “the spiritual, corporeal nature of man”[34] being an integral part of my music making. The second “Morning at Princes Pier” uses an iPad processed through a venerable Alesis AirFX to make a series of timbrally-fluid microtonal chords. And speaking of future shock, when I first bought the AirFX in 2000, I remember laughing at its advertising slogans – “The first musical instrument of the 21st century!” and “because now, everything else is just so 20th century!” In both these pieces, the new resources allowed me to finally get more physical, once again, in my performing.

 

Video
Warren Burt, “Launching Piece”

 

Video
Warren Burt,
“Morning at Princes Pier”

 

7. Today: Technological Music Utopia and Irrelevant Musicians

I have a friend who is an audiophile. He has a wonderful sound system that he spends a lot of time listening to. I proposed to him the idea that being an audiophile was an elitist activity, both in terms of the money his equipment cost, and in terms of the fact that he actually could afford the time to listen to things in that careful manner. I asked him if he could design an audiophile sound system that the working class could afford – that is, could he design a proletarian audiophile sound system. His reply was great: “For who? The people who spend $2000 on flat screen TVs?” I had to admit that he was right. The “working class” will spend a lot of money on equipment that will provide entertainment they want. And I decided that just as Andre Malraux had said that he thought that Marxism was a will to feel, to feel proletarian, so too being an audiophile was also a will to feel, a will to feel that high sound quality and the ability to put time aside to use that equipment, was worth it.

 
Doonesbury Malraux
 

SO: We’ve reached a kind of technological music utopia, and we’re daily surrounded by ideas, gear that implies ideas, and gear that can realise ideas – all at prices that a poor person – or at least lower-middle class teacher even one who is going backwards economically – can afford. That’s lovely. What is not lovely is that we didn’t realise that when we reached the future, there would be so little place in it for us. For what hasn’t changed for us, since the 60s, is where we are – what our position is in relation to the larger world of music. As Ben Boretz[35] phrased it, so eloquently, we’re “the leading edge of a vanishing act.”[36] We’re a fringe activity to an economic juggernaut. And the juggernaut uses our findings, and usually doesn’t acknowledge them.

Continually, the words we use to describe ourselves have been taken up by different styles. I’ve seen “new music,” “experimental music,” “electronic music” “minimal music” and the list goes on and on, used by one pop genre or another over the past decades with no acknowledgement of where those terms came from. In fact, these days, when my students talk about “contemporary music” they don’t mean us. They mean the pop music they are currently interested in. We, and our work, have continually been “undefined” by industry, popular culture and the media.

“Soundbytes Magazine”[37] was a little web publication that I contributed to from about 2008 to 2021, with reviews of software or books. The editor, Dave Baer, was involved in computers since the 60s. He was a technician on the Illiac IV, then moved to the UCSD computer centre. He remembers attending the performance at Illinois of Cage and Hiller’s HPSCHD. He’s also a very good singer, appearing in the chorus of amateur opera productions. So, he’s not a stranger to our work. For a 2013 issue of Soundbytes, I suggested that he do an interview with me, since I was using computers in what I thought were some pretty interesting ways. His reply floored me – he’d be happy to do that, but we’d probably have to do a substantial introduction to place my work in context, since what I was doing was so far removed from the interests of the mainstream computer music maker! By this he didn’t mean, for example, that my note-oriented microtonal work was far removed from, let’s say, spectromorphological acousmatic work. No, he meant that my work, and all the other things we do, was far removed from the amateur dance music composer in their bedroom. So, in his view of popular consciousness in 2013, even the term we used to describe ourselves – “computer musician” – didn’t apply to us anymore. Once again, popular consciousness had robbed us of our identity. Maybe that’s the price you pay for being on the bleeding edge.

Of course, when you make a tool available to “everyone,” it’s more than likely that they’ll use it to make something they want to make, and not necessarily what you envisioned the tool would be used for. This has been around for a long time. I can tell a funny story on myself in this regard. In the early 70s in San Diego, I was a member of a group called “Fatty Acid” which played the popular classics badly. (The group was led by cellist and musicologist Ronald Al Robboy. The other regular member of the group was composer, writer, and performer David Dunn.) Sort of a conceptual art musicological comedy schtick, with serious Stravinskyan neo-classical overtones – or maybe serious Stravinskyan spectromorphological pretentions. I can’t even begin to describe the profound impact being in Fatty Acid had on my composing and performing outlook. Then, in 1980 I encountered the Fairlight CMI. This was heaven. Now I could make my “incompetence music” by myself, without having to return to San Diego from Melbourne to play with my buddies. I was completely thrilled by this. When I met Peter Vogel and Kim Ryrie, the developers of the Fairlight, I couldn’t wait to play them my “bad amateur blues ensemble” music. They were, quite naturally, less than impressed. What I thought was a natural, and exciting use of their machine, was for them, just plain weird. Stevie Wonder I was not. I remember Alvin Curran way back when, telling me that I had to be careful who I played some of my more off-the-wall stuff to. Alvin, you were right. They were not, to my chagrin, my ideal target audience.

So, the pressure on us weirdos to conform is still there, and still intense. Let’s go back in time and listen to Mao Zedong, in 1942, at the Yan’an Forum on Literature and Art. The language here is doctrinaire Marxism, but substituting terms will make it seem extremely contemporary, despite its origins in another time and in a vastly different ideological world:

The first problem is: literature and art for whom? This problem was solved long ago by Marxists, especially by Lenin. As far back as 1905 Lenin pointed out emphatically that our literature and art should “serve…..the millions and tens of millions of working people”….. Having settled the problem of whom to serve, we come to the next problem, how to serve. To put it in the words of some of our comrades: should we devote ourselves to raising standards, or should we devote ourselves to popularization? In the past, some comrades, to a certain or even serious extent, belittled and neglected popularization…We must popularize only what is needed and can be readily accepted by the workers, peasants and soldiers themselves.[38]

Substitute “target audience” for “the workers, peasants and soldiers” and “making a saleable product” for “popularization” and it becomes pretty clear that whether the system is capitalist or communist, they want us all to dance to their tune.

In the 1970s, Cornelius Cardew, from his Marxist-Leninist perspective, exhorted us to “shuffle our feet over to the side of the people, and provide music which serves their struggle.”[39]

Today, the dance-music scene exhorts us to (Melbourne) shuffle our feet over to the side of the people and provide music which serves their struggle to groove.

Today, the film-music industry exhorts us to shuffle our feet over to the side of the industry and provide music which serves their narratives.

Today, the game-music industry exhorts us to shuffle our feet over to the side of the industry and provide music and algorithms which serves as a target for their target audience.

Well, maybe we don’t want to shuffle. Maybe we want to remain what Kenneth Gaburo called “Irrelevant Musicians.”[40] Maybe we want to be arrogant enough to make a music which demands its own supply and supplies its own demands. I’m not sure I agree with Gaburo when he said, “If the world at large will one day awaken, it will need something to awaken to.” I think the world at large will probably one day provide the things it needs for its own awakening. But I understand where Gaburo is coming from. For in opposition to all the commodity-oriented thinking, some of us think of music as a gift, not a sales price-point. In recent years, Bandcamp has seemed to be a place where people can create a community which is interested first in music as a means of aesthetic or informational exchange, and only secondarily as a market item.

 

8. Conclusion

So, we were an opposition years ago, and we’re still an opposition now. Somewhere in the past few months I read a statement which appalled me. It was something like, “Every deeply held aesthetic position now becomes a just another preset in the composing arsenal.” While I had, in the past, reflected a bit ironically on the fact that, for example, FM and the Karplus-Strong algorithm, things which hard working people had devoted a substantial part of their lives to, were now just timbral options in a softsynth, or options in a software synthesis module, I had sort of expected that new technological ideas would be absorbed into the larger vocabulary of contemporary techniques. But this statement was implying that compositional ideas were now just so many recyclable resources, more grist for the great post-modern (or alter-modern to quote British critics) sausage machine. True enough maybe, but disturbing, nonetheless.

Have we really arrived at a situation where our ubiquitous tools are democratized then? Or have only a limited amount of resources, those which won’t rock the 4/4 boat, been offered by “the industry” to us. I think the answer is both. The resources are there for people to use. It’s up to us to keep reminding people of what other potentials there are to be explored, and how the new technological utopia can provide them with the means for exploration and even self-transformation. To do that, we (that’s you and me, brother) probably have to struggle against the media which wants to disavow our inconvenient existences, but that struggle is worth it, in that we will be one of several groups of people who will keep alternative and transformational modes of thought alive, and available to those with curiosity and the desire to explore.

What’s left to us? What’s left is work. Work which expands consciousness; work which provides the opportunity for changes in perception; work which attempts to bring about changes in society or provides a model for the kind of society we want to live in; work which re-affirms our identity as a unique and valuable part of our society. Work which we need to get back to, in an uninterrupted manner. As the Teen Age Mutant Ninja Turtles said, or was it Maxwell Smart, or Arnold Schoenberg? – “It’s a dirty job, but someone has to do it.”

 

Warren Burt, Nightshade Etudes 2012-2013 #19 – Tomato Muted Steinway

Microtonal scale based on Erv Wilson’s “Moment of Symmetry” work
Timbre – muted piano from Pianoteq Physical Modeling synth
DNA protein patterns from NIH gene data bank
DNA composing software – ArtWonk by Algorithmic Arts
Composing studio: V/Line regional commuter trains, Victoria
Protein patterns from tomato DNA are applied to pitch, dynamics, rhythm and played as a polyrhythmic canon on a virtual Steinway piano with mutes.)

 


1. Cat Hope, composer, flute and bass performer “who creates music that is conceptually driven, in animated formats for acoustic / electronic combinations as well as improvisations.” Cat Hope

2. Susan Frykberg (1954-2023) was a composer (New Zealand) who lived in Canada from 1979 to 1998. See wikipedia, Susan Frykberg

3. Joel Chadabe (1938-2021), composer (United States), “author, and internationally recognized pioneer in the development of interactive music systems.” wikipedia, Joel Chadabe

4. The Center for Music Experiment was between 1972 and 1983 a research center attached to the music department of the University of California San Diego.

5. A PDP-11 computer. See wikipedia PDP-11.

6. Ed Kobrin, a pioneer of electronic music (United States). He created a very sophisticated hybrid system: Hybrid 1-V. openlibrary Ed Kobrin.

7. The Serge synthesizers were created by Serge Tcherepnin, a composer and electronic music instruments builder: wikipedia Serge Tcherepnine. See also: radiofrance: Archéologie du synthétiseur Serge Modular

8. Famous nudist beach near UCSD. See wikipedia

9. Kenneth Gaburo (1926-1993), composer (United States). At the time mentioned in this article, he was professor at the Music Department at UCSD. See wikipedia Kenneth Gaburo

10. Catherine Schieve is an intermedia artist, composer, and writer – and lecturer in Performance Studies. She lives in Ararat, in central Victoria (Australia). See astramusic.org; and rainerlinz.net

11. For example, the New England Digital Synthesizer (not yet evolved into the Synclavier) wikipedia, and the Quasar M-8 (not yet evolved into the Fairlight CMI) artsandculture

12. Georgina Born, Rationalizing Culture, IRCAM, Boulez and the Institutionalization of the Musical Avant-Garde, Berkley – Los Angeles – London : University of California Press, 1995.

13. George Lewis, composer, performer, and scholar of experimental music, professor at Columbia University, New York. wikipedia George Lewis

14. Graham Hair, composer and scholar (Australia). See wikipedia Graham Hair

15. Stanley Lunetta (1937-2016), percussionist, composer, and sculptor (California).

16. Ron Nagorcka, composer, didgeridoo and keyboards player (Australia). See wikipedia Ron Nagorcka

17. Ernie Althoff, musician, composer, instrument builder and visual artist (Australia). See wikipedia Ernie Althoff

18. Graeme Davis, musician, and performance artist. daao.org.au Graeme Davis

19. Alvin Lucier (1931-2021), composer (United States). See wikipedia Alvin Lucier and for I am sitting in a room: youtube

20. Joel Chadabe had begun to work with the New England Digital Synthesizer, and with Roger Meyers had developed a program called Play2D to control it.

21. Tristam Cary ‘1925-2008), composer, pioneer of electronic and concrete music in England and then in Australia. See wikipedia Tristam Cary

22. George Lewis in New York showed me his work with the Rockwell AIM-65, and he mentioned to me the language FORTH. A little later, Serge Tcherepnin gave me a chip that made FORTH run on the AIM. This plunged me into serious computer programming for what might be the first time.

23. My Rockwell AIM-65 computer had three clocks on it, all of which counted down from a common source. You could feed numbers into each clock, and it would play subharmonics (divide-downs) of the master clock, which was working at about 1 MHZ. This system could easily be interfaced with my Serge synthesizer.

24. The three clock/oscillators of the AIM were then processed through the analogue circuitry of the Serge.

25. Harry Partch (1901-1974), composer and instrument builder (United States). See wikipedia Harry Partch

26. St Kilda is a Melbourne suburb (Australia).

27. Arun Chandra, composer et conductor. See evergreen.edu Arun Chandra

28. Herbert Brün: wikipedia Herbert Brün and « Sawdust »: evergreen.edu.au Sawdust

29. Gottfried Michael Koenig (1926-2021), German-Dutch composer. See wikipedia Gottfried Michael Koenig

30. William Burroughs, The Green Nun, from The Wild Boys: youtube The Green Nun

31. The AUMI system is designed to be used by anyone at any level of ability – depending on how its programmed, the user can perform it at any level of physical ability. See AUMI

32. David Dunn, email to Warren Burt, late 2014.

33. Two Android based tablets, two iOS based, and a Windows 8 tablet in Desktop mode.

34. Harry Partch: “The Spiritual Corporeal nature of man” from “Harry Partch in Prologue” on bonus record for “Delusion of the Fury”, Columbia Masterworks – M2 30576 · 3 x Vinyl, LP. Box Set · US · 1971.

35. Ben Boretz, composer and music theorist (United States). See wikipedia Ben Boretz

36. Ben Boretz, If I am a Musical Thinker, Station Hill Press, 2010.

37. Soundbytes Magazine and Dave Baer (editor): Since this article was written, and revised, all references to Soundbytes magazine have disappeared from the web. I hope to release a compilation of reviews I wrote for it on my www.warrenburt.com webside sometime in late 2024.

38. Mao Zedong : Interventions sur l’art et la littérature. Mai 1942. materialisme-dialectique

39. Cornelius Cardew, Stockhausen Serves Imperialism, London: Latimer New Dimension, 1974.

40. Kenneth Gaburo, The Beauty of Irrelevant Music, La Jolla: Lingua Press, 1974; Frog Peak Music, 1995.