-
-
Notifications
You must be signed in to change notification settings - Fork 1
Extension audiovisuelle
Un objet audiovisuel pourra être composé en transmettant via le protocole OSC les paramètres de synthèse de chaque événement audio du langage SuperCollider vers un langage de programme visuel comme Processing, Open Frameworks ou même TouchDesigner ou Resolume, afin de représenter chaque objet sonore avec un objet graphique virtuel, un symbole, une vidéo ou une image, dont la position, la vitesse de lecture, le décalage, la transparence, le mouvement ou d’autres effets vidéos seraient contrôlés par les paramètres des synthèses sonores.
Par exemple, plusieurs images pourraient être empilées les unes sur les autres et le déclenchement des événements sonores changerait la transparence de certaines zones de l’image du dessus pour faire apparaître l’image du dessous. Ainsi, une image globale fusionnant toutes les autres serait récréée à partir de toutes les autres en fonction du rythme et des événements sonores. Le même principe pourrait être appliqué à des vidéos, où certaines zones de l’image seraient lues à différentes vitesses selon les événements sonores, représentant une vision instantanée de différentes vidéos dans toutes leurs temporalités. Des images de sons pourraient tourner comme sur des tourne-disques en fonction de leurs vitesses de lecture. La composition audiovisuelle pourrait aussi être utilisée pour générer des partitions symboliques, afin que cette représentation éclaire le processus de composition et d’improvisation.
Cette page aborde les études et principes (artistiques et perceptifs) qui ont motivé l'envie de représenter visuellement les données générées par Live 4 Life vers différents outils :
-
soit hors ligne dans SuperCollider,
-
soit en temps réel dans :
- Processing,
- TouchDesigner.
Dans la partie pratique, accessible via les liens ci-dessus, j'expose les paramètres de synthèse transmis via le protocole OSC de chaque évènement audio du langage SuperCollider, afin de représenter chaque objet sonore avec un objet graphique virtuel. Différents types de visuels géométriques, comme des points (sphères), lignes, cubes et rectangles, avec différents paramètres comme la position, la taille, la forme ou la couleur, sont générés, apparaissent et disparaissent en même temps que les événements sonores.
Bien que j’aie développé un patch de base avec Processing ou TouchDesigner avec des formes simples, comme indiqué dans la section Contribute du Read Me, je recherche des collaborations avec des artistes développeurs en audiovisuel, qui pourraient améliorer la partie visuelle et sa structure de programmation et de contrôle visuelle, en l'étendant entre autres avec des effets visuels et des shaders.
Dans le cadre de ma recherche sonore, qui se focalise sur la spatialisation des musiques électroniques en temps réel, j'ai développé sur la plate-forme open-source SuperCollider, un programme de composition et performance spatiales, pouvant s'adapter à tout type de système de diffusion multiphonique. Cet outil, qui permet de créer des polyrythmies spatiales combinées à des textures enveloppantes, met l’accent sur la construction et la déformation de boucles de paramètres, rythmiques ou spatiales et cherche à questionner le développement spatio- temporel entre les objets sonores ou leurs réflexions.
Aussi, dans mon projet de recherche-création, je m'intéresse à la représentation et création visuelle à partir du sonore et aux formes de mapping audiovisuel, afin de développer une extension visuelle à mon programme, aussi bien :
- dans un but d'aide à la composition et à l'improvisation (une sorte de partition augmentée avec une transcription graphique, éventuellement pour un public dans un cadre pédagogique),
- que dans un but performatif, avec une représentation visuelle ayant son « propre message », en accord, se déformant, ou même en opposition avec le sonore, mais toujours dans un dialogue où mouvements colorés et sons se répondent.
Bien que la musique acousmatique permette de se concentrer sur une seule modalité sensorielle afin de mieux percevoir une information sonore et libérer notre imaginaire, l’intégration multisensorielle aide et a un fort impact non seulement sur la discrimination des objets et le temps de réaction aux évènements, mais aussi sur la réponse émotionnelle, particulièrement dans l’espace péri-personnel [1]. Les mécanismes perceptifs et cognitifs sont faits pour traiter des signaux qui sont de nature sensorielle multiple. En présence d’une information multisensorielle, l’accroissement de la réponse perceptive dépend du degré de coïncidence spatiale et temporelle entre les modalités sensorielles.
Etant donné que l’on n’arrive plus à intégrer deux informations sensorielles et à identifier la source de l’évènement lorsque le délai spatial ou temporel est trop important, il est possible de jouer sur des spatialisations audiovisuelles conjointes ou disjointes. Les spatialisations audiovisuelles conjointes renvoient ici à des correspondances systématiques, exactes, à du « un pour un » entre le son et le visuel. Elles peuvent être aussi disjointes comme dans Frequencies : synthetic variations de Nicolas Bernier, où il opère des décalages sur la forme temporelle entre deux médias, c’est à dire que la lumière peut annoncer le son ou inversement la lumière disparaît après le son.
Ma démarche de lier (ou non) la musique à la lumière et au signe visuel se focalisera principalement sur deux axes théoriques (artistiques et scientifiques). Dans un premier temps, j'étudierai les Polytopes de Iannis Xenakis, notamment celui de Montréal et tout particulièrement celui de Cluny, qui sont des espaces architecturaux où le spectateur est bombardé de sons et de lumières.
Par la suite, j'analyserai certaines études de Walker [2] et Giannakis [3], explorant les associations entre des dimensions sonores et visuelles, et notamment le timbre [4]. De la même façon que ces dernières suggèrent qu’un paramètre sonore peut correspondre de manière efficace à plusieurs paramètres visuels [5] et surtout que le choix et le sens de l’échelle des correspondances auraient plus d’importance que la correspondance elle même [6], on peut penser qu’il en est de même pour le rapport et l’association entre le son et son espace (audio-visuel), où de multiples relations peuvent coexister.
« Dans certains cas on a essayé et on essaye de lier la musique à d’autres formes d’expression ou à la lumière et au signe visuel, de façon à donner au concert le sens d’un évènement unique. L’un des cas les plus intéressants en ce sens sont les Polytopes de Iannis Xenakis, espaces architecturaux où le spectateur est complètement plongé dans un bombardement de sons et de lumières, suivant des cartes de mouvement (ou des migrations, pour utiliser le terme de Xenakis) expressément étudiés. » [7]
Du grec Poly (beaucoup, nombreux, plusieurs) et Topos (place, endroit, territoire), il y a l'idée de nombreux endroits et de beaucoup de place derrière le mot Polytope, qui est un néologisme de Xenakis [8, p. 10]. Les Polytopes sont des spectacles multimédias, combinant musique, projections lumineuses et architecture avec l'idée d'un « spectacle total », sans aucune distinction entre architecture et musique. Au sein de ces installations se déployait un art de l'espace et du temps, où l'espace est ordonné pour faire valoir le temps et ses couches, et un espace immersif avec des trajectoires spatiales.
Xenakis a réalisé 6 Polytopes, qui ont la particularité d'avoir une composition indépendante entre la musique et de la lumière :
- Polytope de Montréal (1966-67),
- Polytope d’Osaka (1970),
- Polytope de Persépolis (1971),
- Les 2 Polytopes de Cluny (1972 et 1974),
- Polytope de Mycènes (1978),
- Le Diatope (ou Polytope de Beaubourg, 1978).
Il souhaitait en créer deux autres dans le début des années 80, notamment au Mexique à Athènes. Mais, il n'a malheureusement pas eu l'occasion de les réaliser. Je me concentrerai principalement sur les modes de composition et diffusion pour le premier de ses Polytopes à Montréal et tout particulièrement celui de Cluny.
Le Polytope de Montréal, qui a eu lieu au sein du pavillon français de l'exposition universelle de 1967, était constitué de cinq nappes de câbles, où étaient disposées 800 flashes et 400 sources lumineuses colorées (rouges, jaunes, oranges, violettes, vertes, bleues). À chaque heure, cette installation cliquetait et clignotait frénétiquement durant six minutes.
La spatialisation lumineuse jouait sur la théorie des ensembles et sur des opérations logiques pour créer des rythmes et répondre de différentes manières au son d'une composition pour quatre orchestres identiques, diffusée sur de multiples haut-parleurs. Comme le dit Xenakis : « Si par exemple, un flash s'allume suivant un rythme donné, il pourra changer de rythme quand une invasion d'un autre rythme arrivera, ou garder son rythme ou ne garder que ce qui est commun aux deux rythmes. C'est une opération logique de conjonction, disjonction, ou de complémentarité. » [8, p. 115]
Chaque medium, à la fois lumineux et sonore, avait sa propre langue : « La musique est indépendante du spectacle lumineux. J'ai voulu établir un contraste. Le lumineux dans mon spectacle est une multitude de points avec des arrêts, des départs, etc. La musique est une continuité, les glissandi ! Le son change mais ne s'arrête pas. C'est une musique instrumentale. Les instruments classiques de l'orchestre ! Une musique sans transformation électronique. » [8, p. 115]
Le polytope de Cluny entre octobre 1972 et novembre 1973 a été un tel succès que le festival d'automne invita Xenakis pour une seconde version entre décembre 1973 et janvier 1974. Les deux versions ont pratiquement accueilli 100.000 spectateurs.
Une partition lumineuse algorithmique créait des figures géométriques et des chemins de lumière en contrôlant :
- 600 flashes lumineux blancs,
- 3 rayons laser motorisés (rouge, bleu, vert),
- 3 réseaux de miroirs rotatifs,
- 100 miroirs fixes pour réfléchir la lumière.
Bien que la partition lumineuse pouvait être déclenchée à chaque 1/25ème de seconde, il y avait cependant la contrainte d'attendre deux secondes pour répéter un même flash pour éviter la surchauffe. (UbuWeb)
La composition sonore sur sept canaux pouvait être diffusée sur 12 haut-parleurs à deux hauteurs différentes et quatre configurations de volumes différentes (0, -2, -7, -12 db), ce qui offrait à Xenakis 336 possibilités de mixer la musique. (UbuWeb) Comme dans le Diatope (dont la musique est intitulée La Légende d’Eer, 1978), la musique combine transformations de sons concrets et synthèse. Le Diatope a la particularité d'inclure pour la première fois de longs passages stochastiques, utilisant principalement les fonctions de Cauchy et la Logistique, ainsi que des fonctions de ces fonctions. Les sons ainsi générés créent des profils mélodiques browniens.
Quand on interroge Xenakis sur la relation entre la lumière et le son pour le Polytope de Cluny en comparaison avec celui de Montréal, qui opère davantage en opposition, il répond : « Contraste, oui : entre continuité (en musique) et discontinuité (flashes) ; mais plus au fond, les deux sont indépendants. Deux discours parallèles avec quelques points de rencontre dans le temps, et les accumulations. Pourquoi frapper un coup de cymbale en même temps qu'un éclair ? Pléonasme ! On peut parler deux langues au moins à la fois, non ? » [8, p. 128]
Xenakis utilise différents termes pour décrire ses figures : « surfaces synchrones et asynchrones en effervescence, lignes épaisses, explosions, implosions, rotations, mouvements colossaux (verticalité, horizontalité, obliquité), embrasement global, expansion de galaxies, ruissellements plus ou moins lents (stochastiquement) ». [8, p. 77]
Il emploie également des termes métaphoriques comme « soleil, éclair, tentacules, nuages, labyrinthes, étangs, rivières, qu'il tente de retranscrire et définir avec des formules de propagation (par vagues ou cribles rythmiques) et de progression arithmétiques ». [8, p. 65]
Bien que Xenakis sépare les méthodes de création pour chaque medium en ne prenant en compte aucun mapping, il peut être intéressant d'étudier les différents modèles de mapping afin de pouvoir naviguer entre des moments de connexion ou désynchronisation entre le son et le visuel. N-Polytope, qui est une œuvre imaginée dans l'esprit de Xenakis, opère ainsi davantage de fusion entre la lumière et le son que dans les Polytopes de Xenakis, qui laissent émerger la relation (de correspondances à partir d'éléments disparates) seulement dans l'esprit des visiteurs. [9]
Nous faisons tous des associations entre nos sens(-ations) grâce aux expériences perçues et mémorisées depuis notre enfance. Certaines d’entre-elles sont devenues des conventions, à l’instar de la couleur rouge ou bleue, associée respectivement au chaud et au froid. De la même façon, il existe des correspondances et des relations entre les images et le sonore, que de nombreuses études ont tenté d’explorer et identifier. (Je n’aborderai pas les expériences les plus anciennes comme celles d’Isaac Newton, qui établit une correspondance musicale entre les gammes musicales et les couleurs de l’arc-en-ciel - voire : https://rhythmiclight.com/visual-music-correspondences/hue-to-pitch - mais seulement aux expériences les plus récentes).
Une étude de LipsComb [6], évaluant les correspondances entre quatre dimensions sonores (hauteur, intensité, timbre, durée) et visuelles (couleur, position verticale, forme, taille), démontre (voire tableau 1 et 2, ci-dessous) :
-
des couples clairement identifiés, telles que la hauteur et la position verticale, l’intensité et la taille (pour environ 80% des 28 participants), et dans une moindre mesure le timbre et la forme (60%). Comme indiqué précédemment, ces couples peuvent être expliqués par les expériences que nous réalisons ou avons réalisées dans la vie quotidienne, qui peuvent être analogues au monde réel : nous avons l’habitude de visualiser les hauteurs dans l’espace vertical d’une portée (en raison d’une éducation scolaire musicale basique), un son fort correspond généralement à un son proche de nous, et les paramètres du timbre sont associés au type d’émetteur et à l’identité de l’objet. De plus, des forts taux (environ 80%) peuvent révéler que l’on attribue (respectivement ou alternativement) visuellement beaucoup plus d’importance à la position et la taille qu’à la forme et à la couleur; et en termes de matière sonore, plus d’importance à la hauteur et à l’intensité qu’au timbre et à la durée, (c’est à dire aux paramètres les plus frappants et identifiables).
-
Bien qu’aucun couple ne soit clairement identifié pour la durée, seul le couple durée-taille représenterait une correspondance acceptable pour 50% des sujets. Une étude « statique » sur internet [2] établissait et précisait ce « lien » entre un changement de durée et la longueur horizontale, probablement liée à notre représentation spatiale du temps, notamment dans les séquenceurs.
-
Cependant, ces couples ne sont pas uniques et fermés. Ainsi, la couleur peut correspondre aussi bien à la hauteur qu’à l’intensité ; la forme peut s’associer de la même façon au timbre, à la hauteur et à l’intensité. Des couples secondaires et supplémentaires étant donc pertinents (hauteur / taille-couleur, intensité / position- couleur), un paramètre sonore pourrait correspondre de manière efficace à plusieurs paramètres visuels et suggère, comme la seconde expérience de l’étude de LaBRI [5] le démontrera par la suite, que la correspondance entre les paramètres audio-visuels eux-mêmes n’est pas forcément le facteur le plus déterminant dans la relation son-image.
Une étude de LaBRI [5], explorant davantage les correspondances dans une vision 3D entre quatre dimensions sonores (hauteur, intensité, centroïde spectral ou brillance, composante bruitée « Noisiness » – différenciant un son tonique d’un bruit blanc) et de multiples dimensions visuelles (taille, distance, luminosité, transparence, brillance, orientation, distorsion, mouvement de rotation, rugosité), trouve des résultats relativement similaires à la première étude (voire tableau 3 pour la première expérience de l’étude, ci-dessous) :
-
Le paramètre visuel préféré pour l’amplitude est la taille (et la distance, qui sont relativement liés), suivi par la luminosité et la transparence. Concernant la hauteur, son pendant visuel est moins clairement identifiable et peut correspondre à la distance (que l’on peut associer à la position verticale dans les autres études), puis à la luminosité et la brillance. Alors que la luminosité, (puis naturellement la brillance visuelle) soit associée de manière significative au centroïde spectral (brillance sonore), il ne se dégage qu’une légère tendance pour la composante bruitée, qui est associée à une texture rugueuse.
-
Cependant, une seconde expérience, détaillant les rapidités d’association sur un panel réduit de possibilités, indique la présence de correspondances multiples voire contradictoires avec la première expérience. Leur interchangeabilité et les commentaires des sujets suggèrent ainsi que le choix de l’échelle des correspondances aurait plus d’importance que la correspondance elle-même. Certains d’entre-eux auraient ainsi préféré des échelles inversées (une hauteur élevée correspondrait à un objet petit et inversement) et des variations rapides étaient plus facilement identifiables.
-
Bien que (curieusement) l’association de quatre paires audiovisuelles n’améliore pas la rapidité d’identification, elle n’en réduit pas non plus la performance. Il est possible de constater que l’on peut traiter au moins jusqu’à quatre combinaisons audiovisuelles simultanément sur un objet. Le nombre d’événements pouvant être perçus simultanément ne pourrait excéder de manière significative ce nombre. En effet, sans nous en rendre compte, nous occultons des pans entiers du monde extérieur, parce que nous nous concentrons sur un objet et une tâche spécifique. Il suffit que quatre ou cinq informations arrivent en même temps pour que notre conscience ou attention soit débordée.
Suivant ces différentes études, il est possible d’envisager un mapping « le plus naturel ou parlant possible » (voire dans les tableaux 4 et 5 le choix de mapping en fonction de la configuration spatiale, ci-dessous), tout particulièrement pour l’amplitude et la hauteur.
Cependant, de nombreuses expériences [10] ont montré des associations diverses possibles :
- l’intensité sonore avec l’intensité lumineuse, la saturation de couleur et la taille,
- la hauteur avec l’intensité lumineuse, la forme visuelle (des sons graves et aigus correspondant respectivement à des formes courbées et anguleuses), la taille (des sons aigus étant associés à de petites tailles) et la hauteur (élévation).
C’est pourquoi, il est nécessaire d’envisager une interface de mapping permettant :
-
de modifier les différentes possibilités de mapping (ainsi que le nombre de mapping audiovisuel simultané - de zéro, ou aléatoire, à plusieurs) permettant de construire une certaine « narrativité » ou évolution (décalage, (dé)-synchronisation) visuelle au cours du temps,
-
d’intégrer un pourcentage de correspondance entre chaque dimension visuelle et sonore afin de pouvoir attribuer une ou plusieurs dimensions sonores avec un taux spécifique à une ou plusieurs dimensions visuelles. Ainsi, il serait possible de faire évoluer le mapping, non pas en considérant les combinaisons perceptives les plus pertinentes (qui sont à relativiser), mais en utilisant des analogies avec des modèles de méthodes de composition (comme ceux dans le tableau 6, ci-dessous), où la hauteur agirait sur la majorité des paramètres visuels pour représenter la hiérarchie musicale post-romantique, ou bien où les paramètres sonores agiraient de manière partagée sur le visuel dans l'approche sérielle, ou bien où le timbre engloberait les autres paramètres dans la vision constructiviste (Il serait possible d’ajouter de nombreux modèles de composition imaginaires ou réels, à l’instar de la musique minimaliste répétitive américaine (Steve Reich, Terry Riley, Philip Glass, John Adams...), où le rythme contrôlerait principalement, au delà de l’apparition des événements visuels, les (types de) modifications des objets visuels.). De même, au delà du mapping de chacun des paramètres, une évolution plus globale des stratégies d e mapping (voire tableau 7, ci-dessous), allant d’une correspondance abstraite ou sensorielle, à une représentation iconique concrète ou sémantique, (passant d’un ordre primaire – le territoire - à un ordre secondaire - la carte, et vice-versa) permettrait de développer un « glissement » dans la « narrativité audio-visuelle ».
-
de modifier les échelles des mapping, étant donné qu’elles auraient autant, voire plus, d’influence que les mapping eux-mêmes.
3.3. Le cas spécifique de l’association de paramètres complexes multi-dimensionnels : Timbre et Forme visuelle
Bien que le paramètre du timbre soit associé globalement à la forme de l’objet, il apparaît comme la dimension la plus difficile à mapper de manière simple, étant donné sa complexité multi-dimensionnelle (pouvant intégrer d’autres paramètres telles que la hauteur).
Une étude de Giannakis [3] associe le paramètre du timbre à différents paramètres de surface ou de texture (Etant donné que l’étude réduit les dimensions visuelles seulement à la couleur et à la texture, les sujets associent respectivement l’amplitude et la hauteur à la saturation et la brillance de la couleur.), telles que :
- la consonance / dissonance à l’aspect répétitif ou régulier / irrégulier de la texture visuelle,
- la composante bruitée / « netteté ou finesse » sonore à l’aspect rugueux de la texture visuelle,
- le centroïde spectral à la brillance (couleur – Value du paramètre HSV). [5]
Une récente sur internet [10] se concentrant sur les correspondances entre les timbres musicaux de huit instruments différents (violoncelle, guitare classique, piano électrique, marimba, saxophone ténor, triangle, cymbales crash, gong avec des fréquences fondamentales variées pour les instruments le permettant) et des formes visuelles (trois formes courbées, anguleuses ou mixtes avec quatre couleurs - bleu, vert, rouge, jaune - ou quatre dégradés de gris du noir au blanc) confirme clairement une forte association entre le timbre et la forme visuelle :
un « son dur – harsh sound », comme une cymbale crash ou un gong, correspond à une forme dont les bords sont pointus, alors qu’un « son doux », comme un son de piano ou marimba, est associé à une forme arrondie. Un son contenant à la fois des éléments durs et doux, comme le saxophone, correspond à une forme mixte avec des angles ronds et pointus.
- De la même façon, des expériences ont montré que des mots abstraits comme « Baluba » ou « Bouba » ou des ondes sinusoïdales sont associés à des formes courbées, alors que « takete » ou « kiki » ou des ondes carrées correspondent davantage à des formes pointues.
- Bien que la correspondance Timbre-Forme soit très forte et conservée malgré un changement de la fréquence fondamentale (comme pour le saxophone, le marimba et le piano), un changement léger de formes évoluant de formes arrondies vers des formes mixtes a lieu pour le violoncelle et la guitare autour de 200 hz.
- Bien que l’association reliant le timbre à couleur soit moins forte que celle de la forme visuelle, les sons doux, avec des formes arrondies, sont généralement associés au bleu ou vert (ou gris clair) et les sons avec des formes mixtes ou dures au jaune et rouge (ou gris foncé ou noir).
Cependant, une étude plus approfondie sur la classification sonore (pas seulement provenant d’instruments musicaux traditionnels, mais aussi de sons « naturels »), notamment perceptive, nous permettrait éventuellement de déterminer différentes liaisons détaillées et mapping possibles entre le timbre et la forme de l’objet (type de forme).
À partir de la proposition de catégorisation sonore décrite dans le tableau 8, ci-dessous, (à évaluer, développer et affiner), développée à partir de différentes classifications (la typologie sonore - TARTYP de Pierre Schaeffer, la spectro-morphologie de Denis Smalley, la morphologie sonore naturelle de Trevor Wishart ou la classification sonore concrète et contextuelle de Robert Murray Schafer), il serait nécessaire de qualifier chaque buffer de son de manière automatique (en amont), afin de pouvoir les transmettre à Processing ou tout autre logiciel graphique et effectuer une association visuelle pertinente avec les formes qui devront être classifiées de la même manière. Ainsi, il sera possible d’associer à certaines paramètres d’une forme visuelle des caractéristiques spectrales perceptives et de faire évoluer la forme visuelle en fonction du profil temporel. (Une synthèse des différentes dimensions, représentées par un chiffre (une moyenne), est facilement envisageable, mais une représentation globale ne peut être finement détaillée et c’est dans les détails que l’essentiel peut parfois se révéler. Il serait particulièrement intéressant de récupérer pour chaque dimension une enveloppe ou une séquence de chiffres appropriée (25 ou 50 fois / seconde), mais cela représenterait une charge de traitement non négligeable (mais éventuellement possible si quelques fois / seconde).)
Une association précise est cependant difficile à accomplir, étant donné que les fichiers ne sont pas simplement lus, mais peuvent être complètement modifiés par des algorithmes de synthèse et effets, dont il faudra évaluer les possibilités de perception et les classifier à l’instar des fichiers sons.
[1] I. Viaud-Delmon, « Les aspects cognitifs de la perception 3D », Communication présentée au Forum International du Son Multicanal, Paris, France, 2014.
[2] R. Walker, « The effects of culture, environment, age, and musical training on choices of visual metaphors for sound », Perception and Psychophysics, 42(5), 491-502, 1987.
[3] K. Giannakis, « A comparative evaluation of auditory-visual mappings for sound visualisation », Organised Sound, 11(3), 297-307, 2006.
[4] M. Adeli, J. Rouat et S. Molochinikoff, « Audiovisual correspondence between musical timbre and visual shapes », Frontiers in Human Neuroscience, 8(352), 2014.
[5] F. Berthaut, M. Desainte-Catherine et M. Hachet, « Combining audiovisual mappings for 3D musical interactions », International Computer Music Conference, New York, Etats-Unis, 2010.
[6] S. D. Lipscomb, et E. M. Kim, « Perceived match between visual parameters and auditory correlates: an experimental multimedia investigation », International Conference on Music Perception and Cognition, Evanston, IL, Etats-Unis, 2004.
[7] N. Sani, « Réflexions sur le rapport entre composition et forme de diffusion de la musique électroacoustique dans la société contemporaine », Dans Académie de Bourges, Actes III, Composition / Diffusion en Musique Electroacoustique (p.161–167), Editions Mnémosyne, 1997.
[8] O. Revault d'Allonnes, « Xenakis : les polytopes », Paris : Balland, 1975.
[9] C. Salter, « N-Polytope : Behaviors in Light and Sound after Iannis Xenakis », Dans S. Kanach, Xenakis Matters (p.411-421), New York : Pendragon Press, 2012.
[10] M. J. Adeli, Rouat, S. Molochinikoff, « Audiovisual correspondence between musical timbre and visual shapes », Frontiers in Human Neuroscience, 8(352), 2014.
[11] M. Laliberté, « Une sensibilité électroacoustique dans le cinéma d’auteur », Actes du 1° Fórum Itinerários Musicaisu, Lisbonne, Portugal, 2018.
[12] M. Haverkamp, « Look at that sound ! Visual aspects of auditory perception », III Congreso Internacional de Sinestesia, Ciencia y Arte, Granada, Espagne, 2009.
Xon - ChristOn - Live 4 Life
ResearchGate | YouTube | Vimeo | FesseBook | Buy me a coffee | Patreon
- Home
- Photos
- Relationship with the tool
- Motivations behind Live 4 Life
- Global setup and usage
- GUI-views
- Code details
- Audiovisual extension