Buffers, Opus#1,
Opere interattive per danzatori.
2000/2005
Per questi spettacoli sono stati necessari tre differenti programmi operanti simultaneamente su computer diversi, questi hanno tradotto gli spostamenti nello spazio dei danzatori, in informazioni Midi, hanno permesso di elaborare e alterare il suono, le immagini e le voci in tempo reale.
In questo modo le forme proiettate su un grande schermo-fondale sono state manipolate direttamente dai corpi danzanti.
Collaborazione con la compagnia di danza AIEP.
Luigi De Aloisio interaction designer
Paolo Solcia musicista ed esperto di software interattivi
Ariella Vidach coreografa e danzatrice
Claudio Prati artista e organizzatore di eventi
Scambio di esperienze
Nel 2000 prende forma la mia collaborazione con il gruppo Aiep, per la progettazione e realizzazione di contributi grafici interattivi da utilizzare nello spettacolo di danza interattiva Opus#1. Come prima esperienza in questo campo ho dovuto acquisire nuove competenze e risolvere alcune problematiche relative alla progettazione e all'uso dell 'interattività nell'arte performativa. Dopo alcuni test preliminari e la creazione di software specifico che reagisse ai movimenti dei danzatori, sono riuscito a interfacciarmi al resto delle apparecchiature e intraprendere quindi questa stimolante esperienza nel mondo della danza moderna. L'obiettivo è stato quello di fondere la freddezza del digitale con la poesia dei gesti dei danzatori e lo spazio sonoro, e la loro continua interazione sul palco. Questo documento va visto quindi come una raccolta di informazioni su come noi in questa produzione abbiamo risolto i vari problemi sia tecnici sia creativi, ed è rivolto a chi vuole utilizzare le tecnologie digitali in abito teatrale e sperimentale.OPUS#1
Opera interattiva per danzatori. In un'atmosfera rarefatta si muovono quattro figure antropomorfe. A poco a poco si scoprono e interagiscono con lo spazio circostante svelando relazioni sonore e visive. Il movimento, grazie ad una combinazione originale di vari software e ad un sistema tecnologico appositamente ideato, attiva la sorgente musicale e le imprime ritmo ed intensità, così come manipola e controlla le immagini proiettate su un grande schermo. La partitura coreografica si delinea attraverso una gestualità primordiale, quasi espressionista, solo apparentemente in contrasto con il codice e la tecnologia."Ispirato al racconto di Jorge Luis Borges, La Biblioteca di Babele, Opus #1 è una metafora del mondo: lì si trovano ordine e caos, “bibliotecari imperfetti” costantemente alla ricerca dei misteri fondamentali dell’esistenza e dell’umanità. Nessuna certezza, ma molte scoperte: relazione con gli altri danzatori, con lo spazio, con i suoni onomatopeici, con i rudimenti del linguaggio, con le immagini. Universo di segni che tenta di trasformarsi in scrittura. Linguaggio del corpo che diviene parola ed emozione".
Ariella Vidach.
Interazione danzatore/processore
Eventi controllati dalla danza. Nella creazione di eventi interattivi in tempo reale per la danza il primo passo è rendere disponibili al computer tutte le informazioni necessarie, in modo da mettere la sua potenza di calcolo al servizio della coreografa la quale deve riunire elementi propri del linguaggio teatrale, come il gesto, la sensibilità al suono e il rapporto con gli elementi visivi presenti sulla scena, con altri elementi tipici del elaborazione digitale, molto più affini a ambiti tecnici e matematici, come per esempio posizione assoluta, velocità del gesto e accelerazione dei movimenti. Tutte questi parametri verrano in seguito elaborati da un computer al fine di produrre ad esempio determinate variazioni in tempo reale dei parametri sonori come, il volume, il pitch sonoro ecc... In Opus#1 l'occhio di una telecamera rileva il colore rosso indossato dai danzatori ed è quindi in grado di inviarlo a un software specifico che riesce trasformarlo in numeri relativi alla posizione sul palco, quello che in termine tecnico viene detto color tracking.- Il midi è uno standard di trasmissione digitale molto utilizzato in ambiti teatrali e nelle performance live per connettere diversi strumenti sonori o apparecchiature elettroniche, come impianti luce, effetti, mixer ecc..
Nel nostro caso il software utilizzato è stato BigEye un software sviluppato da Steim un centro di ricerca olandese ,il quale effettua il tracking della posizione (X-Y) e l’accelerazione (V) del guanto rosso indossato dai danzatori e in tempo reale trasmette le informazioni in formato MIDI ai programmi che controllano e elaborano dinamicamente la colonna sonora e gli elementi interattivi.
-
Utilizzando come interfaccia il sistema OMS installato sui diversi computer, siamo riusciti a scambiare i dati in tempo reale, tra i diversi software usati. OMS è l’acronimo di Opcode Music System, e venne sviluppato tempo fa dalla Opcode per la gestione degli strumenti Midi nel sistema operativo della Apple.
Interazione tra suono e immagini
Sound Processing e Image Processing
Una volta che i dati relativi a un danzatore in movimento sul palco, sono stati correttamente ripuliti e trasformati in valori numerici, si passa alle varie elaborazioni da parte dei software specifici, sia per il suono che per le immagini/video. Nel nostro caso la necessaria elaborazione per la creazione degli 'ambienti sonori dello spettacolo sono state affidate alle capacità tecniche di Paolo Solcia, un musicista e compositore molto esperto nell'elaborazioni audio in tempo reale e nell'uso del suono nello spettacolo, come anche per la didattica musicale per bambini.
Il suo programma preferito che tra l'altro ho scoperto essere anche il più diffuso in questa area è Max/MSP, un ambiente di sviluppo programmabile molto interessante, sia per la potenza nel modificare i moltissimi parametri sonori sia per il suo funzionamento che per la sua originale interfaccia a moduli collegabili.
Grazie a Max i dati provenienti dalla telecamera sono stati usati come controlli per sofisticate elaborazione sonore in real time come ad esempio la sintesi granulare, una particolare manipolazione audio che non conoscevo, la quale espande il suono in maniera veramente sorprendente. Oltre a questo, sfruttando la sua caratteristica forma di programmazione Max si è comportato da centrale di smistamento, pre-elaborando i dati riservati alla parte immagine.
In alcune versioni dello spettacolo Paolo Solcia ha anche utilizzato Image/ine, un software per l' elaborazione video in tempo reale sviluppato da Steim, collegato alla catena midi, questo programma sfruttava i dati provenienti dalla telecamera per manipolare direttamente il video digitalizzato.
In parallelo il mio compito è stato quello di creare le giuste metafore visive per ogni scena, elaborando i dati codificati provenienti da Max per controllare gli oggetti in movimento, la loro velocità, posizione, forma ecc...
Il programma da me usato per questo progetto è stato Director, questo software viene utilizzato principalmente per la realizzazione di cd-rom e contributi per il web grazie al suo formato Shockwave, può sembrare strano utilizzare questo software non specifico, ma il suo utilizzo mi ha permesso di sfruttare appieno le possibilità offerte dal suo linguaggio di programmazione, il Lingo, un ambiente di sviluppo molto potente e flessibile, che mi permette da alcuni anni di realizzare progetti interattivi molto particolari che altrimenti non avrei mai potuto realizzare se non con linguaggi ben più complessi (C++, Java, ecc...).
Un problema a parte ha creato la connessione midi di Director al resto dei software utilizzati, visto che questo programma non possiede normalmente un traduttore midi, dopo molte ricerche abbiamo trovato un MIDIio Xtra per director, scritto dall'australiano Ross Bencina, il quale permette l'importazione e l'esportazione di dati midi nel programma. Gli elementi più caratterizzanti di questo progetto per quanto riguarda le parti interattive, il dinamismo e la tipografia, mi hanno portato verso la creazione di sistemi particellari, formati da molte lettere che si evolvono grazie a formule matematiche, e controllate dai dati provenienti direttamente dal danzatore, questo ha messo in luce interessanti relazioni tra la gestualità e gli agglomerati in continua evoluzione, permettendo ad Ariella Vidach di creare scene studiate appositamente, dove il rapporto con l'elemento virtuale diventa esso stesso parte dello spettacolo, come nella scena "homellitterus", dove un omino composto da flussi di lettere, danza e si muove con comportamenti propri, reagendo al cambio di posizione del danzatore modificando le suo pose.
Tempo Reale
Quando il tempo corre il real time è stato uno dei primi problemi con cui ho dovuto confrontarmi nella creazione degli elementi interattivi, infatti durante la performance tutto il processo di elaborazione dell'audio e le immagini deve avvenire in tempo reale, questo comporta una maggiore attenzione nella realizzazione di script specifici, per evitare che troppi dati midi vadano a intasare il flusso delle informazioni.L'uso di director nelle prime fasi di sperimentazione, mi ha creato dei seri dubbi sulla sua tenuta durante la performance live, l'utilizzo di un particolare software scritto per funzionare su un cd-rom o su web non si può certo paragonare a quello che può essere durante uno spettacolo. Con meraviglia dopo alcuni test e la riscrittura in lingo di alcune routine di controllo, sono arrivato alla conclusione che Director è un ottimo programma anche per questo genere di utilizzo.
Ovviamente molta cura è stata prestata nel scrittura di routine per il midi e nello scambio di dati tra MAX e Director, come risultato ho contato ben poche volte in cui il programma si è bloccato, e nella maggioranza dei casi per motivi non dipendenti dal codice.
Software
Specifiche sui programmi usati:software della Steim(NL)per il tracking dei colori
Max/MSP
software della Cycling 74(USA) per l'elaborazione e la sintesi audio e il midi
Director
software della Macromedia(USA) per i le parti interattive
MIDIio
extra per director per l'uso dei segnai Midi
Hardware
Specifiche sulle apparecchiature usate:Tre software sono installati in tre diversi computers G4/G3 Macintosh e sono connessi in tempo reale via Midi. Due videocamere, posizionate verticalmente sul palco (altezza 6.00 m) e orizzontalmente sul fronte scena, intercettano i movimenti (gesti e uso dello spazio) dei danzatori attraverso la lettura di un colore (in questo caso il colore rosso).
Links
AIEP Sito ufficiale
STEIM Centro di ricerca olandese dove trovare BigEye
MIDI documentazione e progetti MIDI
MAX/MSP sito ufficiale per MAXMSP