Venerdì 24 febbraio si aprono ufficialmente le danze per la nona edizione del Seeyousound, il festival dedicato al cinema della musica che si tiene presso lo storico Cinema Massimo di Torino. Non solo cinema, ma anche audiovisivo nella sua accezione più ampia: a esplorare queste frontiere è in particolare la sezione Soundies, curata da Alessandro Maccarrone. Oltre a proporre una selezione di venti videoclip usciti negli ultimi mesi (ne abbiamo parlato qui), la sezione si espande infatti con mostre e live audiovisivi.
Il primo live, sabato 25, si terrà presso la sala 1 alle 22.20 con Perceive Reality del batterista Khompa, assistito al video da Akasha. Si tratta di un concept sulla percezione della realtà, in particolar modo su come l’informazione e i media partecipino attivamente alla percezione di eventi e fatti nella nostra società.
Tutto parte dalla batteria di Khompa, al secolo Davide Compagnoni, che tramite lo strumento non solo aziona una serie di sequencer che gli permettono di suonare come una vera e propria orchestra elettronica, ma grazie ad una serie di accorgimenti tecnici trasmette segnali che vengono trasformati in un flusso video. Al suo fianco in questa impresa c’è Riccardo Franco-Loiri, nome d’arte Akasha, responsabile dei visual, che in questa intervista ci racconta nel dettaglio il funzionamento del loro spettacolo e ci svela il dietro le quinte di questo interessante progetto.
Innanzitutto ti chiederei com’è nata questa collaborazione tra te e Khompa?
E’ iniziata con una chiamata al telefono, un amico comune e grande ingegnere del suono, Stefano Genta, aveva appena dato il mio numero a Davide (Khompa), che stava cercando qualcuno per tradurre in linguaggio visuale i suoi pensieri sonori dell’ultimo album. Mi parlò del concept di Perceive Reality e di alcuni spunti riguardanti il live e mi entusiasmò subito, lo trovai inoltre molto interessato a tecniche e linguaggi video sperimentali che stavo studiando in quel periodo, per cui nacque immediatamente un’intesa.
“C’è una difficoltà, diciamo, ovvero che vorrei che tutto ciò che viene generato nei visuals sia triggerato dalla mia batteria” mi disse, ed effettivamente sudai per un momento. Mi parlò del suo show precedente nel quale la batteria azionava luci e barre led. Un’ora di visuals triggerate da quasi ogni colpo di batteria non è certamente una programmazione semplice. Era però esattamente quel genere di sfide in cui amo imbattermi.
Quanto è durata la preparazione del live e come avete lavorato assieme? Quali sono stati gli input principali di Khompa sul lato visivo?
Per preparare il live ci è voluto quasi un anno, in un costante back to back e scambio tra noi due. Innanzitutto abbiamo riflettuto sul concept per definire l’andamento dell’album: avendo tutte tracce scollegate da loro e presentate singolarmente, abbiamo voluto dare una definizione caratteristica per ogni brano. Alla base di Perceive Reality vi è un’esortazione ad approfondire il legame con la realtà e ad interrogarci sul modo in cui la percepiamo, un tema a noi due molto caro e di indubbia importanza per tutti, soprattutto in questo periodo storico in cui proliferano informazioni (sempre più spesso fasulle e faziose), visioni duali e agenti dissociativi che ci rendono sempre più lobotomizzati e incapaci di percepire la complessità del reale.
Davide mi ha lasciato molta libertà estetica, fornendomi però costantemente dei feedback e dandomi una mano a direzionare il lavoro trovando e discutendo reference e idee, soprattutto per realizzare il fine di presentare il live come una macchina tutta collegata nella sua interattività, cercando di andare oltre alle classiche interazioni audiovisive basate sulla semplice analisi del segnale audio.
Come funziona, concretamente la performance? E cosa devono aspettarsi gli spettatori?
La performance pone al centro la batteria e l’interazione di Khompa con essa, dalla quale scaturisce tutto ciò che viene visto e ascoltato. Attraverso un sistema di “sensory percussion”, gli impulsi derivanti dai colpi dati da Davide vengono trasdotti da una serie di trigger microfonici in impulso acustico e successivamente sequenziati via software. In questo modo, ogni singolo colpo dato da Khompa può diventare qualcos’altro: il rullante può far suonare contemporaneamente un altro sintetizzatore, l’intensità di un colpo dato a un piatto può determinare l’apertura di un riverbero su un altro strumento, e via dicendo.
Questo sistema di sequenziamento e discretizzazione del segnale (elaborato con Max Msp e Ableton Live) può quindi permettere a Khompa di diventare un’orchestra intera semplicemente suonando la sua batteria. Allo stesso modo questi segnali diventano i messaggi per poter comunicare fra noi due nell’audiovisivo. Sfruttando il protocollo MIDI, Khompa mi manda differenti pacchetti di segnali come sequenze note e modulazioni di controllo, tramite questi messaggi io creo la programmazione in base ai contenuti e alle finalità dinamiche e ritmiche del brano, ognuno diverso dall’altro.
La dimensione live, fin dalla registrazione (pare un ossimoro), è fondamentale per Khompa. A livello di intervento video anche tu hai un certo “margine di manovra”, giusto? Come funziona e come utilizzi questo spazio?
Nel nostro live è fondamentale la risposta interattiva costante e l’organicità. Per soddisfare la prima, ci sono servite tante lunghe giornate e notti passate svegli sui computer. Per la seconda, invece, abbiamo inserito dei controlli e degli espedienti che potessero aggiungere dinamica e variazione all’interno della performance audio e di quella video. Nel mio caso, per esempio, ho una serie di controlli ed effetti sulla mia console che posso usare a mia discrezione per enfatizzare e vivacizzare alcune parti, allo stesso modo posso aumentare o ridurre l’influenza di alcuni segnali che arrivano da Davide per manipolare ad hoc il materiale in base anche al tipo di location e contesto.
Ad ogni brano corrisponde un apparato visivo ben distinto, ma ci sono alcune costanti nel vostro spettacolo, come l’utilizzo di fotogrammetrie e in generale al 3D. Come mai avete scelto proprio questa tecnica e in che modo si lega al concept sulla realtà percepita?
Trovo la fotogrammetria e la scansione 3d un perfetto sistema di osservazione e di estrapolazione di dati dal reale perché comprende una visione precisa dell’oggetto mediante la texture ricomposta dalle fotografie e al tempo stesso una sua visualizzazione spaziale data dalla mesh 3D. Tutto ciò prende nuove forme e ci permette di stratificare la percezione della realtà partendo dal dato oggettivo, espandendo il contenuto in maniera ben diversa dalla copia/modellazione degli oggetti in 3D: la fotogrammetria immortala un momento e una forma, è la sua copia mediata dal software e non un tentativo “artigianale” o umano di riprodurla.
Ho realizzato una serie di fotogrammetrie naturali fra grotte e boschi di varie località d’Italia e non, realizzando anche dei set ad hoc, per poi allinearle e processarle come oggetti 3d e point clouds utilizzando diversi software – Touchdesigner, Cinema4D e After Effects per esempio – per avere differenti risultati. Sempre per rimanere nel tema della trasposizione del reale nel digitale, abbiamo inoltre utilizzato le immagini e i dati topografici di Google Earth Studio (visibili in “Concrete”, ad esempio) per creare un iperviaggio surreale tra le metropoli del mondo.
Nel processare i dati musicali e trasformarli in immagini in movimento ti avvali anche di algoritmi AI, di cui si fa un gran parlare negli ultimi tempi. Tu che ci lavori frequentemente che opinione ne hai e che idea ti sei fatto sulla possibile evoluzione di queste tecnologie applicate al video?
Ammetto di essere molto di parte in questo discorso. Sono entusiasta nei confronti dell’AI e degli ultimi sviluppi. Ciò che nel 2017 si credeva fantascientifico agli albori della sintesi di immagini con le GAN (Generative Adversarial Network, un sistema molto usato nella produzione di immagini artificiali) oggi brucia i tempi di computazione con i nuovi modelli di diffusione. Per esempio, per generare un volto realistico con una GAN ci volevano dei giorni fino a pochi anni fa, adesso il tutto può avvenire, con diverse variazioni sulla stessa immagine pure, in meno di un minuto.
In generale sono un fervente sostenitore di Stable Diffusion e di tutti i sistemi di machine e deep learning open source, a differenza di ben più celebri modelli privati e che non lasciano la possibilità all’utente di personalizzare e modificare il codice (Dall-e, Midjourney..).
Penso che l’AI vada intesa come un nuovo strumento e come ogni strumento non è né fondamentale né del tutto superfluo in una produzione artistica. Mi interessa molto vedere come si delineeranno nuove tendenze e nuovi utilizzi di questi tool e provo molta euforia nell’osservare giorno per giorno come evolve velocemente questa tecnologia e come si sviluppa sempre di più il dibattito etico e sociale che la accompagna da sempre. Penso che l’artificiale potrà anche mettere in crisi il ruolo dell’uomo su tanti aspetti tecnici e professionali (come molti millantano in articoli di giornale clickbait), ma non potrà produrre nulla di negativo al mondo dell’arte se non quello di rivoluzionare molti aspetti, alzarne il livello e riportare l’essenza sul contenuto.
Per chiudere, non bisogna dimenticare che vi esibirete a Torino, che è la vostra città, siete emozionati?
Sì, molto emozionati. Inoltre, il Cinema Massimo è per me da sempre un posto speciale : venivo qui a vedere i vecchi classici d’avanguardia quando ancora frequentavo il liceo, passavo lunghe giornate da una sala all’altra durante il Torino Film Festival (e pure per Seeyousound, che mi ha fatto scoprire svariate indimenticabili pellicole) e ho avuto pure il piacere di farci delle lezioni dentro durante l’università.
SEEYOUSOUND 9:
www.seeyousound.org, info@seeyousound.org, facebook.com/SEEYOUSOUND, instagram.com/seeyousoundfestival, twitter.com/Seeyousound
Il programma completo – Tickets