DEAF07
 
 

Blog

rss

Interview with Marnix de Nijs [dutch only]

Exercise in Immersion

Rotterdam, 29 maart 2007

Arie Altena

Donderdagmiddag 29 maart 2007. De Nederlandse kunstenaar Marnix de Nijs is druk bezig met het realiseren van de eerste publieke presentatie van zijn project EI4, Exercise in Immersion 4. In de tentoonstelling van DEAF07, het Dutch Electronic Art Festival, zal een eerste demoversie van dit werk te zien zijn. EI4 is een artgame, het is een technisch complex project waarvoor Marnix de Nijs in samenwerking met V2_ software ontwikkelt.

 

AA: Wat valt er tijdens de eerste 'gebruikerstest' van EI4 te zien?

MdN: EI4 is een game die je in een grote hal speelt. Als speler draag je een crash-suit en een bril waardoor je een stereoscopische videofeed van de hal ziet, opgenomen door een camera die aan je hoofd is bevestigd. Als je het speelveld oploopt zie je 'bions' rondvliegen, een soort intelligente klodders snot. Die moet je verzamelen door ernaar toe te lopen – dan blijven ze aan je kleven. De bions helpen je om te navigeren in de hogere levels van de game. In de hal staan betonnen pilaren, maar die kun je niet altijd zien door de bril. De bions vliegen er echter wel altijd omheen, ze zijn dus een extensie van jezelf die je helpen navigeren. De gamethread van EI4 is het 'verzamelen' van een instrument waarmee je in een veranderende wereld kan overleven. De wereld veranderd in de game namelijk van een videofeed van de bestaande ruimte naar een aangepaste en gemanipuleerde 3D-kopie van die ruimte. De gameplay focust op de scheiding tussen virtueel en reëel, tussen echt en onecht. Ik ga op die scheidslijn zitten en speel er spelletjes mee. Zoals het in de gamewereld weghalen van pilaren die er in het echt wel zijn. Daar kun je dan tegenaan botsen. Dat is een fysieke manier om die scheidslijn aan te geven. Fysieker kan je het niet maken. Je knalt er gewoon tegenaan, weg uit de artificiële wereld. Daarom draag je ook een crash-suit. De scheidslijn tussen echt en onecht, immersie en non-immersie speelt ook in mijn vorige werk, Run Motherfucker Run (RMR), een rol. Daar wordt je door de loopband opgejaagd, je kunt er controle over krijgen, maar lukt dat niet, dan wordt je letterlijk van de band afgegooid, en dus fysiek uit de gamewereld geworpen.

In je installaties zorg je er vaak voor dat degene die je werk ondergaat op een punt komt waarin de zintuigen, in ieder geval ogen en oren, andere informatie binnenkrijgen dan je lichaam. Je lijkt daarin steeds een uiterste op te zoeken, tegen een pilaar aanknallen, vreselijk misselijk worden...

Je kunt het zien als tools waarmee je moet leren omgaan binnen de tijdsspanne waarin je zo'n installatie ondergaat. Ik probeer het altijd zo te programmeren dat je binnen een redelijke tijdsspanne een nieuwe balans kunt vinden tussen al je sensorische inputs, zowel auditieve, visuele als die van je evenwichtsorgaan – dat zijn de drie basics in mijn werk. Het zijn de ingrediënten waartussen ik een nieuwe balans creëer, en die kun je vinden of niet...

Jij bouwt een apparaat waardoor een disbalans ontstaat – en de opdracht aan degene die zo'n installatie binnengaat is om een nieuwe balans te vinden.


Precies.

Het gaat in die zin over inlijving van technologie. Veel van je werk heeft een flinke fysieke verschijning, het zijn grote 'machines', een grote luidspreker aan een rondzwiepende arm van een paar meten, hoovercrafts, een razendsnel ronddraaiende stoel binnen een projectie. Op het eerste gezicht lijkt het daardoor alsof jouw werk over machines gaat, zoals de machinekunst van de jaren tachtig. Maar als je ze ervaart blijkt het dat ze eerder gaan over de kracht van de mens, die zegeviert over de machines door zich aan te passen.

Maar het lukt ook een heleboel mensen niet. Het is een onderzoek van dat thema. Daarop programmeer ik de balans van zo'n installatie. Ik kan zo'n machine heel makkelijk veel gemener maken. Ik kan de loopband van RMR zo afstellen dat iedereen er afvliegt. Maar dat doe ik niet. Ik probeer de grens tussen balans en disbalans te vinden en duiden. Ik ben niet pessimistisch over techniek, mijn werk is geen kritiek in de trant van 'wij zijn kleine weke mensjes, van vlees en bloed, die echt kunnen bloeden en die gaan te onder bij het geweld van de technologie.' Als je van die band gesmeten wordt, kun je zoiets denken. Ik zoek naar een balans – en de ene keer ga ik een beetje meer aan de ene kant zitten, en een andere keer een beetje meer aan de andere – omdat ik niet zo'n gemakkelijke verhouding heb met de techniek. Dat is misschien raar om van mij te horen, maar ik ben er helemaal niet zo blij mee dat ik zo vaak achter die machines zit, die computers daar (wijst naar zijn bureau) op mijn werktafel. Ik krijg er ook fysiek last van als ik er lang achter zit.

Terwijl je wel van techniek houdt...

Ik hou van sleutelen aan auto's en hier staat mijn uitvinding van vandaag, een dingetje waarmee je waterpas loodrecht een laserstraal de lucht in kunt sturen. Dat heb ik vandaag gemaakt omdat we voor EI4 op heel exacte posities sensoren aan het plafond moesten hangen. Hiermee konden we het schema op de vloer uitmeten en dan op het plafond projecteren. Ik maak dan zo'n stukje gereedschap. Je kunt het ook wel in de winkel kopen, maar ik vind het leuk om zelf te maken. Dingen repareren vind ik ook leuk. Maar dat is een algemene interesse, waardoor ik bij dit soort kunst uitkom. Mijn eerste werken waren machines die niet interactief waren. Op een gegeven moment wilde ik die interactief maken.

Waarom?

Omdat je dan een grotere betrokkenheid kunt genereren. Ik vind interactiviteit op zich niet zo interessant, zeker niet als manier om een oneindig aantal variaties aan te bieden waaruit de toeschouwer zijn eigen keuze kan maken. Mijn installaties vertellen het verhaal dat ik wil overbrengen. Maar die betrokkenheid vind ik interessant.

De balans waar je naar zoekt, dat komt heel precies. Hoe vind je dat punt? Hoe stem je die balans af?

Bij de loopband van RMR was het gewoon proberen. Ik doe gebruikerstests. Niet op een academische manier overigens. Ik ga niet honderd mensen uitnodigen en ze enquêteformuliertjes laten invullen. Als je een beetje verschillende mensen hebt, weet je na tien tests precies wat er aan de hand is. Je bent als maker zelf de slechtste tester: je weet hoe de sensors reageren, hoe de motor gestuurd wordt en hoe, in het geval van RMR, alle parameters van vertraging, remcurve en filtering zijn ingesteld. Zelfs op een slecht afgestelde loopband kan ik anticiperen. Hetzelfde geldt trouwens voor het beeld. Aanvankelijk had ik voor de film van RMR – die je al lopend op de band voor je ziet – een scenario laten schrijven. Het zou een interactieve film worden waarin allerlei gebeurtenissen te zien zouden zijn. Ik was er van overtuigd dat het zou werken. Tijdens de gebruikerstest bleek het absoluut niet geloofwaardig te zijn. De testers gingen plaatjes kijken, het was niet langer de wereld waar je doorheen rende. Daar kom je achter door proefopnames te maken en te testen. Omdat je het beeldmateriaal maar vanuit één point of view kunt schieten, ziet de toeschouwer een gebeurtenis al van verre aankomen – je kunt immers alleen maar vooruit op die loopband. Stel dat bij een voetgangerstunnel in de film een stel mensen een auto aan puin slaan. Ten eerste loop je daar in de echte wereld waarschijnlijk niet naar toe, ten tweede, als je bij die plek arriveert, ben je er ook al meteen voorbij. Je mist alle filmische middelen om zo'n scène interessant te maken zoals bijvoorbeeld een close shot. Door de loopband heb je geen montage, geen ritmiek. Het scenario van Tim Echells is uiteindelijk helemaal niet gebruikt. Alleen de sfeer zit er nog een beetje in.

In EI4 is juist het omgekeerde gebeurt toch? Daar is steeds meer scenario gekomen, ik denk dan aan de verschillende levels in de game. Hoe is die ontwikkeling gegaan?

De oorspronkelijke beschrijving van EI4, voor de eerste subsidie-aanvraag, was heel algemeen. Al wist ik precies waar ik naar toe wilde. Bij RMR waren subsidiegevers en co-producenten teleurgesteld dat het scenario niet was gebruikt. Om niet al te hoge verwachtingen te scheppen, heb ik de eerste beschrijving van EI4 heel algemeen gehouden. Daarom stond er niets in over gamelevels. Nu werk ik aan de eerste gebruikerstest, dan moet er iets visueel zijn. Dus moet ik levels bouwen. Dat zijn er nu vijf waarvan er met een beetje pech eentje weg zal vallen.

Je had toch ook kunnen kiezen om maar één level te maken?

De levels die ik nu gebruik bezitten elk een onderzoekselement. Er zijn een aantal dingen die ik wil onderzoeken, die heb ik over de levels verdeeld. Dan kun je beter determineren wat werkt en wat niet werkt. In level 1 verzamel je bions en ga je van een gewone videofeed van de ruimte naar een halve mix, naar augmented reality. In level 2 ga je van augmented reality naar een volledige 3D-wereld. In level 3 gaat de hele ruimte om zijn middelpunt draaien. Level 4 is een soort gangenstelsel. Dat is een experiment. De vraag is of ik een compleet andere wereld kan neerzetten die niets met de bestaande ruimte te maken heeft – wordt je dan toch meegevoerd door die wereld, terwijl je erdoorheen loopt? Heb je een filmische ervaring die relevant is? In het laatste level komt je terug in de bestaande ruimte, die wordt vervolgens langzaam oneindig, uit die oneindigheid komen objecten gevlogen die je van het speelveld proberen te beuken. Die zijn er niet echt in de hal – dan wordt het te veel theater. Helemaal aan het einde wil ik dan terecht komen in een soort woestijn, of een open kale vlakte, een soort Maasvlakte met een Dali-saus eroverheen.

Welke software gebruik je voor de realisatie?

De 3D-ruimtes worden in 3D Studio MAX getekend door een stagiair van V2_. Ik geef schetsaanwijzingen, maak objecten en teken het licht erin. Dat rendert hij dan weer tot bestanden die de game-engine in kunnen. Ik heb zelf zes jaar 3D studio Max gebruikt, maar dat was voordat alle features erin kwamen die we nu gebruiken. De laatste jaren werk ik alleen maar in Cinema 4D. Ik weet wat er kan, hoe het werkt, hoe je licht aanmaakt, maar het is absoluut niet mijn beroep.

Boris Debackere doet het geluid. Hoe verloopt die samenwerking?

Ik heb al eerder met Boris gewerkt – voor RMR. Ik werk graag met hem omdat hij heel goed met geluid een filmische atmosfeer kan oproepen. Hij is samen met zijn broer Brecht ook met ruimtelijk geluid bezig in hun ROTOR-project. Het is erg mooi om gebruik te kunnen maken van gespatieerd geluid wanneer je virtueel door een ruimte loopt. Als de hele ruimte gaat draaien, dan heb je letterlijk Boris' ROTOR, tenminste als je zijn geluidsbronnen in de ruimte zet. Voor hem is dat ook de reden om mee te werken. De audio-engine die Artem Baguinski van V2_ in de engine bouwt maakt dat mogelijk, daardoor kun je onzichtbare objecten in de gameruimte hangen waar je geluid aan koppelt. Voor Boris is dat een interessante manier van componeren die meteen heel visueel is. Dat kan ook in de toekomst interessant voor hem zijn. In het project heeft hij een vrij autonome rol. Ik geef min of meer aan wat ik wil en daar geeft hij invulling aan. Maar als hij iets maakt wat me niet aanstaat dan zeg ik dat uiteraard. Verder is het geluid zijn ding.

Hoe zit het met de samenwerking met V2_Lab? Is die ingewikkelder omdat je technologie gebruikt die nog niet is doorontwikkeld?

EI4 maakt gebruik van technieken die nog niet als consumentenproduct beschikbaar zijn, en die zelfs binnen de academische onderzoeksinstituten nog lang niet zijn uitontwikkeld. We werken met prototypes, op ieder front kom je dan problemen tegen. Eigenlijk zijn we bèta-bèta-testers. Dat gaat gewoon door tot vlak voor de opening. Voor EI4 werk ik nu met 25 Hexamite 'ultrasound receivers', dat zijn sensoren voor de positiebepaling. Het is een systeem dat je in principe min of meer tot in het oneindige kunt doorlussen. Aan het plafond in de ruimte waar EI4 wordt gespeeld hangt een een grid van ontvangers die geluidspulsen ontvangen. Op het hoofd van de speler zit een sensor die pulsen uitstuurt, en op basis van een driehoeksmeting kan je dan de positie van een persoon in de ruimte bepalen. Dat werkt vrij redelijk. Ik track een ruimte van zeven bij twaalf, maar in principe wil ik een grotere hal kunnen tracken. Ik heb zoveel sensoren nodig omdat ultrasoon geluid niet zo ver draagt. GPS is bij lange na niet precies genoeg, ook niet de militaire band, ik track namelijk met een precisie van vier centimeter. De driehoeksmeting geeft een xyz-positie in de ruimte. Die data worden gecombineerd in een filter met data uit gyroscoopsensoren en een kompassensor die de draaiing van het hoofd van de speler meten. Daarmee worden de virtuele camera in de game-engine aangestuurd.
Als je weet dat je een dergelijk systeem nodig hebt ga je eerst onderzoeken of zoiets al bestaat. Daar is V2_ een jaar geleden mee begonnen. Niet voltijds natuurlijk. Er zijn best veel onderzoeken geweest naar sensorsystemen – eigenlijk is iedereen er mee bezig. Je vindt systemen met specificaties die er veelbelovend uitzien, maar dan blijkt dat er al twee jaar niets meer mee gedaan is. Uiteindelijk blijkt dat niemand een systeem heeft dat echt werkt. Er is alleen één outdoor-systeem dat mogelijk beschikbaar was vanuit een van de partners van MultimediaN (één van de belangrijkste financiers), maar dat was niet te transporteren, het functioneert alleen buiten, en het zou ook veel te duur zijn geweest. Het is niet reëel om dat te willen gebruiken, het is overigens wel ingebouwd in een aantal voetbal- en atletiekstadions. Vervolgens zijn we aan het werk gegaan met een aantal alternatieven die niet optimaal waren. Sommige daarvan hebben we geprobeerd te verbeteren. Dat leverde ook geen bevredigende oplossing op. Uiteindelijk hebben we besloten om het systeem van Hexamite ultrasound sensoren te gebruiken met de software zoals die geleverd wordt, dat bleek toch niet zo slecht te zijn, dachten we. Hardwarematig is dat systeem bijna oneindig uitbreidbaar. Je kunt zoveel sensoren plaatsen als je wilt. Alleen blijkt nu, anderhalve week voor de de eerste gebruikerstest, dat de software daar nog helemaal niet op aangepast is. Het is nooit getest in een opstelling van meer dan zes sensoren. Nu zit een programmeur van V2_ er fulltime op te coden.
Gelukkig is duidelijk aangekondigd dat het bij DEAF om een demo-presentatie gaat, maar het is wel in mijn belang dat er zo veel mogelijk te zien is. Op DEAF07 moet ik support zien te krijgen om een vervolgversie te maken. Zo'n complex project doe ik daarom bijna altijd in twee stappen. Er is eerst een demofase. Aan het einde van de demofase bepaal ik de kaders waarbinnen ik door wil werken. Dan heb ik ook genoeg beeldmateriaal om te laten zien aan mensen uit de beeldende kunst, en kan ik voor geld aankloppen bij de filmfondsen. Tegelijkertijd is zo'n demo ook erg speculatief. Zal ik het kunnen waarmaken? Het is een groot en best pretentieus project. Er zit theaterlicht in, er zijn crash-suits gemaakt, er wordt beeldmateriaal gemaakt. Maar tot nu toe zijn het allemaal losse eindjes, er is nog geen integratie. Er moet wel een evenwicht zijn tussen wat je presenteert en wat aangekondigd staat. Ik heb misschien wel de grootste hal van het DEAF-festival, er is mooi vormgegeven theaterlicht. Als er dan op een ander niveau in de productie bugs zijn, dan ga ik onderuit.

Ik kwam op de server van V2_ een documentje tegen over de ontwikkeling van de software voor RMR. Dat beschreef vergelijkbare problemen: Macs die niet snel genoeg waren om alle data in realtime uit te lezen, een overzicht van verschillende oplossingen die daarvoor werden ontwikkeld, waar daarvan werkte en wat niet.

Dat klopt. Voor RMR hadden we het probleem dat de laserscanner die we gebruikten – eentje van hetzelfde type als die op de Pathfinder (daarover kon ik beschikken dankzij het ZKM) – veel te veel data naar de Mac verstuurde, meer dan de computer kon verwerken. Daarvoor hebben we toen onder andere iets gemaakt in MAX/MSP. MAX is natuurlijk een heel handige knutseltool, maar als je echt iets goeds wil hebben kun je dat natuurlijk beter in C schrijven.

Want dan krijg je minder problemen met uitlezen van data, minder overkill?

Ja, je maakt met MAX/MSP weer een schil in een schil, en dat leidt weer tot vertragingen, en levert mogelijk rare dingen op.

Kun je zelf programmeren?

Nee, maar ik kan wel knutselen in MAX. Zo'n scanner uitlezen kan ik niet. Op architectuurniveau begrijp ik wat er gebeurd. Ik heb met Stock – een van de programmeurs van V2_, wel discussies gehad over hoe hij die laserscanner moest uitlezen. Maar ik kan het niet zelf. Voor die dingen heb ik het Lab van V2_ nodig. Voor mij is het moeilijkste aan de samenwerking bij EI4 dat het in deze fase puur gaat om het ontwikkelen van techniek, van hardware en software. De specificaties daarvoor kan ik eigenlijk zo op een briefje schrijven. Ze zijn ook niet veranderd het afgelopen jaar. Ik wil eigenlijk nu verder, en ik moet ook verder. Er moet iets te zien zijn. De beeldende fondsen die me subsidiëren gaan uiteraard niet akkoord als ik alleen techniek ontwikkel. Dat zou ik ook niet willen. Soms voel ik bij zo'n samenwerking echt een discrepantie: je bent techniek aan het ontwikkelen, wat moet ik daar zo nodig bij als kunstenaar?

Terwijl de technische ontwikkelingen gaande is, vinden er toch onder invloed van dat proces, allerlei bijstellingen plaats, die ook betrekking hebben op het artistieke aspect van het project, hoe het werk moet functioneren en hoe het er moet uitzien?

Natuurlijk heb ik ook een rol in die technische ontwikkeling. Maar eigenlijk wil ik steeds net iets meer. Ik zit de hele tijd op het puntje van de stoel, klaar om echt aan de slag te gaan met de visuele invulling– en dat kan nog niet.

Dat is de vertragende werking van het ontwikkelen van techniek. Jij zou steeds liefst al twee stappen verder zijn.


Ja, doe mij alsjeblieft nu een gebruikerstest want dan kan ik weer verder! Het heeft nu geen zin om al 25 levels te ontwikkelen van EI4, al zou ik dat wel willen. Want ik weet nog niet welke gamethreads goed werken en welke niet. Dat weet ik pas na de eerste test, maar daarvoor moet eerst de techniek op z'n minst functioneren. Nu lopen in de praktijk de artistieke en technische ontwikkeling van EI4 door elkaar. Dat is niet ideaal. Dat merk je ook in de werkwijze. Het V2_ Lab zoekt dingen natuurlijk heel precies uit. Ik zou echter op dit moment meer geholpen zijn met een snel prototype, maar er bestaat geen rapid prototyping-tool voor sensorsystemen. Het is niet voor niets dat elke technische universiteit ermee aan het 'knoeien' is, en dat er nog geen goede oplossing bestaat. Soms vraag ik me wel eens af: moet ik dit wel willen, zo'n lang ontwikkeltraject.

In de commerciële gameswereld gaat het toch sneller?


Daar werken ze veel meer binnen uitontwikkelde kaders. Als je from scratch begint, kun je ook nog eens iets echts nieuws maken. Binnen de gameswereld gebeurt dat niet of nauwelijks. Het is wel aardig om te vertellen hoe EI4 is begonnen. Ik werk al langer samen met V2_ en ken de mensen daar. Ik mail ze ook wel eens tussendoor met vragen over techniek. Zo is er een techniek om stereoscopisch video-beeld te interpreteren en daarmee 3D-beeld te genereren. Mijn eerste idee was om iemand met een stereoscopische bril op door een ruimte te laten lopen, dat beeld wilde ik in 3D opnemen en manipuleren. Ze gebruiken dat wel voor filmopnames van Mars. Maar je kunt op die manier niet meer dan 1 frame per seconde, of zelfs per 25 seconden maken. Ik had daar een vraag over, en mailde wat met de programmeurs van V2_ , we bedachten oplossingen en kwamen al snel bij een ander idee uit. Hoe dat precies bij het management terecht is gekomen, weet ik helemaal niet. Ik meen dat Artem Baguinski erover sprak met Anne Nigten. Het bleek perfect te passen binnen een onderzoeksproject van MultimediaN. Daar kwam ik over praten en vervolgens konden we meteen aan het werk, konden de programmeurs worden betaald. Normaal zit je eerst in een financieringstraject van een half jaar. EI4 is een project dat op basis van idee-vorming en een beetje sparren met een van de programmeurs ineens een grote vlucht heeft genomen. Daarom wil ik nu niet meteen doorontwikkelen, maar eerst eens een gebruikerstest zien. Even terug naar wat reflectie.

Meestal toon je je werk op mediafestivals. Krijg je ook mogelijkheden om je werk in musea en inde context van beeldende kunst te tonen?

Langzamerhand gebeurt dat wat meer. De Shanghai Biennale waar ik aan meedeed was echt een manifestatie voor beeldende kunst. Daar komen mensen uit de beeldende kunst kijken, daar spreek je curatoren van musea voor beeldende kunst, en critici die voor kunsttijdschriften schrijven. Maar over het algemeen is de interesse van die kant eerder klein. Ik heb het Museum Boijmans van Beuningen wel eens proberen te interesseren, en het is niet dat ze niet geïnteresseerd zijn, maar prioriteit heeft het niet.

Ik vraag het ook omdat het me opviel dat er een verschil in visie of interpretatie van jouw werk lijkt te bestaan. Een beeldende kunst curator 'ziet' iets anders, dan iemand uit de nieuwe media. Zo ben ik een paar keer in teksten over de roterende luidsprekerarm (Spatial Sounds, van Edwin van der Heide en jou) verwijzingen tegengekomen naar 'surveillance' en 'enclosure'. Naar mijn idee heeft die installatie daar niet veel mee te maken. Het lijkt het alsof gedachten daarover getriggerd worden door het hekje dat om de installatie staat. Ik ben geneigd dat hekje alleen als een noodzakelijk ding te beschouwen, niet als deel van de installatie. Maar iemand uit de beeldende kunst denkt daar, misschien terecht, anders over. Hoe kijk jij hier tegenaan?

Ik ben bij Spatial Sounds nooit geïnteresseerd geweest in surveillance, daar gaat het niet over. Surveillance is Big Brother die van op een afstand bespiedt wat jij aan het doen bent, en dit is een apparaat dat de ruimte aftast en interacteert met een bezoeker. Op een bepaald moment kan het op hol slaan, maar dat heeft niets met surveillance te maken. Dat het thema ruimteafbakening wordt genoemd, daar zit wel wat in. Ik ben afgestudeerd met kleine sculpturaal vormgegeven architectonische ruimtes waarin ik het onderscheid tussen privé en openbaar duidde. Daar zat wel eens een luidspreker in, eentje zat vol met shoarmabranders, dat soort dingen. Dat werk ging over het definiëren van plek, en dat doet Spatial Sounds ook nog steeds. Zo'n interpretatie heeft het dus wel bij het rechte eind. Zo gaat EI4 ook nog steeds over twee soorten van ruimtebeleving – al komen er daar wel meer lagen bij. Waar het vroeger ging over fysieke grenzen – een soort douchecabine-installatie als beeld van je eigen privéruimte – gaat het met nu om de grenzen van een door media gedomineerde samenleving, de grenzen tussen virtueel en 'echt'.

Is er misschien ook op een verschil in beleving van zulke installaties? Waar iemand uit de beeldende kunst vooral let op de visuele aanwezigheid van een intallatie en daar goed naar kijkt, heb ik soms het idee dat ik er bijna blind voor ben. Bij Spatial Sounds let ik meteen op het geluid en op de manier waarop de luidspreker op mij reageert, ik let veel minder op hoe het eruit ziet.


Zo is het ding ook vormgegeven. Er zit helemaal niks overbodigs op. Je kunt het ook gaan vormgeven, nu ziet het er uit als een machine die doet wat hij doet. Juist om alleen maar de snelheid, de beweging en het geluid te benadrukken. Ware het niet dat het toch ook een heel sculpturaal ding is. En het is niet toevallig dat ik zo'n interpretatie als die van Olga Majcen, een Kroatische curator die het beeldende aspect benadrukt, en naar wiens interpretatie jij verwijst, op mijn site zet. Het is een interpretatie die snel wordt gemist. Ik hou erg van het soort tentoonstellingen dat zij organiseert. Bij de echte hardcore nieuwe media-tentoonstellingen wil het nog wel gebeuren dat alles er hetzelfde uitziet. Dan denk ik, besteedt nou eens aandacht aan het beeld, die interactie had ik al eens meegemaakt. Dat was trouwens ook een van de onderzoeken van RMR: kijken of het mogelijk was om een echte cinematografische beleving op te roepen. Dat probeer ik in EI4 ook weer. Ik probeer voor een filmische kwaliteit te zorgen, daarom betrek ik er mensen uit de film bij. Het gebrek aan goed beeld is vaak een reden waarom mensen uit de beeldende kunst niet zo geïnteresseerd zijn in nieuwe media-tentoonstellingen. Het nieuwe media-wereldje is soms ook moeilijk te duiden Er zijn tentoonstellingen die zonder onderscheid wetenschap en kunst naast elkaar zetten. Bij de ene installatie heb je misschien een natuurkundige ervaring, bij de andere een doordachte artistieke ervaring. Dat is niet hetzelfde. En jammer genoeg gebeurt het dan nogal eens dat er technologisch innovatieve kunstwerken worden gepresenteerd die artistiek-inhoudelijk helemaal niet overtuigend zijn.

Wat is doorslaggevend voor het artistiek-inhoudelijke? Gaat het dan om de balans tussen het inhoudelijk onderzoek en de visuele presentatie?

Voor mij is een kunstwerk – en dan maakt het niet uit waar het mee gemaakt is – geslaagd, wanneer er een harmonie, een overeenstemming, een balans bestaat tussen de presentatie en wat je ermee wilt vertellen. Dat kan conceptuele kunst zijn waar je een paar velletjes papier ophangt, dat kan een beeldhouwwerk zijn, waarbij de maker gaat stotteren als hem er iets over wordt gevraagd. Wat zo'n kunstwerk pretendeert moet kloppen met wat het communiceert. Maar goed, dat is zo algemeen, met zo'n regel kun je nog alle kanten op, het geldt immers ook voor technische foefjes die niets pretenderen. Ik ben wel geïnteresseerd in een sociale, politieke connotatie. Ik geef op een heel basale manier commentaar op de wereld om me heen. Ik heb indrukken en die verwerk ik. Ik ben met een computer gaan werken omdat die hier in huis stond, dat heeft een effect op mij. RMR kun je ook zien als een metafoor voor hoe ik me voel in een stad. Ik ben wel degelijk geïnteresseerd in de inhoud van het beeld. Daarom heb ik ook een re-make gemaakt van de Accelerator. Er waren voor dat werk nogal wat eisen waaraan het beeldmateriaal visueel moest voldoen, omdat de toeschouwer, om niet misselijk te worden, in de installatie de stroken met beeldmateriaal moet zien te synchroniseren terwijl hij ronddraait. Dan kun je naar de stad gaan en midden op een kruispunt gaan filmen, maar dat vond ik te letterlijk. Een bos werkt ook, want dat ziet er altijd hetzelfde uit. Voor de eerste versie had ik tenslotte heel snel bij Hoek van Holland wat beeldmateriaal geschoten. Per ongeluk was dat materiaal heel bruikbaar. Ik was er op een vrij winderige dag, na afloop van het strandseizoen, de parasolletjes stonden er nog, en terwijl ik aan het opnemen was kwamen er donkere wolken opzetten. Allemaal toeval. Elk level wordt donkerde in de eerste versie van Accelerator. Het werkte. Om eerlijk te zijn was ik destijds veel meer met interfaces en apparaten bezig en ook daarom vond ik dat het beeldmateriaal wel voldeed. In de re-make, Bejing Accelerator, die ik op uitnodiging maakte, zit veel betekenisvoller beeld en is de door Brecht Debackere ontworpen visuele interfase veel beter. Het zijn shots van Beijing met hoogbouw waarvoor complete oude wijken zijn omgeschoffeld. Ik voorkom in die versie wel de romantische shots, type op de hoek van de fraaie Hutong-wijk, uitkijkend naar de naderende wolkenkrabbers. Maar dat thema zit er wel in. Door die mix van interesse in techniek en aandacht voor het visuele worden media-kunstwerken soms niet diep genoeg geanalyseerd door programmeurs en curatoren. Ik denk dat daar veel meer aandacht voor moet zijn, daar krijg je betere tentoonstellingen van. De discrepantie tussen beeldende kunst en mediakunst zal dan niet meer relevant blijken te zijn.

Is het makkelijker om werk over de huidige wereld te maken wanneer je gebruikt maakt van de technologie van vandaag?

Voor mij wel. Voor mij gaat het daarbij altijd om het creëren van situaties: installaties die echt zijn. Die installaties zijn geen afbeeldingen, ze doen iets. Als je kunstenaar bent moet je je verhouden tot het huidige discours, voor mij kan alleen het leven in de technologische samenleving van nu een inspiratiebron zijn. Soms als ik reis heb ik geen enkele aanleiding om kunst te maken, los van de huidige technologische wereld vind ik geen reden om werk te maken.

 

Relations

Exhibition: EI 4 (Exercise in Immersion 4)

flickr random images on DEAF07

Login