Detta inlägg hakar i en pågående debatt om ontologi som kan följas t.ex. här hos intensifier, även om vad jag skriver här och ett ontologiskt resonemang inte med nödvändighet bör likställas. Här tänkte jag istället prata om musik. Jag tänker ofta i musik när jag filosoferar på ett abstrakt plan. Det tillåter mig att ha någon slags hållhake på den abstrakt diskussion samtidigt som konkreta exempel inte tillkommer som förvirrar mer än de hjälper. Precis som filosofin kan man också ha musik “i huvudet” utan att för den sakens skull kunna få ner den som ljud eller språk på ett oproblematiskt sätt. Ontologiduskissionen har i korta ordalag handlat om hur man kan se på objekt. Kan man tala om att världen består av särskilda objekt som integrerar med varandra genom olika former av stimuli eller är världen snarare bestående av ett sammanhängande flöde men med olika intensitet, tröghet och koncentration i vissa punkter? Nåja, till det musikaliska. Inspirationen till det här inlägget kommer från en intervju med Burial som kan läsas här. Intervjun är läsvärd i sin helhet men det jag vill koncentrera mig på här är när Burial talar om sin metod för musikskapande. Det visar sig att han inte använder ett sequencerprogram, alltså ett program som baseras på att ljud eller noter placeras på en matris med musikaliskt relevant upplösning. Tänk en matris som är 3x16 rutor stor och att du har tre trumljud som vart och ett placeras på några av 16 16-delar i en takt. I varje fall, Burial använder sig inte av detta utan klipper och klistrar direkt med ljudvågor i en enda ljudfil. Det får dels konsekvensen att han sätter ut rytmer på ställen där det låter bra, snarare än helt i takt. Det kan höras på Broken Home: Den andra konsekvensen är att det inte går att ändra i låten efter filen har sparats. Ljuden går inte att särskilja som objekt. Jämför detta med att platta till lagren i photoshop. I intervjun talas det om att mycket musik, och här är det brittisk klubbmusik som menas, har fått ett slags tomrum mellan ljuden på grund av den här objektsorienterade musikprogrammeringen. En konsekvens av objektsinriktade musikprogram, t.ex. Ableton Live, är att dels varje ljud existerar fritt från de andra och inte inverkar på varandra, dels att ljudet kan skiljas från sina effekter, t.ex. sitt eko. Detta går naturligtvis att trixa sig förbi genom att routa ljuden på olika sätt, men gränssnittet inbjuder till, och får ofta som konsekvens, ett musikskapande som består av skiljda ljud. Jag känner att det är samma problem här som med mashup-kultur överhuvudtaget. Att det är skiljda objekt som kombineras, men aldrig smälter samman och muterar/modulerar varandra. Typisk exempel är ju den hypade Girl Talk som faktiskt suger: Jag har tidigare skrivit en uppsats om detta med den fyndiga titeln “The sound of war in the noise of music”. Finns att ladda ner här. I korthet går argumentet i den ut på att tidig elektronmusik använde utrustning som inte var tillverkad för musik, exempelvis magnetbandspelaren som var en militär teknologi. Detta gjorde att varje musikaliskhet som kom ut ur dem var en utsträckning av det ursprungliga användningsområdet. Ett hack helt enkelt. Detta gav en obestämdhet till musiken. Här, tidig musique concrete, pedagogiskt förklarat: Vad som sedan händer här elektronmusiken populariseras är att vi får standardiserade gränssnitt som jobbar med objekt. Dessa underlättar ljudskapandet, men installerar samtidigt diskreta steg i musikskapandet. Synthezisern är det givna exemplet. vi får saker som tangenter med diskreta steg mellan tonhöjder och funktionsseparering i ljudgenereringen; oscillator, filter, envelope, noisegenerator osv. Vissa syntar utvecklas för att kunna skapa feedbackloopar mellan dessa funktioner, t.ex. Korg MS-20, men vanligtvis har vi en linjär mekanism från oscillator till utgång. Slutet av uppsatsen går sedan in på datorgränssnitten. Här finns ju teoretiskt möjligheten till att åstadkomma precis vilka ljud som helst, men överflödet av valmöjligheter samt svårigheten att förstå hur ljudet matematiskt skall konstrueras leder till datorgränssnitt som reproducerar analogsyntarnas funktionsseparering. En kritik av objektsorienterat musikskapande betyder inte nödvändigtvis att ett utslätande, orytmiskt ambientsound skulle vara att föredra, utan att rytmer kan skapas genom skillnader i intensiteter, snarare än skiljda ljud, att ljuden kan stiga upp ur en sammansmältning, ett gemensamt flöde, och låna karaktärer av detta samtidigt som de skapar skillnad. Detta är vad Burial menar att han försöker åstadkomma, men jag tycker att albumet FFT POP av Mokira visar detta tydligare. Här låten Hässleholm Denna typ av musik gör att udden av en viss direkthet ersätts av en glidande rörelse som förnimmer om något men skapar distans och vaghet till det, som om det vore ett minne. Denna stil, som ibland benämns som “hauntology” har ofta beskrivit Burials förhållande till den brittiska klubbscenen. Snarare än att vara musik för klubben är det musik som låter som minnet av klubbnatten när du sitter på nattbussen hem. Begreppet hauntology kommer ursprungligen från Derrida och handlar om den spöklika närvaron hos något som varken existerar eller icke-existerar, eller snarare både existerar och icke-existerar. Vi skulle kunna kalla det ett kvasiobjekt. För att det ska få en existens eller en icke-existens krävs det ett skapande av det ena eller det andra tillståndet. Antingen utslätande i brus eller skapande av objekt. Själva kvasiobjektet i hauntology är dock inte bestämt i sig. Ja, det är någon slags kvantgrej på gång här. Derrida syftade på att kommunismen hemsökte Europa efter sovjetunionens fall, men jag tror vi kan tänka samma begrepp i andra sammanhang. Ett kvasiobjekt söker ett hem, men får det inte utan att någon ger det till det. På samma sätt söker ljuden hos Burial och Mokira en självständig existens men når aldrig riktigt fram.