Wie wir im ersten Teil dieses Dossiers dargestellt haben, spielt Sound in Games eine wichtige Rolle. Wir haben Jonathan Howe, Sound-Designer des Spiels CLARC (Golden Tricycle, 2014), zum Thema Sound in Computerspielen interviewt. Als Teil des Teams von Ratchet-Audio arbeitet er aktuell am Sound des ambitionierten Action-Rollenspiel Pine (Twirlbound).

(c) Jonathan Howe

CLARC (Golden Tricycle, 2014)

Pine (Twirlbound)

Stiftung: Welche Rolle spielt Sound Design in der Gamesbranche heute?

JH: Ich habe den Eindruck, dass die Relevanz von gutem Sound Design den meisten Entwickler_innen mehr und mehr bewusst und das Verständnis immer größer wird. Meiner persönlichen Erfahrung aus dem Indie-Bereich nach, werden Sound Designer_innen und Komponist_innen auch immer früher mit ins Boot geholt, sind oft bereits an der Pre-produktions- und Designphase beteiligt und können dadurch früh Denkanstöße geben. Die meisten Designer_innen sind dafür offen und wissen das sehr zu schätzen.

Trotzdem habe ich das Gefühl, dass Sound für viele Entwickler_innen immer noch eine Art ‚Black Box‘ ist, in die sie nicht so richtig hineinsehen können. Die Mehrheit kennt sich in den meisten produktionsrelevanten Bereichen grundlegend aus und hat ein Verständnis dafür, wie dieser Teil des Spiels gemacht wird, aber Sound und Musik bleibt für viele oft Magie.

Daneben steht immer die Budget-Frage, und dabei kommt Sound denke ich oft zu kurz. Das liegt wahrscheinlich auch daran, dass Audio doch bei vielen noch ein Nebengedanke ist und dadurch zweitranging eingestuft wird. Bei Spielen, die wohl einen hohen Wert auf Audio legen, ist der Unterschied jedoch immer sofort zu fühlen und zu hören.

 

Stiftung: Welche Schritte sind typisch in der Tonproduktion für ein Spiel? Wie geht man an sowas ran?

JH: Für mich ist der spannendste und schönste Schritt oft in der Anfangsphase eines Projektes, in der man sich das Spiel ansieht, versucht, es so umfassend wie möglich zu verstehen, und anfängt zu überlegen wie man diese Idee musikalisch und durch Klang bereichern kann. Dadurch, dass Videospiele oft in freien Szenarien und Schauplätzen spielen, viel verrückter und kreativer als die meisten Filme, hat man in der Musik auch mehr Freiraum und die Chance, sich etwas echt Eigenständiges auszudenken, das perfekt zum Spiel passt. Oft kann man durch Kombinieren verschiedener Genres oder das Festlegen auf eine ‚Klangwelt‘ und Instrumentenauswahl ganz neue Musikrichtungen kreieren. Sehr gut funktioniert es meiner Erfahrung nach zum Beispiel, sich ein Solo-Instrument auszusuchen, welches das Spiel gut verkörpert, und diesem im ganzen Soundtrack eine besondere Rolle zu geben. Ein Beispiel dafür ist unser Lightrunner-Soundtrack: Hierfür haben wir einen fünfsaitigen Kontrabass aufgenommen, der die düstere und beklemmende Atmosphäre des Spiels gut verkörpert, und vom Schrottplatz alte Ölfässer besorgt, auf denen wir trommeln konnten.

Dasselbe gilt natürlich auch für das Sound Design. Bei Pine basieren wir zum Beispiel die meisten Interface-, User Interface (UI, die graphische Benutzeroberfläche)- und Feedback-Sounds auf hölzernen Idiophonen, wie zum Beispiel Woodblocks, Stöcken, die wir gegeneinander schlagen, Rinde oder Bäumen, die gefällt werden.

Außerdem kann Sound Design natürlich das Gameplay beeinflussen, Spieler_innen in bestimmte Richtungen lenken, Signale oder Feedback geben und vieles mehr. Darüber denken wir meist zusammen mit den Designer_innen nach und überlegen erst theoretisch, was am besten funktionieren könnte. Meistens muss man es aber einfach ausprobieren. Oft ist es so, dass man vorher lange drüber nachdenkt, aber sobald man es dann tatsächlich im Spiel implementiert hat, weiß man sofort, ob eine Idee funktioniert. Eine super Hilfe und Inspiration sind Concept Art, Screenshots oder bewegte Bilder aus dem Spiel.

 

Stiftung: An welchen Sound denkst du bei dieser Concept Art?

Simon Stålenhag – Winter of 94-95, (c) Simon Stålenhag, http://www.simonstalenhag.se/

JH: Dieses Bild finde ich dadurch spannend, dass die Welt, die noch so geerdet und ‚echt‘ ist, plötzlich und unerwartet durchbrochen wird. Daher würde ich ein recht intimes Klangbild wählen mit Folk und Americana Einflüssen, akustischen und leicht angecrunchten elektrischen Gitarren, das sich vertraut und simpel anfühlt. Wenn dann plötzlich die Raumschiffe auftauchen, kann dieser Bruch auch in der Musik wiedergespiegelt werden. Dabei würde ich nicht zu allzu modernen Sounds greifen, sondern zu eher subtilen Synths mit leichtem Retro-Touch, die sich langsam aber unaufhaltsam in die Musik drängen.

 

 

Lukas Esch – Misty Castle, (c) Lukas Esch, http://www.lukasesch.com/

JH: Bei diesem Konzept ist es, denke ich, vor allem wichtig, die Größe und Dimension der Szene zu übertragen. Ich möchte schon in der Musik den Wind hören, der einem oben auf der Turmspitze um die Ohren zischt. Gleichzeitig hat das Bild etwas Schweres, Düsteres und Uriges. Ich denke, dass ein kleines Streicherensemble hier sehr gut passen würde. Das würde ich dann mit relativ viel Hall, beispielsweise in einer kleinen Kirche, aufnehmen. Wichtig wäre mir dabei ein dunkler Klang, daher würde ich versuchen, ein Ensemble aus primär Celli und Violen zusammenzustellen.

 

Stiftung: Inwiefern unterscheidet sich das Sound Design für ein Computerspiel von anderen Medien?

JH: Der größte Unterschied liegt natürlich auf der Hand: die meisten Medien funktionieren zeitlich linear, das heißt, sie haben einen festen Ablauf, der immer gleich ist. Das macht es einfacher, weil man bei jedem Frame und in jeder Situation hundertprozentig weiß, wie die Szene aussieht und abläuft. Bei Spielen ist das alles dynamischer und dadurch müssen viel mehr Optionen gleichzeitig berücksichtigt werden. Der Abstand von der Spielerin zur Klangquelle beispielsweise beeinflusst den Klang, genauso wie der Raum und die Situation, in der der Sound gespielt wird.

Zudem hört man im Videospiel oft dieselben Sounds über weitaus längere Zeiträume als im Film. Ein populäres Beispiel hierfür sind Fußschritte. In vielen Open World Games läuft man oft stundenlang durch die Spielwelt und hört dabei permanent die Schritte des Charakters. So etwas würde im Film nie auf diese Art gezeigt werden. Darum ist es wichtig, dass Sounds dieser Art ausreichend Variationen haben. Für Schritte macht es zum Beispiel Sinn, diese in verschiedene Untergründe aufzuteilen und dann je nach Lauftempo Samples aus verschiedenen ‚Containern‘ zu spielen.  ‚Grass_Run‘ wäre zum Beispiel einer dieser Container, und der hätte dann wieder eine möglichst hohe Anzahl Variationen desselben Schrittes, um zu vermeiden, dass der Spieler permanent das Gleiche hört. Dies wird in den meisten Game- und Audio-Engines [Software zur Erstellung von Musik und Sound, Anm. der Verfasserin] noch verstärkt durch Volume- und Pitch-Randomisation, also zufällige Schwankungen in Tonhöhe und Lautstärke des abgespielten Sounds.

Im Film ist es oft logisch und gut, primär Dinge zu vertonen, die für den Verlauf der Szene wichtig sind. Durch das Sound Design und die Musik können dann bestimmte Elemente hervorgehoben und verstärkt werden, die dem Zuschauer deutlich machen, worum es geht und andere, weniger belangreiche Informationen in den Hintergrund gesetzt werden. Denselben Effekt möchte man auch im Videospiel gerne erzielen. Das ist hier jedoch häufig viel schwieriger, weil je nach Situation Unterschiedliches die höchste Priorität hat. Daher ist es wichtig, sich im Voraus zu überlegen, was dem/der Spieler_in in welchem Moment kommuniziert werden muss. Einige Spiele benutzen dafür Systeme, die permanent analysieren, was gerade im Vordergrund steht, um so den Mix dynamisch anzupassen. Ein Beispiel hierfür ist das von DICE entwickelte High Dynamic Range Audio, das zum ersten Mal in Battlefield: Bad Company zum Einsatz kam. HDR-Audio ist ein System, das je nach Intensität des Moments verschiedene Sounds nach vorne hebt und andere ausblendet. Das macht Sinn und entspricht dem menschlichen Gehör. Wenn neben einem ein Maschinengewehr abgefeuert wird oder Panzer explodieren, hört niemand mehr auf Grasrascheln oder Atemgeräusche, doch in ruhigen Momenten stehen gerade diese im Vordergrund, machen die virtuelle Welt glaubhaft und erzeugen die benötigte Spannung.

Das führt zum nächsten großen Unterschied zwischen Film und den meisten Videospielen: Ein Film ist im Normalfall eine passive Erfahrung. Zwar ist es wichtig, dass der Sound uns emotional begleitet und es möglich macht, dem Geschehen zu folgen, wird oft auch akustisches Chaos als ein stilistisches Mittel benutzt. Das funktioniert auch in einigen Spielen gut, oft gesellt sich dazu aber noch eine andere Überlegung. Da die Spieler_innen permanent aktiv mit der Spielwelt interagieren, müssen ihnen die Auswirkungen der eigenen Handlungen so deutlich wie möglich kommuniziert werden. Das nennt man ‚Player Feedback‘ und kann auf viele verschiedene Arten umgesetzt werden. Populäre Beispiele sind Low-Pass Filter (Abdämpfen des gesamten Mixes) oder ein Herzschlagen bei wenig Leben, UI Sounds für Klicks und Fehlermeldungen, oder deutliche Sound-Effekte bei Sieg und Niederlage.

Außerdem sind Musik und Sound im Film für gewöhnlich Teil der Post-Produktion. Sprich, der Film ist bereits gedreht und man kriegt dann die Aufgabe, ihn zu vertonen. Beim Entwickeln von Videospielen entstehen die Bereiche im Idealfall parallel und beeinflussen sich dadurch gegenseitig. Da alle Sounds mit den Art Assets und Animationen funktionieren und implementiert werden müssen, ist die Zusammenarbeit zwischen den verschiedenen Teams und Bereichen hier oft viel enger und direkter als beim Film. Oft merke ich, dass Artists, Programmierer_innen oder Designer_innen dank ihrer eigenen Perspektive und Expertise für das gleiche Problem ganz andere Lösungen und Ideen finden als ich. Das kann sehr wertvoll sein und hält den Prozess für mich interessant und schön.

Trotzdem gibt es natürlich auch reichlich Überschneidungen. Im Film sowie im Spiel ist beim Sound und der Musik vor allem Emotion entscheidend. Wie die Fußschritte und Bewegungen eines Charakters oder die Ambience- und Umgebungsgeräusche eines Ortes klingen, sagt genauso viel über diese aus wie ihr Äußerliches und manchmal sogar mehr.

Sound Design im Film funktioniert linear und vor allem auf den individuellen Moment gerichtet, während Sound und Musik im Videospiel systemisch funktionieren müssen. Als Sound Designer und Komponist für Videospiele probiert man, genauso wie die Designer_innen und Programmierer_innen, Systeme zu konstruieren, die alle im Rahmen des Spiels möglichen Zustände und Situationen abdecken und gleichzeitig die Spieler_innen leiten und Prioritäten und Entwicklungen im Spiel deutlich kommunizieren.

 

Herzlichen Dank für das Interview!

Im dritten Teil der Reihe zeigen wir mit Virtual Reality-Spielen und Audio Games neuere Entwicklungen von Sound in Spielen nach und geben Geheim-Tipps für Soundspiele.