Über das Angleichen von Klangfarben – z.B. beim Sprachsynchron

iZotope-OZ7-MatchFilter-smooth-12

Fig. 1 screenshot of Ozone-8 adv. from iZotope®

In verschiedenen Bereichen der Klanggestaltung erscheint es manchmal wünschenswert, häufig sogar zwingend erforderlich, die Klangfarbe einer Aufnahme der Klangfarbe einer anderen Aufnahme anzugleichen.
Als Beispiel soll hier der Fall des Sprachnachsynchrons in einer Original-Ton-Produktion dienen. Der Fall also, in dem der O-Ton (der Ton, welcher am Drehort aufgenommen wurde) aus verschiedenen Gründen nicht verwendet werden kann/soll und deshalb durch später erstellte Aufnahmen aus einem (Sprachsynchron-) Studio ersetzt werden muss.

Man versucht dabei i.a. so wenig wie möglich des O-Tons zu ersetzen. Gründe hierfür sind einerseits die durch das Sprachsynchron entstehende Kosten (Personen, Studio, Hotel, Anreise…) wie auch das darstellerische Problem des künstlerischen Ausdrucks, der im Studio für die Darsteller nicht immer einfach zu treffen ist. Ist der “Gestus” bzw. der Ausdruck nicht dem O-Ton ähnlich, so helfen alle technischen Tricks natürlich nicht – in diesem Falle wird man immer erkennen, was O-Ton und was Sprachsynchron war. Hier kann i.a. nur helfen, wenn eine ganze Szene synchronisiert wird – und nicht nur ein oder zwei Sätze. Je nach Szene kann dies dann auch noch dazu führen, dass weitere Darsteller synchronisiert werden müssen, da sich z.B. die Darsteller gegenseitig ins Wort fallen bzw. überlappend/gleichzeitig sprechen.

Bei den Studioaufnahmen sind neben den Darstellern noch der AufnahmetonmeisterIn des Synchronstudios, ein/e CutterIn und die Regie bzw. Sprachregie anwesend. Da die Aufnahmen nicht immer perfekt synchron zum Bild sein werden müssen die Aufnahmen durch teilweise recht aufwändige Schnitte (es gibt auch spezielle Software, welche aber nicht die Lösung aller Sprachsynchron-Schnitt-Probleme ist – hierzu siehe auch hier) bildsynchron gemacht werden. Dies bereits bei der Aufnahme richtig einschätzen zu können, also ob man die Aufnahme überhaupt bildsynchron schneiden kann, ist die Aufgabe der Synchron-Cutterin bzw. des Synchron-Cutters. Da auch nicht jede Aufnahme, die bildsynchron ist oder die man bildsynchron schneiden kann, auch vom Ausdruck/Gestus her brauchbar ist (das zu entscheiden wäre Aufgabe der Regie oder der Synchron-Regie) können für jeden Take einige Aufnahmen (Takes) erforderlich sein.

[work in progress…]

Einen Beitrag über die Synchronisation eines ganzen Films (um z.B. eine Fassung des Films in einer anderen Sprache herzustellen) finden sie hier: [in Arbeit…]

Klangfarbe/Klangcharakter: Unter Klangfarbe oder Klangcharakter sind in diesem Zusammenhang die u.U. unterschiedlichen Klangeigenschaften zu verstehen, welche durch die Aufnahme mehr oder weniger identischer Klangquellen an verschiedenen Orten und/oder durch die Aufnahme mit verschiedenen technischen Geräten entstehen können.
Beispielsweise also die Stimme einer Person, aufgenommen in verschiedenen Räumlichkeiten mit verschiedenen Mikrophonen – letztere u.U. auch noch in einem verschiedenen Abstand zu den Mikrophonen / zum Mikrophon.
Dies könnte zum Einen der O-Ton, aufgenommen in einem Saal und zum Anderen eine Sprachsynchronaufnahme (der gleichen Person) in einem Studio sein; bei beiden Aufnahmen kommen vielleicht auch noch verschiedene Mikrophone zum Einsatz (was in der Praxis sogar relativ wahrscheinlich ist).

Derart unterschiedlich entstandenen Aufnahmen werden sehr verschiedenen klingen.

Eine Möglichkeit, die Synchronstudioaufnahme an den O-Ton anzugleichen besteht natürlich im Einsatz der Filter des Mischpults bzw. von Filter-Plug-Ins. Um den Klang von zwei Aufnahmen jedoch gut und in akzeptabler Zeit angleichen zu können ist umfangreiche und langjährige Erfahrung erforderlich. Leider hört man nicht selten, vor allem im TV oder Internet, dass anscheinend weder die Erfahrung noch die Zeit für das gute (also nicht hörbare) Einfügen des Sprachsynchrons vorhanden war. Dies ist nicht nur unschön sondern kann die Zuschauer irritieren und damit “aus dem Film reissen” – die “Illusion Film” kann so zu einem gewissen Grad zerstört werden1.

[work in progress…]

Eine andere Möglichkeit könnte u.U. schneller zu besseren Ergebnissen führen: Aus einer Klanganalyse beider Audioaufnahmen würde sich die erwünschte Filterkurve errechnen lassen – diese Möglichkeit bieten verschiedene Plug-Ins mit unterschiedlichen Analyse-, Einstell- und Filterungsmöglichkeiten.

Für eine Klanganalyse kommt wieder die Fourieranalyse (dieses mal mit sehr langer Integrationszeit) zum Einsatz.

Ein eigener Text zur Fourieranalyse für KlanggestalerInnen ist hier zu finden. [in Arbeit…]

Die folgende Abbildung zeigt die Klanganalyse zweier Aufnahmen: in blau der O-Ton, in gelb das Sprachsynchron. Beide Takes wurden über ihre gesamte Dauer analysiert (siehe “Snapshot Time”, in der Abbildung links unten, unter “Start Capture”). Sind die zu analysierenden Bereiche zu lange, so kann man sich für die Analysen auch “Takes” zusammenschneiden, welche alle wesentlichen Klangbestandteile enthalten. [zu den folgenden Abbildungen 1-4 siehe 2]

iZotope-Match-EQ-Snapshot-1

Abb.1: Klanganlayse von zwei Aufnahmen (made with Ozone 5 adv. from iZotope®)

Möchte man nun das Spektrum des O-Tons (blau) dem des Sprektrums der Sprachsynchronaufnahme (gelb) angleichen, so ergäbe sich eine entsprechende Filterkurve (rot).

iZotope-Match-EQ-Filter-no-smoothing

Abb. 2: die sich ergebende Filterkurve (made with Ozone 5 adv. from iZotope®)

Bedenken sollte man hierzu nun mehreres:

In der Aufnahme des O-Tons können auch Geräusche sein, welche die Analyse der Stimme beeinflussen bzw. verfälschen – die Stimme wird dabei natürlich richtig analysiert, aber die “Störgeräusche” fließen in die Analyse mit ein. Ähnliches gilt für Hall und andere Faktoren, wobei nicht immer ganz leicht zu entscheiden ist, welche Faktoren erwünscht und welche unerwünscht sind.

Die Aufnahme des Sprachsynchrons hingegen ist “sauber” und unter optimalen Bedingungen (und wahrscheinlich mit einem anderen Mikrophon) erstellt. Auch kann der/die DarstellerIn am Aufnahmetag im Studio eine vielleicht belegte Stimme oder etwas Schnupfen haben… damit können sich die Formanten der Stimme durchaus verändern. Mit anderen Worten: die Möglichkeit mit so genauen Daten und einem so präzise arbeitenden Filter zu arbeiten ist nicht in jedem Falle wünschenswert, da dadurch auch Eingriffe in einzelne Obertöne erreicht werden können, die das Ergebnis sogar negativ beeinflussen können. Einerseits wäre man also mit derart präzisen Werkzeugen sogar in der Lage, ganze bestimmte Eigenschaften von Mikrophonen zu simulieren, andererseits jedoch beeinflussen einige Faktoren die Aufnahmen, die ausserhalb unserer Einflussmöglichkeiten liegen.

Diese Überlegungen führen schließlich dazu, dass eine weniger genaue Filterkurve i.a. eher zu den erwünschten Ergebnissen führen dürfte, weshalb eine entsprechende “smoothing”-Funktion für den Filter angeboten wird bzw. werden sollte (siehe Regler rechts unten in Abb. 3):

Abb. 3: die "geglättete" Filterkurve

Abb. 3: die “geglättete” Filterkurve (made with Ozone 5 adv. from iZotope®)

Da die Aufnahmesituationen sowohl beim O-Ton wie auch bei den Studioaufnahmen extrem unterschiedlich sein können ist es hilfreich, die Filterkurve in groben Zügen noch verändern zu können, also einen gewissen Einfluss auf einige Frequenzbereiche zu haben. Dies könnte i.a. auch über ein Mischpult gemacht werden, im hier gezeigten Falle bzw. hier gezeigten Plug-In jedoch bietet bereits die Software acht Filter (Punkte 1-8) an. Aus Gründen der Übersichtlichkeit werden hier nicht alle Filter angezeigt. Von den acht möglichen Filterbändern werden in Abb. 4 nur die Filter 1, 2, 4, 6 und 8 dargestellt. In der Abb. stellt  Punkt 6 eine Filter bei 3022 Hz, +5dB mit eine Q-Wert von 1,0 dar.

Abb. 4: die geglättete Filterkurve mit einem Filtereingriff

Abb. 4: die geglättete Filterkurve mit einem Filtereingriff (made with Ozone 5 adv. from iZotope®)

Unter guten Voraussetzungen, also mit “gutem Ausgangsmaterial” lassen die Analysen, die Filter und deren Einstellungsmöglichkeiten wie auch die smoothing-Funktion einerseits einen so flexiblen und andererseits auch einen so genauen Einfluss auf das Audiomaterial zu, dass sich selbst feine Klangcharakteristika (wie z.B. einige Klangeigenschaften von Mikrophonen) recht genau nachbilden lassen. Letzteres wäre natürlich mit “herkömmlichen Filtern” nicht zu erreichen 3.

Der Einsatz von Plug-Ins mit diesen Möglichkeiten ist also einerseits eine Zeitersparnis und gleichzeitig, bei richtigem Einsatz und brauchbares Audiomaterial vorausgesetzt, geradezu Garant für eine hochwertige und auch sehr genaue Klangangleichung.

Wie bereits angesprochen sollte man sich unbedingt darüber im Klaren sein, dass der Originalton u.U. Klangeigenschaften beisitzt, welche in die Analyse mit einfließen, (deretwegen man ja synchronisiert). Es kann also durchaus sinnvoll sein, den OTon vor der Analyse für die Filter zu entrauschen oder z.B. Brummen oder andere Störfrequenzen / -signale soweit wie möglich zu beseitigen. Manchmal jedoch ist der OTon vollkommen unbrauchbar – selbst für die Klanganalyse – weil man z.B. nur noch Strassenlärm und fast keinen Dialog hört. Hier kann es sinnvoll sein, eine andere Szene im Film an diesem Drehort zu suchen (oder einen OTon, welcher vielleicht nicht verwendet wurde aber zu einem ruhigeren Zeitpunkt entstanden ist).

Damit ist aber erst die erste Hürde genommen, um den Klang des Sprachsynchrons an den O-Ton anzugleichen – oder “das Sprachsynchron einzubetten“. Um dafür zu sorgen, dass das Sprachsynchron gut eingebettet und damit als Sprachsynchron nicht mehr erkennbar ist, muss des weiteren auch der Raum entsprechend gut simuliert werden.

(Digitale) Hallgeräte und Delays bzw. Raumsimulatoren (vielleicht mit zusätzlichen Filtern) erzeugen die gewünschten Effekte. Die hierfür erforderlichen Einstellung von Hallgeräten einzugeben erfordert ebenfalls einiges an Erfahrung, Geschick, technisches Verständnis, professionelle Abhöre usw. Die meisten Mischtonmeister suchen sich in den im Studio verfügbaren Geräten / PlugIns ein Preset, welches schon relativ viele Erfordernisse erfüllt und verändern dann noch die erforderlichen Parameter. Klar sollte einem aber sein, dass Hallgeräte unterschiedlichster Qualität existieren – mit unterschiedlichsten Schwächen und Stärken. Oft lassen sich nur wenige Parameter verändern oder bei manchen Geräten ist der Klang ist stets unnatürlich (was bei anderer Gelegenheit durchaus wünschenswert sein kann – aber nicht beim Sprachsynchron). Manche Hallgeräte sind am eigenen Klang, egal wie man diese eingestellt hat, für erfahrene Tonmeister stets zu erkennen – klingen also nicht neutral nach “Raum” sondern haben stets typische Klangeigenschaften. Manche Hallgeräte erzeugen sehr gut große Räume, kleine Räume realistisch zu simulieren hingegen scheint für viele Geräte deutlich schwieriger bis unmöglich zu sein. Im Film benötigt man häufiger kleine als große Räume – mit anderen Worten – für eine gute Simulation kleiner und mittelgroßer Räume benötigt man relativ gute Hallgeräte.

Raumsimulatoren die mit der Technik der Impulsantwort arbeiten können u.U. sogar noch bessere Ergebnisse erzielen.

Zusätzliche Anmerkungen zu extrem kleinen Räumen wie z.B. Telefonzellen (die zwar immer seltener in Filmen vorkommen ;)), PKW-Innenräume oder ähnliches:

[work in progress…]

(siehe hierzu auch die Beiträge “Raumsimulation & Hall – im Film und anderen Medien” und “Zur Herangehensweise an verschiedene akustische Aufgabenstellungen […]” auf diesen Seiten)

Die bisher genannten Techniken und Überlegungen sind technisch betrachtet nicht trivial und durchaus anspruchsvoll – noch aufwändiger kann es  werden, wenn sich die Synchronisierte Person z.B. auch noch im Raum bewegt und damit Parameter im Verlauf der Szene verändert werden müssen.

[work in progress…]


Schließlich fehlt nach dem Angleichen der Klangfarbe und der “Platzierung bzw. Bewegung im richtigen Raum” noch die Geräuschebene – nicht zu vergessen auch die Ebene der vielleicht erforderlichen “Störgeräusche”.

[work in progress…]

 

 

 


In diesem Beitrag ging es vor allem um die technischen Aspekte beim Angleichen der Klangfarbe verschiedener Aufnahmen am Beispiel des Sprachsynchrons. Ein ganz wesentlicher Faktor ist jedoch natürlich auch der richtige schauspielerische Gestus, die richtige Stimmlage der SchauspielerInnen. Passt das Sprachsynchron vom Ausdruck und Gestus her nicht zu den vorherigen und nachfolgenden Takes, so kann es technisch betrachtet perfekt eingebettet sein und “identisch” klingen – es wird dann aber dennoch (auch von Laien) als Sprachsynchron oder “Fremdfaktor” erkennbar sein und in manchem Fall sogar die “Illusion Film” für einen Moment oder mehr stören.

Man sollte also bei den Synchronaufnahmen neben den technischen Details auf eine Vielzahl von Dingen achten, zu denen Randy Thom folgendes anmerkte:

“The way ADR is treated and approached is symptomatic of how little respect sound gets in the movies. You march the actor into a cold sterile room and usually give them no time to get into the character or rehearse. They are  expected to just start performing a few minutes after they walk into the room. The emphasis is almost always on getting the dialogue in sync instead of getting the  right performance. Of course the majority of the actor’s brain is then occupied with whether his lips are flapping at exactly the same rate as they were on the day that the camera was rolling. It is no wonder that most ADR is not very good. In the final mix, directors almost always prefer the production sound, even if it is noisy and distorted.

One of the things you do with ADR to make it sound more like production sound is to pitch it up. ADR is almost always delivered at a lower pitch because the actor doesn’t have the energy he/she had on the set.  In the excitement of the shooting set the actor tends to talk louder and higher. In an ADR session, the director typically has to push the actor to get them anywhere near the level of vocal performance that came from the set.

If the recording of ADR were treated more like shooting the movie it would almost certainly be better.  Recording it in more authentic environments (instead of studios) tends to help the actors’ performance enormously.  Environmental noise is a problem whenever you record outside of a studio, but well worth the trade-off in my opinion.”4

______________________________________

1 auch hier ist wieder zu erkennen, wie wichtig guter Ton für einen Film ist. Guter Ton kann eine schlechten Film nicht retten, aber schlechter Ton einen guten Film zumindest umprofessionell erscheinen lassen und damit auch die “Illusion Film” zerstören.

2 die Abb. zeigen das Filter-Plug-In des Softwarebundles Ozone 5 Advanced der Fa. iZotope (inzwischen gibt es bereits Ozone-7, welches etwas anders aussieht, dies hat aber in diesem Zusammenhang keine Bedeutung)

3 es wurden hier bei weitem nicht alle Funktionen des genannten Plug-Ins angesprochen

4 Randy Thom, siehe [online] http://www.filmsound.org/terminology/adr.htm#adr, Abgefragt am 12.5.2013], edited excerpts from Cinema & the Sound of Music

 

© by Klaus Ploch

Abb. 1-4 sind eigene Abb. und wurden mit der Software Ozon-5 Advanced von iZotope erstellt. Abb. 0 (erste Abb. ganz oben, eigene Abb.) wurde mit Ozon-7 Advanced vom gleichen Hersteller erstellt.

This entry was posted in filmsound, mediaproduction, sounddesign, tips... and tagged , , , , , , , , , , , , , , . Bookmark the permalink.