13 // Blender Basics 02

Ein wesentlicher Teil des 3D-Designs liegt in der Fähigkeit, realistische Materialien und Texturen zu erstellen sowie die richtigen Kamera- und Render-Einstellungen zu wählen, um das gewünschte Ergebnis zu erzielen.

Materialien und Texturen in Blender

In Blender lassen sich Materialien erstellen, indem die physikalischen Eigenschaften von Oberflächen definieren, einschließlich Farbe, Glanz, Rauheit und Transparenz. Der Node-Editor von Blender bietet eine intuitive Methode, um Materialien durch das Verbinden verschiedener Knoten zu erstellen.

Texturen sind entscheidend, um Objekten visuelles Interesse und Realismus zu verleihen. Blender unterstützt eine Vielzahl von Texturen. Der Texturen-Tab im Properties-Bereich von Blender ermöglicht einem, diese Texturen zu importieren und zu bearbeiten, um das gewünschte Aussehen zu erzielen. Durch das Kombinieren von verschiedenen Texturen und dem Anpassen ihrer Eigenschaften können komplexe Oberflächen entstehen, die organisch und ansprechend wirken.

Kamera und Render-Einstellungen

Die Kamera in Blender simuliert den Blickwinkel des Betrachters. Die Kamera lässt sich positionieren, indem sie ausgewählt wird und mit den Transformationswerkzeugen (G, R, S) bewegt wird. Die Eigenschaften der Kamera wie Brennweite, Blendenzahl und Fokusabstand können im Kamera-Panel im Properties-Bereich eingestellt werden. Diese Einstellungen beeinflussen vor allem die Perspektive und Schärfe des gerenderten Bildes.

Bevor ein Projekt gerendert wird, müssen die Render-Einstellungen angepasst werden. Dazu gehört die Auswahl des richtigen Render-Engines (wie Eevee oder Cycles), die Einstellung der Render-Qualität (Auflösung, Sampling) und die Festlegung von Beleuchtungsoptionen (wie Umgebungslicht oder physikalische Lichtquellen). Jede Render-Engine hat ihre eigenen Stärken und Schwächen, daher ist es wichtig, die beste Wahl für Ihr Projekt zu treffen. Eevee und Cycles sind zwei unterschiedliche Render-Engines innerhalb von Blender, die jeweils ihre eigenen Stärken und Anwendungsbereiche haben.

Eevee:

Eevee ist eine Echtzeit-Render-Engine, die schnellere Vorschau- und Renderzeiten ermöglicht. Sie eignet sich gut für interaktive Szenen, Animationen und Spieleentwicklung, bei denen schnelle Bildwiederholraten und Echtzeit-Feedback erforderlich sind. Obwohl Eevee auf Echtzeit-Rendering basiert, unterstützt es physikalisch-basierte Materialien und Beleuchtungseffekte. Diese ermöglichen es, realistische Oberflächen mit Schatten, Spiegelungen und atmosphärischen Effekten zu erzeugen, allerdings mit weniger Detailtiefe als Cycles. Eevee verwendet Screen Space Ambient Occlusion (SSAO) für Schatteneffekte und Screen Space Reflections (SSR) für Spiegelungen. Diese Techniken sind schnell, haben aber Einschränkungen in Bezug auf die Darstellung von Schatten und Reflektionen außerhalb des sichtbaren Bereichs. Aufgrund seiner Echtzeit-Natur und der weniger rechenintensiven Prozesse ist Eevee weniger ressourcenintensiv in Bezug auf GPU- und CPU-Anforderungen im Vergleich zu Cycles. Während Eevee realistische Ergebnisse liefern kann, ist die Qualität der Renderings nicht so hoch wie bei Cycles. Feine Details in der Lichtbrechung, komplexere Schatten und Reflektionen sowie globale Beleuchtung sind begrenzt.

Cycles:

Cycles ist eine Render-Engine, die auf Pfadverfolgung basiert und fotorealistische Ergebnisse liefert. Sie simuliert physikalisch korrekte Lichtwechselwirkungen, was zu detaillierten und hochwertigen Renderings führt. Cycles berechnet globale Beleuchtungseffekte genau. Dies führt zu realistischeren und genaueren Lichteffekten im Vergleich zu Eevee. Cycles unterstützt umfassendere Materialien und Texturen, einschließlich komplexer Shader und Echtzeit-Interaktionen mit dem Node-Editor. Dies ermöglicht eine präzisere Kontrolle über das Erscheinungsbild von Oberflächen. Aufgrund der Pfadverfolgung ist Cycles rechenaufwendiger und hat längere Renderzeiten im Vergleich zu Eevee. Dies kann bei komplexen Szenen oder Animationen, die eine hohe Detailgenauigkeit erfordern, eine Rolle spielen. Cycles wird häufig für Architekturvisualisierungen, Produktrenderings, Filmproduktionen und andere Bereiche verwendet, in denen fotorealistische Qualität und Detailgenauigkeit von entscheidender Bedeutung sind.

12 // Blender Basics 01

Ok, let’s go!

Blender ist standardmäßig auf English eingestellt. Man kann die Sprache zwar ändern, doch da die meisten Tutorials sowieso englisch sind, werde ich hier auch die jeweils englischen Bezeichnungen aufzählen. Außerdem ist es sinnvoll, sich Shortcuts anzueignen und zu verwenden.

Benutzeroberfläche

Die wichtigsten Bereiche sind:

  • 3D Viewport: Der Hauptarbeitsbereich – where all the magic happens.
  • Outliner: Eine Liste von allem, was in der aktuellen Szene ist.
  • Properties Editor: Hier passt man die Einstellungen des ausgewählten Objekts an.
  • Timeline: Wird für Animationen gebraucht, um zu steuern, was wann passiert.

Navigation und grundlegende Steuerung

Wie bewegt man sich im 3D-Raum:

  • Rotate View: Mittlere Maustaste (MMB) gedrückt halten und ziehen
  • Zoom: Mit dem Mausrad scrollen oder STRG + MMB
  • Pan: SHIFT + MMB gedrückt halten und ziehen

Folgende Werkzeuge sind grundlegend für das Erstellen, Bearbeiten und Manipulieren von 3D-Modellen:

  • Select (Auswahl): Mit der linken Maustaste (LMB) auf ein Objekt klicken
  • Move (Bewegen): G drücken und dann die Maus bewegen
  • Rotate (Rotieren): R drücken und dann die Maus bewegen
  • Scale (Skalieren): S drücken und dann die Maus bewegen

Object Mode vs. Edit Mode

Object Mode

Der Objektmodus ist der Standardmodus in Blender. Darin werden Objekte als ganze Einheiten behandelt – können bewegt, skaliert, gedreht, dupliziert etc. werden.

Die internen Geometrien (Punkte, Kanten, Flächen) eines Objekts kann man hier nicht bearbeiten – dafür braucht man den Bearbeitungsmodus.

Blender kommt mit grundlegenden Formen, wie zum Beispiel Würfel, Kugeln und Zylinder:

Add a shape: SHIFT + A drücken und die gewünschte Form aus dem Menü wählen

Edit Mode

Um den Bearbeitungsmodus zu aktivieren, drückt man die Tab-Taste.

Hier kann man zwischen drei grundlegenden Auswahlmodi wechseln:

  • Vertex Select (Punkt-Auswahl): 1 drücken oder auf das Punkt-Symbol klicken. Wird für präzises Detailarbeiten verwendet.
  • Edge Select (Kanten-Auswahl): 2 drücken oder auf das Kanten-Symbol klicken. Wird verwendet, um Linien und Konturen zu bearbeiten.
  • Face Select (Flächen-Auswahl): 3 drücken oder auf das Flächen-Symbol klicken. Wird für größere Formveränderungen verwendet.

Transformationen

Wie oben bereits beschrieben gibt es drei grundlegende Arten Objekte zu transformieren: Verschieben (Move), Drehen (Rotate), Skalieren (Scale)

Um die Bewegung auf eine bestimmte Achse zu beschränken, kann man zusätzlich zu den Shortcuts G/R/S die jeweiligen Achsen X/Y/Z drücken.

  • Move: G drücken, dann X, Y oder Z, um die Achse zu sperren.
  • Rotate: R drücken, dann X, Y oder Z.
  • Scale: S drücken, dann X, Y oder Z.

11 // Werde ich Blender am Ende lieben?

In diesem Semester plane ich, mich intensiv mit der Erstellung und Integration von 3D-Elementen in Fotos oder Videos zu beschäftigen, wobei ich den Schwerpunkt auf die Software Blender lege. Dabei werde ich mich auch mit der Benutzeroberfläche und den Funktionsweisen des Programms vertraut machen.

Warum Blender?

Blender ist eine Open-Source-Software, die in der 3D-Grafik-Community hoch angesehen ist. Es bietet eine breite Palette von Funktionen, die es ermöglichen, 3D-Modelle, Animationen und visuelle Effekte zu erstellen. Ein großer Vorteil ist, dass Blender kostenlos verfügbar ist, was es für mich – als Studentin – zum perfekten Programm macht.

Erste (Baby-) Schritte

Der Einstieg in Blender kann sehr überwältigend sein, da die Software viele Funktionen und Werkzeuge bietet. Mein erster Schritt wird also sein, die Benutzeroberfläche von Blender kennenzulernen und mir die nützlichsten Shortcuts anzueignen. Dies beinhaltet:

– Navigieren im 3D-Raum: Verstehen, wie man sich im 3D-Raum bewegt und wie man verschiedene Ansichten nutzt.

– Grundlegende Werkzeuge: Erlernen der grundlegenden Werkzeuge wie Verschieben, Drehen und Skalieren.

– Modellieren: Erstellen einfacher 3D-Objekte und Verstehen der verschiedenen Modellierungstechniken.

Ich <3 YouTube

Mein Ziel ist, 3D-Grafiken mit realen Fotos und Videos kombinieren zu können und dabei die (irrationale) Angst vor dem Programm Blender zu bekämpfen. YouTube ist dabei mein „Partner in Crime“ und wird mir dabei helfen, Schritt für Schritt den Weg in die dreidimensionale Welt zu erleichtern. Im besten Fall habe ich am Ende des Semesters meine Liebe zu Blender entfacht und kann coole Fotos oder Videos mit noch cooleren 3D-Elementen verbinden.

Inspo

10 // Wie wichtig ist Musik? Wie Melodien, Songs und Klänge unser Leben beeinflussen

Musik ist nicht nur eine Kunstform, sondern auch ein kraftvolles Mittel, das auf vielfältige Weise unser tägliches Leben beeinflusst. Gemäß der Definition der Enzyklopädie Britannica ist Musik die Kunst, Vokal- oder Instrumentalklänge so anzuordnen, dass sie besonders schön oder emotional ausdrucksstark werden. Dabei geht es nicht nur um die Schönheit der Musik an sich, sondern auch um die tiefgreifenden Auswirkungen, die sie auf unsere Emotionen, Psyche, Gehirnaktivität und sogar den Körper haben kann.

Die emotionale Wirkung von Musik

Musik hat die einzigartige Fähigkeit, Emotionen in uns auszulösen, und dies ist oft einer der Hauptgründe, warum Menschen Musik hören. Je nach Stimmungslage wählen Menschen entweder Musik, die ihre aktuellen Gefühle widerspiegelt (Isoprinzip*) oder sie hören Musik, um bestimmte Emotionen zu erleben, die sie gerade nicht empfinden, aber gerne empfinden möchten (Kompensationsprinzip**).

Empathische Menschen neigen dazu, traurige Musik zu hören, da sie sich besonders gut in die Gefühle anderer hineinversetzen können. Musik bietet auch einen geschützten Raum für Katharsis, wo negative Emotionen erlebt werden können, ohne dass die Situation real bedrohlich ist.

Die kognitive Wirkung von Musik

Musik beeinflusst nicht nur unsere Gefühlswelt, sondern auch unsere kognitiven Prozesse. Besonders beeindruckend ist der Einfluss von Musik auf das Gedächtnis. Das Gehirn aktiviert beim Musikhören das limbische System, wodurch die mit Emotionen verbundene Amygdala und der für Gedächtnisprozesse zuständige Hippocampus aktiv werden. Der sogenannte „Casablanca-Effekt“ zeigt, dass Musik in Bruchteilen von Sekunden Erinnerungen an vergangene Zeiten hervorrufen kann.

Musik aktiviert verschiedene Gehirnregionen, darunter das Bewegungszentrum, das Sehzentrum und den präfrontalen Cortex. Musik kann auch die Zeitwahrnehmung beeinflussen, sodass die Zeit beim Hören von emotional ansprechender Musik scheinbar schneller vergeht.

Die physische Wirkung von Musik

Musik hat nicht nur Auswirkungen auf unsere Psyche und kognitive Funktionen, sondern auch auf unseren Körper. Anregende Musik kann die Herz- und Atemfrequenz erhöhen, während beruhigende Musik dazu neigt, sie zu senken. Der Blutdruck kann ebenfalls positiv beeinflusst werden. Beim gemeinsamen Musikhören oder Tanzen werden Hormone wie Oxytocin ausgeschüttet, was die soziale Bindung stärkt.

In der medizinischen Praxis wird Musiktherapie zur Unterstützung verschiedener Zustände eingesetzt, von Depressionen bis hin zu neurologischen Erkrankungen wie Parkinson. Musik kann auch in der Schmerztherapie eingesetzt werden, um chronische Schmerzen zu lindern, und sie spielt eine Rolle bei der Aktivierung von Erinnerungen bei Menschen mit Demenz.

Die Vielfältigkeit der Wirkung von Musik

Die Forschung zeigt, dass es keine pauschalen Antworten darauf gibt, welche Musik welche Wirkung hat. Die Wirkung von Musik ist hochgradig individuell und hängt vom klanglichen Material, der Person, die die Musik hört, und dem Kontext ab. Die Vielfältigkeit der Wirkung von Musik macht sie zu einem kraftvollen Werkzeug, das in der Lage ist, zu helfen, zu schaden oder zu verbinden.

Insgesamt ist die Macht der Musik in ihrer Fähigkeit zu sehen, uns auf emotionaler, kognitiver und physischer Ebene zu beeinflussen. Melodien, Songs und Klänge sind mehr als nur Unterhaltung; sie sind ein integraler Bestandteil unseres Lebens, der uns formt und begleitet.

*Isoprinzip: Dieses Prinzip bezieht sich darauf, dass Menschen Musik auswählen, die zur aktuellen Stimmungslage passt. Wenn jemand bereits fröhlich und positiv gestimmt ist, neigt er dazu, Musik auszuwählen, die diese positive Stimmung verstärkt. Ähnlich gilt dies für andere Emotionen wie Traurigkeit oder Entspannung. Das Isoprinzip bedeutet also, dass die gewählte Musik im Einklang mit der gegenwärtigen emotionalen Verfassung steht.

**Kompensationsprinzip: Im Gegensatz dazu bezieht sich das Kompensationsprinzip darauf, dass Menschen Musik hören, um bestimmte Emotionen zu erleben, die sie gerade nicht empfinden, aber gerne empfinden möchten. Beispielsweise könnte jemand, der sich in einem eher traurigen Zustand befindet, bewusst fröhliche und aufmunternde Musik wählen, um seine Stimmung zu heben. Dieses Prinzip basiert auf dem Gedanken, dass Musik eine Art Ausgleich für gegenwärtige Emotionen bieten kann.

Literatur:

BR. Durch Töne vernetzen sich die Hirnregionen. https://www.br.de/fernsehen/ard-alpha/sendungen/campus/lernen-mit-musik-100.html [29.01.2024]

Britannica. Music. https://www.britannica.com/art/music [29.01.2024]

DasGehirn.info. Das musikalische Gehirn. https://www.dasgehirn.info/denken/musik/das-musikalische-gehirn [29.01.2024]

Jusllin, P. N., (2019). Musical Emotions Explained – Unlocking the secrets of musical affect. Oxford University Press.

Schwabe, C., (1978). Methodik der Musiktherapie und deren theoretische Grundlagen. Leipzig: Barth Verlag

Vorderer, P. & Schramm, H. (2004). Musik nach Maß. Situative und personenspezifische Unterschiede bei der Selektion von Musik. In K-E Behne, G Kleinen & H de la Motte-Haber, H. (Hrsg.), Musikpsychologie. Jahrbuch der Deutschen Gesellschaft für Musikpsychologie. Band 17: Musikalische Begabung und Expertise. Göttingen, Deutschland: Hogrefe.

Kölsch, S., (2020). Good Vibrations – Die heilende Kraft der Musik.

09 // Blake Snyder – „Save the Cat“

„Save the Cat“ von Blake Snyder ist ein wegweisendes Buch, das sich dem Handwerk des Drehbuchschreibens widmet. Erschienen im Jahr 2005, hat es schnell an Bekanntheit gewonnen und ist zu einem Standardwerk für angehende Drehbuchautoren:innen und Filmemacher:innen geworden. Der Titel des Buches bezieht sich auf eine kraftvolle Idee: Wenn Zuschauer:innen eine Katze gerettet sehen möchte, dann muss der/die Protagonist:in des Films sympathisch und zugänglich sein.

Hintergrund des Autors:

Blake Snyder war ein erfahrener Drehbuchautor und Drehbuchberater, der sein Wissen und seine Erfahrungen in diesem Buch gebündelt hat. Er entwickelte das „Save the Cat“-Prinzip, um Autor:innen eine klare Struktur und Richtlinien für das Schreiben von Drehbüchern zu geben.

Kernkonzept – Save the Cat:

Das zentrale Konzept des Buches ist der „Save the Cat“-Moment. Dieser Moment tritt früh im Film auf und zeigt den Protagonist:innen in einer Handlung, die sein Mitgefühl oder Sympathie für das Publikum gewinnt. Dieser einfache, aber effektive Grundsatz verdeutlicht die Bedeutung der Identifikation des Publikums mit dem Hauptcharakter von Anfang an.

Weitere Konzepte im Buch:

Die 15 Beats: Snyder präsentiert eine klare Struktur von 15 Beats, die ein Drehbuch durchlaufen sollte. Diese Struktur hilft Autor:innen, die Handlung ihres Films so zu gestalten, dass sie die Aufmerksamkeit des Publikums von Anfang bis Ende aufrechterhält.

Genres und ihre Erwartungen: Das Buch diskutiert verschiedene Genres und die Erwartungen des Publikums in Bezug auf Handlung und Charakterentwicklung. Es hilft dabei, die spezifischen Merkmale jedes Genres zu verstehen und erfolgreich in das Drehbuch zu integrieren.

Problemlösungstechniken: Snyder bietet praktische Tipps und Techniken zur Bewältigung von Herausforderungen im Drehbuchschreibprozess. Von der Überwindung von Schreibblockaden bis zur Entwicklung von überzeugenden Dialogen gibt er Ratschläge, die für angehende Autor:innen äußerst wertvoll sind.

Einfluss auf die Filmindustrie:

„Save the Cat“ hat nicht nur angehenden Drehbuchautor:innen geholfen, sondern auch in der Filmindustrie insgesamt einen erheblichen Einfluss ausgeübt. Viele erfolgreiche Filme werden als Beispiele für Snyders Prinzipien betrachtet, und sein Buch ist zu einem festen Bestandteil von Drehbuchschreibekursen und -workshops geworden.

Das Buch ist ein Handbuch für die Kunst des Geschichtenerzählens im Film. Mit klaren Richtlinien, praxisnahen Beispielen und einem leicht verständlichen Stil hat dieses Buch eine Generation von Drehbuchautoren inspiriert und ihnen geholfen, ihre Geschichten auf die Leinwand zu bringen.

Snyder, B. (2005). Save the Cat!: The Last Book on Screenwriting You’ll Ever Need. Michael Wiese Productions.

08 // Die Funktion von diegetischer Musik in der Filmerzählung

Diegetische Musik, ein entscheidendes Element in der Filmerzählung, umfasst Klänge und Musik, die innerhalb der Welt der Filmcharaktere existieren. Anders ausgedrückt, die Charaktere können die Musik im Film hören, und sie wird Teil der Handlung und der Filmerzählung. Im Gegensatz dazu steht nicht-diegetische Musik, die von außerhalb der Filmwelt stammt und von den Charakteren im Film nicht wahrgenommen wird, sondern ausschließlich für die Zuschauer bestimmt ist.

Die Verwendung von diegetischer Musik spielt eine entscheidende Rolle bei der Gestaltung verschiedener Aspekte der Filmerzählung. Sie kann als Werkzeug dienen, um die Stimmung zu setzen, Charaktere zu entwickeln und die Handlung voranzutreiben. In diesem Zusammenhang stellt sich die Frage, wie die Funktion von diegetischer Musik in der Filmerzählung genau aussieht und welchen Einfluss sie auf das Gesamterlebnis hat.

Um diese Frage zu beantworten, könnte eine umfassende Analyse von Filmen durchgeführt werden, die unterschiedliche Ansätze zur Nutzung diegetischer Musik verfolgen. Ein Schwerpunkt könnte auf der Identifizierung von Mustern liegen, die zeigen, wie die Musik in die Handlung integriert wird und welchen Beitrag sie zur emotionalen Tiefe der Charaktere leistet. Gleichzeitig wäre es interessant zu untersuchen, wie die Verwendung von diegetischer Musik die Struktur der Handlung beeinflusst und möglicherweise sogar narrative Wendepunkte hervorhebt.

Ein weiterer wichtiger Aspekt wäre die Untersuchung der Reaktionen des Publikums auf die diegetische Musik. Wie beeinflusst die Musik, die von den Charakteren im Film gehört wird, die Zuschauer:innenerfahrung? Inwiefern trägt sie zur Immersion bei und wie kann sie die Wahrnehmung der Zuschauer:innen beeinflussen?

Insgesamt bietet die Analyse der Funktion von diegetischer Musik in der Filmerzählung die Möglichkeit, tiefe Einblicke in die kreative Welt des Filmschnitts und der Soundgestaltung zu gewinnen. Die Ergebnisse könnten nicht nur zur theoretischen Weiterentwicklung des Bereichs beitragen, sondern auch praktische Anwendungen für Filmemacher:innen und Sounddesigner:innen aufzeigen.

Beispiele für diegetische Musik in Filmen:

„Pulp Fiction“ (1994) – Mia’s Tanzszene:

In Quentin Tarantinos „Pulp Fiction“ tanzt Mia Wallace (Uma Thurman) zu Chuck Berrys „You Never Can Tell“. Die Musik ist diegetisch, da sie aus einem Plattenspieler im Hintergrund der Szene stammt. Die Musik wird Teil der Handlung, da sie die Atmosphäre der Szene prägt und die Beziehung zwischen den Charakteren beeinflusst.

„Guardians of the Galaxy“ (2014) – Star-Lords Musikplayer:

In diesem Marvel-Film trägt der Protagonist Star-Lord (Chris Pratt) einen Musikplayer bei sich. Die von ihm gehörte Musik wird im Film durchgehend diegetisch verwendet. Die Songs, die er hört, sind Teil seiner Persönlichkeit und werden als Handlungselemente genutzt.

07 // Vergleich von Filmschnitt in verschiedenen Genres: Wie Schnittentscheidungen die Stimmung, den Spannungsaufbau und die Erzählstruktur in verschiedenen Genres beeinflussen

Die Welt des Films ist so facettenreich wie das Leben selbst, und die Vielfalt der Genres spiegelt sich nicht nur in den Geschichten wider, sondern auch in den einzigartigen Ansätzen des Filmschnitts. Die Art und Weise, wie Schnittentscheidungen getroffen werden, trägt wesentlich dazu bei, die Richtung eines Films zu formen. Ein Blick auf verschiedene Genres ermöglicht es, die spezifischen Herausforderungen und kreativen Möglichkeiten des Filmschnitts in jedem Genre zu verstehen.

Drama:

Im Genre Drama steht oft die emotionale Tiefe der Charaktere und die Entwicklung der Handlung im Vordergrund. Der Filmschnitt in Dramen konzentriert sich häufig auf längere Einstellungen und sanfte Übergänge, um den Zuschauern Zeit zu geben, sich in die emotionale Atmosphäre einzufühlen. Der Einsatz von Rückblenden und parallelen Handlungssträngen kann die Erzählstruktur komplexer gestalten und die emotionale Resonanz verstärken.

Action:

In Actionfilmen liegt der Fokus auf dynamischen Bewegungen, schnellen Schnitten und atemberaubenden Sequenzen. Der Filmschnitt spielt hier eine entscheidende Rolle bei der Schaffung von Rhythmus und Energie. Schnelle Schnitte können den Puls des Publikums beschleunigen und die Spannung intensivieren. Parallelmontagen werden oft genutzt, um verschiedene Handlungsstränge miteinander zu verweben und den Spannungsaufbau zu maximieren.

Horror:

Horrorfilme setzen auf subtile Spannungsaufbau und plötzliche Schockmomente. Der Filmschnitt in diesem Genre kann durch längere Einstellungen und geschickte Verzögerungen Spannung erzeugen. Schnelle, unerwartete Schnitte können den Schockmoment verstärken. Die Nutzung von Stille und gezielten Soundeffekten ist entscheidend, um eine unheimliche Atmosphäre zu schaffen.

Dokumentationen:

Dokumentarfilme erfordern oft eine andere Herangehensweise an den Filmschnitt. Hier steht die Authentizität im Vordergrund. Die Erzählstruktur kann durch Interviews, Archivmaterial und dokumentarische Schnitttechniken geformt werden. Die Verwendung von Montage, um verschiedene Perspektiven zu zeigen, ist entscheidend, um komplexe Geschichten zu erzählen.

Komödie:

Komödien zielen darauf ab, das Publikum zum Lachen zu bringen. Der Fokus liegt auf humorvollen Situationen, Dialogen und Charakteren. Schnittentscheidungen betonen oft Timing und Pacing, um den Witz zu maximieren.

Science Fiction (Sci-Fi):

Sci-Fi-Filme erkunden oft futuristische oder spekulative Konzepte. Der Filmschnitt kann hier visuelle Effekte, innovative Montage und schnelle Schnitte umfassen, um die futuristische Atmosphäre zu unterstreichen.

Fantasy:

Fantasy-Filme entführen die Zuschauer in imaginäre Welten mit übernatürlichen Elementen. Der Schnitt kann dazu dienen, zwischen Realität und Fantasie zu wechseln, wobei magische Elemente und beeindruckende Szenerien betont werden.

Mystery:

Mystery-Filme zeichnen sich durch undurchsichtige Handlungsstränge und überraschende Wendungen aus. Der Filmschnitt kann dazu verwendet werden, Informationen zurückzuhalten, Spannung aufzubauen und das Publikum im Dunkeln zu lassen.

Musical:

In Musicals werden Geschichten oft durch Musik und Tanz erzählt. Der Schnitt spielt eine Schlüsselrolle bei der Koordination von Bildern und Musik, wobei oft nahtlose Übergänge zwischen Dialogen, Gesang und Tanz geschaffen werden.

Thriller:

Thriller zielen darauf ab, Spannung und Aufregung zu erzeugen. Schnittentscheidungen können sich auf schnelle Pacing, geschickte Enthüllungen und die Verstärkung von Suspense-Momenten konzentrieren.

Historisches Drama:

Historische Dramen versetzen das Publikum in vergangene Epochen. Der Filmschnitt kann dazu beitragen, eine authentische Atmosphäre zu schaffen, indem er sorgfältig recherchierte Kostüme, Sets und historische Details hervorhebt.

Romantik:

Romantikfilme betonen oft Beziehungen und Liebe. Der Schnitt kann dazu dienen, romantische Momente zu betonen, emotionale Höhepunkte zu verstärken und die Entwicklung von Charakterbeziehungen zu verfolgen.

In jedem Genre beeinflusst der Filmschnitt nicht nur die visuelle Ästhetik, sondern auch die emotionale Wirkung auf das Publikum. Die Untersuchung dieser Unterschiede bietet nicht nur einen Einblick in die Techniken der Filmemacher:innen, sondern verdeutlicht auch, wie der Filmschnitt als kreatives Werkzeug genutzt wird, um die einzigartigen Anforderungen und Ziele jedes Genres zu erfüllen.

06 // Walter Murch – „In the Blink of an Eye“: Ein Blick auf die Essenz des Filmschnitts

Walter Murch ist ein angesehener Filmeditor und Sounddesigner. Er begann seine Karriere in den 1960er Jahren und wurde rasch zu einer Schlüsselfigur in der Filmbranche. Murch studierte an der University of Southern California und der University of Southern California School of Cinematic Arts, wo er sein Interesse für Film entdeckte.

Die Legende im Bereich des Filmschnitts und Sounddesigns, prägte nicht nur einige der bedeutendsten Filme des 20. Jahrhunderts, sondern teilte auch sein tiefes Verständnis für die Kunst des Schnitts in seinem Buch „In the Blink of an Eye“. Veröffentlicht im Jahr 1995, wirft das Buch einen faszinierenden Blick auf die Grundlagen und philosophischen Aspekte des Filmschnitts.

Der Titel, „In the Blink of an Eye“ (Im Augenblick des Blinzelns), ist mehr als nur eine Metapher. Murch entfaltet die Idee, dass der Schnitt der „Blinzel“ im filmischen Ausdruck ist – ein entscheidender Moment, der nicht nur den visuellen Fluss beeinflusst, sondern auch die emotionale Resonanz des Publikums formt. In seinen erhellenden Essays betont Murch, dass der Schnitt nicht nur technisches Handwerk ist, sondern eine künstlerische Entscheidung, die die narrative Struktur und den emotionalen Gehalt eines Films stark beeinflusst.

Eines der Schlüsselkonzepte des Buches ist Murchs „Rule of Six„, in dem er sechs Kriterien für einen erfolgreichen Schnitt identifiziert: Emotion, Geschichte, Rhythmus, Blickrichtung, Dauer und 180-Grad-Regel. Diese Kriterien bieten eine strukturierte Herangehensweise an den Schnittprozess und verdeutlichen, dass die Technik des Schnitts nicht isoliert betrachtet werden kann, sondern in enger Verbindung mit der emotionalen Wirkung und der erzählerischen Kohärenz stehen muss.

Murch teilt auch Einblicke in seine eigene Arbeitsweise und Erfahrungen, angefangen von seiner Arbeit an „Apocalypse Now“ bis hin zu „The English Patient“. Er beschreibt die Herausforderungen und Entscheidungen, die bei der Schaffung eines filmischen Werks getroffen werden, und betont die Bedeutung der Zusammenarbeit zwischen Regisseur:innen und Editor:innen.

Ein weiterer faszinierender Aspekt des Buches ist Murchs Diskussion über die Wirkung von Klang und Musik auf den Schnitt. Sein Verständnis für die Verbindung von Bild und Ton hat nicht nur Filme akustisch bereichert, sondern auch die Art und Weise, wie Editoren den Klang in ihre Schnittentscheidungen integrieren, beeinflusst. „In the Blink of an Eye“ bleibt ein unverzichtbares Werk für angehende Editoren und Filmemacher. Murchs kluge Einsichten, seine Reflexionen über die Kunst des Filmschnitts und seine inspirierende Herangehensweise an die Verbindung von Technik und Kreativität machen das Buch zu einer Quelle zeitloser Weisheit in der Welt des Films.

Murch, W. (2001). In the Blink of an Eye: A Perspective on Film Editing (2nd ed.). Silman-James Press.

05 // Continuity Editing

Kontinuität ist der unsichtbare Klebstoff, der jeden (erfolgreichen) Film zusammenhält. Sie trägt dazu bei, die von Filmemacher:innen angestrebte Illusion zu schaffen und aufrechtzuerhalten und hilft gleichzeitig auch der zusehenden Person, an die Geschichte zu glauben, die erzählt wird (Adobe). Continuity Editing schafft einen fließenden Übergang von einer Einstellung zur nächsten, ohne die Aufmerksamkeit der Zuseher:innen von der Erzählung abzulenken (Bordwell & Thompson, 1993).

Von Beginn an haben Filmschaffende und Editor:innen erkannt, dass die Lenkung der Blickrichtung und Aufmerksamkeit der  Zuseher:innen auf bestimmte Elemente auf dem Bildschirm (typischerweise Objekte, Gesichter oder Bewegungen) sowie die gezielte Beeinflussung der grundlegenden filmischen Elemente (wie Bewegung, Licht, Farbbalance und Aufnahmedauer) nicht nur dazu dient, die Handlung des Films zu verstehen, sondern auch ein Gefühl für die räumlich-zeitliche Kontinuität zu vermitteln.

Ohne die Bedeutung anderer Schnitttechniken zu vernachlässigen, verfolgt der bekannte Schnitt im „Hollywood-Stil“ die Ziele von Zeit und Wahrnehmung. Die Absicht besteht darin, die Übergänge zwischen den Aufnahmen möglichst „unsichtbar“ zu gestalten. Dies ermöglicht es den Zuschauer:innen, sich besser auf die Ereignisse oder die Handlung zu fokussieren (Anderson, 1996; Bordwell & Thompson, 1993; Cutting, 2005; Reisz & Millar, 2010). Smith und Henderson (2008) bezeichneten dieses Phänomen als „Schnittblindheit“ – also das fehlende Bewusstsein für Schnitte beim Betrachten eines Films.

Aber was bedeutet überhaupt Continuity Editing?

Bei dieser Schnitttechnik werden mehrere Kameraeinstellungen – unabhängig von Ort und Zeit – zu einer nahtlosen und konsistenten Erzählung zusammengefügt. Dieser Fluss hilft zusehenden Personen, ohne unnötigen Ablenkungen, vollkommen in die Geschichte einzutauchen. Mindestens genauso viel Aufmerksamkeit wie der Schnitt, bekommt auch die Requisite am Set – Kostüme müssen von Szenen zu Szenen stets gleichbleiben. Eine weitere Technik, die zur Kontinuität beiträgt, ist zum Beispiel das Anpassen der Blickrichtung, die 180-Grad-Regel oder ein Match-Cut (Adobe). Diese Schnitttechniken zielen darauf ab, ZuseherInnen so wenig möglich bewusst werden zu lassen, dass es sich um einen Film handelt.

180-Grad-Prinzip

Das 180-Grad-Prinzip, auch als 180-Grad-Regel bekannt, besagt, dass zwischen zwei handelnden Personen eine imaginäre Handlungsachse angenommen wird. Alle verwendeten Kameras dürfen sich nur auf einer Seite dieser Achse befinden und innerhalb des imaginären Halbkreises dieses 180-Grad-Bereichs bewegen. Im Rahmen des Kontinuitätssystems muss diese Anordnung im imaginären Raum beibehalten werden, unabhängig davon, in welche Richtung die Kamera auf die Szene gerichtet ist. Eine Überschreitung der Handlungsachse führt zu einer Beeinträchtigung der visuellen Kohärenz (Steinmetz, 2005).

Match-Cut

Ein Match Cut bezeichnet einen Übergang zwischen zwei Aufnahmen, der einen ähnlichen Bildausschnitt, Komposition oder Handlung nutzt, um den Zuschauer nahtlos von einer Szene zur nächsten zu führen. Diese Technik findet oft Anwendung im Film, Fernsehen und in der Werbung. Zum Beispiel wird in Filmen häufig ein Schnitt von einer Person zu ihrem jüngeren oder älteren Selbst verwendet, um eine Rückblende oder einen Blick in die Zukunft darzustellen und so die Hintergrundgeschichte einer Figur zu erzählen (Chen, Zigi, Tucker & Xie, 2023).

Beispiel: https://www.youtube.com/watch?v=iGuv1G3-f7w

Literaturverzeichnis:

Adobe. What Is Continuity Editing in Film? Adobe Creative Cloud. https://www.adobe.com/creativecloud/video/hub/ideas/what-is-continuity-editing-in-film.html [03.12.2023]

Anderson, J. D., (1996). The reality of illusion: An ecological approach to cognitive film theory. Carbondale, IL: Southern Illinois University Press.

Bordwell, D., & Thompson, K., (1993). Film art: An introduction (4th ed.). New York, NY: Mc Graw Hill.

Chen B., Ziai A., Tucker R. and Xie Y., (2023). Match Cutting: Finding Cuts with Smooth Visual Transitions in 2023 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA,

Cutting, J. E., (2005). Perceiving scenes in film and in the world. In J. D. Anderson & B. F. Anderson (Eds.) Moving image theory: Ecological considerations (pp. 9-27). Carbondale, IL: University of Southern Illinois Press.

Reisz, K. & Millar, G., (2010). The technique of film editing (2nd ed.). London: Focal Press.

Steinmetz R., (2005). Filme sehen lernen: Grundlagen der Filmästhetik. (DVD). Frankfurt am Main: Zweitausendeins.

Smith, T.J. and Henderson, J.M., (2008). Edit Blindness: The relationship between attention and global change blindness in dynamic scenes. Journal of Eye Movement Research, 2(2), 1-17.

04 // Die Rolle von Sound im Film

Filme lösen – wenn sie gut sind – Emotionen aus. Der Ton ist ein entscheidender Bestandteil im Bewegtbild und trägt maßgeblich zur Wirkung und Atmosphäre eines Films bei. Soundeffekte dienen dazu, die Realität im Film zu verstärken, Stimmungen zu schaffen, bestimmte Szenen zu betonen sowie Spannung zu erzeugen. Die Kunst des Sounddesigns im Film besteht darin, verschiedene Elemente zu verbinden, um wirkungsvolle audiovisuelle Erfahrungen zu schaffen.

Filme streben danach, auf dem Bildschirm oder der Leinwand eine glaubhafte filmische Realität zu präsentieren. Das Bild allein jedoch, kann nur begrenzt wahrgenommen werden. Der Ton erweitert die Wahrnehmung über ihre zweidimensionale Begrenzung hinaus und ermöglicht so eine realistischere Erfahrung (Ekman, 2008).

Die Funktion des Tons im Film, so Dakic (2009), kann in zwei Hauptaspekte unterteilt werden: die Erzählung der Handlung und die Unterstützung der Handlung. Die Erzählung der Geschichte liegt in erster Linie in den Dialogen und der Sprecher:innen, während die Unterstützung der Handlung auf alle anderen Tonspuren abzielt, die dazu dienen, die Emotionen und Spannungsbögen des Films zu intensivieren.

Die Wahrnehmung von Filmton kann in drei verschiedenen Weisen erfolgen. Die am häufigsten auftretende und für das Sounddesign besonders relevante Form des Hörens ist das kausale Hören, bei dem die Geräuschquelle lokalisiert und erkannt wird, um Informationen über das Geräusch und seine Ursache zu erfassen. Die zweite Art des Hörens ist das semantische Hören, das sich mit dem Verstehen und Interpretieren von Symbolen und Botschaften befasst, wobei dies in den meisten Fällen die Sprache oder Dialoge betrifft. Die dritte Form des Hörens ist das analytische Hören, das sich auf die Klangeigenschaften eines Geräusches konzentriert, unabhängig von seiner Ursache und Symbolik. Dies wird auch als reduziertes Hören bezeichnet (Hillman & Pauletto, 2014).

Literaturverzeichnis:

Ekman, I. (2008). Psychologically motivated techniques for emotional sound in computer games. In Audio Mostly Conference (AMC) 2008, Interactive Institute, Sonic Studio.

Dakic, V. (2009). Sound Design for Film and Television (1. Auflage, digitale Originalausgabe). GRIN Verlag.

Hillman, N. & Pauletto, S. (2014). The Craftsman: The use of sound design to elicit emotions.