Tag: interview

SRT-Untertitel erstellen:
8 Möglichkeiten

In meinem letzten Blogeintrag habe ich 5 Gründe für Untertitel aufgezählt und das SRT-Format vorgestellt. Mit diesem Format können die Zuschauer Deiner Videos selber einstellen, ob, in welcher Sprache und in welcher Darstellung sie Untertitel anschauen wollen.

Jetzt geht es darum, was das für Dich als Videoproduzent/in heisst: Wie erstellst Du Untertitel? Und welche Tools bieten YouTube, Facebook und Co. dafür?

Vorgehen je nach Zweck des Videos

Ich stelle Dir 8 Möglichkeiten vor, wie sich Untertitel erstellen lassen. Je nachdem, wie professionell Du arbeitest und was Du mit Deinen Videos bezweckst, eignet sich die eine oder andere Möglichkeit besser.

Wenn Du zum Beispiel vor allem auf YouTube einen Vlog betreibst, kannst Du die Untertitel direkt auf der Plattform erstellen (Möglichkeit Nr. 3).

Wenn Du für Kunden Videos produzierst und diese in Adobe Premiere Pro schneidest (wie ich häufig), kannst Du in diesem Schnittprogramm auch Untertitel erstellen (Möglichkeit Nr. 2).

Wenn Du keine Zeit hast, um Untertitel zu erstellen, und diese auch nicht für einen Kunden brauchst, kannst Du trotzdem die Variante offen lassen, dass die YouTube-Community das Video im Nachhinein für Dich untertitelt (Möglichkeit Nr. 5). Vielleicht hast Du ja Fans in einer anderen Sprachregion, die Dein Video gerne für ihre Bekannten zugänglich machen wollen?

Wir sprechen dabei immer von SRT-Untertiteln. Wenn Du Dir nicht sicher bist, was das ist, lies doch noch schnell den zweiten Teil meines letzten Blogeintrags.

Jetzt aber fertig um den Brei geredet.

So kannst Du SRT-Untertitel erstellen:

1. Mit Hilfe einer Untertitel-Software

Meine Mitarbeiterin Andrea Wildisen erstellte in den letzten Wochen für mich und meine Kunden viele Untertitel. Sie hat einige Programme ausprobiert. Am liebsten arbeitet sie mit dem Programm Aegisub, ursprünglich ein Karaoke-Programm. Es läuft auf Mac und Windows und ist gratis. Im nächsten Blogeintrag werde ich dazu ein ausführlicheres Tutorial machen.

Nur für Mac erhältlich ist „Subtitles theEditor“. Das Lieblingsprogramm von Thinh-Lay Bosshart, einer Expertin in Sachen Barrierefreiheit und Untertitelung.

Neben diesen beiden gibt es verschiedene andere Programme, mit denen Du Untertitel erstellen kannst. Netzwelt.de hat kürzlich eine Liste von geeigneten Programmen veröffentlicht.

 

2. In Adobe Premiere Pro

Wenn ich ein Video in Adobe Premiere Pro schneide, mache ich die Untertitel auch gleich dort. Neben .srt kann die fertige Untertiteldatei danach auch in anderen Dateiformaten exportiert werden.

Hier eine Seite von Adobe, welche die Arbeit mit Untertiteln in Adobe Premiere Pro ausführlich erklärt.

Wir werden für den nächsten Blogbeitrag auch ein Tutorial dazu erstellen.

 

3. Untertitel von Profis machen lassen

Im deutschsprachigen Raum und auch für Schweizerdeutsche Videoinhalte gibt es Diction, einen zuverlässigen und guten Service, den ich auch schon genutzt habe. Sie machen normalerweise nur Übersetzungen, auf Anfrage auch SRT-Untertitel. Auch Easytranslate und Redsmoke machen Untertitelungen.

Dieser Service hat natürlich seinen Preis.

 

4. YouTube, Facebook: Direkt auf der Plattform

YouTube bietet neben den automatisch generierten und von der Community erstellten Untertiteln auch die Möglichkeiten, Untertitel selber, quasi „manuell“ einzufügen.

Auch auf Facebook ist dies möglich, Du musst jedoch einen etwas mühsamen Umweg über die Funktion „automatisch generieren“ gehen und die erstellten Untertitel danach korrigieren.

Auf Vimeo kannst Du nur fertige Untertiteldateien hochladen. Auch in Wistia kannst Du nicht direkt Untertitel erstellen. Dort gibt es jedoch die Option, SRT-Dateien hochzuladen und diese nachträglich direkt auf der Plattform zu bearbeiten.

Untertitel-Tool von YouTube

5. (Halb-)Automatisch erstellte Untertitel

Auf YouTube sind manchmal ziemlich schlechte Untertitel zu sehen. Das kann daran liegen, dass sie automatisch erzeugt wurden.

YouTube bietet für zehn verschiedene Sprachen, u.a. Deutsch, die Option zum automatischen Erstellen von Untertiteln. Das heisst, dass Dein Video durch ein Spracherkennungs-Programm läuft und dieses „transkribiert“, was gesagt wird.

Facebook bietet diese Funktion bisher nur auf Englisch an. Auf Vimeo und Wistia gibt es sie (noch?) gar nicht.

Sowohl bei YouTube als auch bei Facebook kannst Du die Untertitel überprüfen und korrigieren, bevor sie dem Video hinzugefügt werden.

Dies ist auch nötig, denn auch wenn die Spracherkennung immer besser wird, ist sie von der Perfektion zum jetzigen Zeitpunkt noch weit entfernt. Dessen muss man sich bewusst sein, wenn man automatische Untertitel erstellen lässt.

 

6. Alternative: Die Community nutzen

Auf YouTube kannst Du auch die Community für Dich arbeiten lassen. Dazu musst Du nur die entsprechende Funktion für Deine Videos freischalten und eine entsprechende „Infokarte“ erstellen (das sind die kleinen bunten „Post-its“, die jeweils am Rand der Videos erscheinen). Zum Beispiel: „Würde bitte jemand mein Video auf Arabisch übersetzen?“

Dann können interessierte Personen unentgeltlich Untertitel schreiben oder von anderen erstellte Untertitel überprüfen. Du kannst sie danach freischalten. Hier die Anleitung von YouTube/Google dazu.

Auf der Crowd-Idee basiert auch Amara: Amaras Mission ist, dass Video-Inhalte in möglichst vielen Sprachen zugänglich gemacht werden. Freiwillige untertiteln so zum Beispiel TED Talk-Videos.

7. Online auf Amara.org

Amara ist eine coole Organisation für Barrierefreiheit im Netz, die, wie bereits erwähnt, nach dem Crowd-Prinzip funktioniert und daneben auch einen Untertitel-Service anbietet.

Es gibt auf Amara aber auch die praktische Möglichkeit, selber Untertitel zum fertigen Video zu erstellen.

Die Untertiteldateien, die Du auf Amara erstellt hast, kannst Du danach mit YouTube synchronisieren und/oder als SRT-Datei herunterladen.

Einen Haken hat die Sache: Das Video muss bereits online sein, damit ich es mit Amara untertiteln kann. Für Facebook-Videos ist dies also keine Möglichkeit.

Bei YouTube und Vimeo kann man die Videos schon mal hochladen, aber ungelistet lassen, bis die Untertitel fertig sind.

Geschäftlich kommt für mich Amara deswegen meistens nicht in Frage. Meine Kunden möchten als Produkt Videodateien und nicht einen Link. Für nicht-geschäftliche Videos wäre dies aber kein Problem.

 

8. Im Text-Editor

SRT-Dateien sind Textdateien. Mit der nötigen Kenntnis kannst Du sie also auch in einem Text-Editor erstellen, während du parallel dazu das Video laufen lässt und die genauen Einblende-Zeiten notierst.

Noch einmal der Screenshot aus meinem letzten Blogeintrag:

 

Wichtig: Die Endung der SRT-Datei muss stimmen!

Der Dateiname muss dem SRT-Standard entspricht. Jede Sprache bekommt eine andere Endung:

Das sieht folgendermassen aus:

Dateiname.Sprachcode_Ländercode.srt

Eine Liste der Sprach- und Ländercodes findest Du zum Beispiel auf Facebook. (Die Schweiz existiert dort nicht, also wähle für Deutsche Untertitel „de_DE“.)

 

Achtung: Untertitel für weniger bekannte Player

Manche Firmen verwenden einen weniger bekannten oder einen eigenen Video-Player auf der Website. Dann sind die Möglichkeiten und Vorgaben unterschiedlich.

Ein Beispiel: Für einen Kunden machte ich Videos mit dazugehörigen SRT-Untertiteldateien. Der Kunde verwendet auf seiner Website einen Flash-Player namens „Flowplayer“. Dieser erfordert WebVTT-Untertitel, welche im Video eingebettet sind. Meine Mitarbeiterin Andrea hat unsere SRT-Datei in ein vtt-File umgewandelt und mit SubtitleEdit die Untertitel in das Video eingebettet. Das Resultat ist eine mp4-Datei mit einem „versteckten“ SRT-File.

 

Nützliche Links zu den einzelnen Plattformen

In diesem Blogeintrag habe ich vor allem auf YouTube und Facebook Bezug genommen, die beiden beliebtesten Videoplattformen. Dazu kommen Vimeo, ebenfalls ein grösserer Anbieter, und Wistia, wo ich einige meiner Videos hosten lasse.

Alle diese Plattformen haben FAQ- oder Hilfe-Seiten zum Thema Untertitel, wo Du noch genauere Infos bekommst. Hier die Liste mit den Links:

YouTube

Facebook

Vimeo

Wistia (Englisch)

 

Noch ein paar Tipps mehr? Klicke auf das Bild unten, um Dir 9 Tipps für bessere Videos zu holen.

Merken

Merken

5 Gründe für Untertitel – und wie das SRT-Format Dich weiterbringt

Als Videoproduzentin ist mir ein schönes Bild wichtig. Deswegen finde ich Untertitel eigentlich störend.

Manchmal sind sie aber nötig, und oft bringen sie sogar mehr Vorteile als erwartet.

Vor etwa zwei Jahren bekam ich zum ersten Mal von einem Auftraggeber die Anweisung, ein deutsch gesprochenes Video noch deutsch zu untertiteln. Warum?

Untertitel werden immer gefragter

Viele Leute schauen Videos auf dem Smartphone unterwegs und haben manchmal keine Kopfhörer eingesteckt. Mit Untertiteln kommt der Inhalt des Videos dennoch rüber.

Das Video, das ich damals untertitelt habe, war vom gesamten Konzept her auf Mobile ausgelegt.

Und das mobile unterwegs-sein ist nur einer der Gründe.

Was sonst noch für Untertitel spricht, darauf gehe ich in diesem Blogeintrag ein: Ich gebe Dir 5 gute Gründe für Untertitel.

Und dann geht es auch darum, dass Untertitel immer mehr können. Dass sie flexibler sind und man als Konsumentin mehr individuell einstellen kann. Ich stelle Dir das SRT-Format vor, das dies ermöglicht.

5 Gründe für Untertitel

1. Übersetzung

Ganz klar: Sehr häufig werden Untertitel immer noch als Übersetzung gebraucht.

Wenn der Interviewpartner Französisch spricht, aber das Video auch in der Deutschschweiz gesehen wird, ist eine Untertitelung die beste und kostengünstigste Lösung. Auch wenn Du ein Schweizerdeutsch gesprochenes Video in Standard-Deutsch untertitelst, ist das eine Übersetzung!

Die Alternativen: Bei Newsbeiträgen im Fernsehen kommen selten Untertitel zum Einsatz. Dort spricht häufig ein Sprecher in der Zielsprache über die leiser gemachten fremdsprachigen Aussagen („overvoice“). Bei Filmen und in der Werbung wird oft synchronisiert.

2. Unterwegs oder im Büro ohne Kopfhörer

Einen der wichtigsten Gründe für Untertitel habe ich bereits erwähnt: Leute schauen Videos häufig ohne Ton. Im Zug ohne Kopfhörer, während der Arbeit (Kopfhörerverbot in vielen Büros), in einer lauten Umgebung, oder wenn es einfach gerade zu umständlich wäre, die Kopfhörer hervorzusuchen, aber mit Ton in dieser Situation gerade nicht geht.

Ganze 82% der Videos auf Facebook werden ohne Ton angeschaut. Für in Websites eingebettete Videos habe ich keine solche Zahl, doch es wird dort ähnlich sein.

Es ist also eigentlich unverzichtbar, ein Video zu untertiteln, damit Deine Message oder die Deines Interviewpartners rüberkommt. Du erschliesst Dir damit ein Publikum, das sonst nichts von Deinem Video hat und es deshalb auch nicht beachtet.

Achtung: Beim Untertiteln nicht freestylen

Wenn Ton- und Untertitelsprache die gleiche ist, empfehle ich, 1:1 das Gleiche zu übernehmen und in den Untertiteln wenn immer möglich nicht zu kürzen oder zu paraphrasieren. Denn wenn jemand gleichzeitig zuhört und liest, stört es extrem, wenn die Untertitel vom Gesprochenen abweichen. (Natürlich ohne „ähm“s u.ä. 😉 )

Übrigens unterscheidet man bei Untertiteln zwischen „Closed Captions“, die ein- oder ausgeschaltet werden können, und „Open Captions“, die fix zum Video gehören.

3. Videos starten im Autoplay-Modus

Facebook pusht Videoinhalte. Dazu gehört Autoplay: Videos starten schon, ohne dass man darauf klickt. Auch bei Twitter und LinkedIn ist das so, und auch YouTube-Videos starten automatisch, wenn sie über einen Link geöffnet werden.

Die meisten Videos (ausser YouTube) starten dabei ohne Ton, zumindest wenn das Smartphone auf lautlos gestellt ist. Wenn Dein Video Untertitel hat, holst Du die Aufmerksamkeit der Internetnutzer in diesem Moment ab. Denn das Auge liest Text automatisch mit. Unvermittelt schenkt man einem solchen Video und seinem Inhalt Aufmerksamkeit, ohne dies bewusst gewollt zu haben.

Facebook gibt an, dass die Dauer, die Videos mit Untertiteln angeschaut werden, um 12% länger ist als ohne Untertitel.

Das kann sich positiv auf die Reichweite Deiner Videos auswirken: Facebook schliesst aus der längeren Sehdauer, dass Deine Inhalte interessant sind, und positioniert sie deshalb an höherer Stelle.

4. Barrierefreiheit

Thinh-Lay Bosshart ist mit ihrer Agentur BossharTong spezialisiert auf barrierefreies Web. Ich habe sie schon ein paar Mal um Tipps gebeten, weil sie sich mit dem Erstellen von Untertiteln sehr gut auskennt.

Für diesen Blogeintrag habe ich Thinh-Lay gefragt, ob es in diesem Bereich auch gesetzliche Richtlinien gibt. Sie gab mir folgende Auskunft:

„In der Schweiz ist seit 2004 das Behindertengleichstellungsgesetz in Kraft. Das BehiG betrifft auch die Barrierefreiheit im Web. Was als barrierefrei gilt, ist in den Web Content Accessibility Guidelines (WCAG 2.0) des W3C festgelegt. Diese Guidelines dienen als Grundlage für die Anforderungen an Behörden und Unternehmen.

Ein Grundprinzip ist, dass Informationen für alle Menschen wahrnehmbar sein sollen. Im Idealfall werden damit zwei oder mehr Sinne angesprochen.

Bei Video-Content braucht es also eine gleichwertige Textalternative. Das kann in Form eines beschreibenden Textes sein, oder in Form einer Audio-Deskription; einer zusätzlichen Tonspur, in der die Szenen beschrieben werden. Auf diese Weise ist der Inhalt auch für Menschen mit Sehbehinderung oder für Blinde zugänglich.

Für gesprochene Inhalte braucht es Untertitel, damit der Inhalt für Menschen mit Hörbehinderung zugänglich ist.“

Untertitel: Nicht Empfehlung, sondern Pflicht

Grundsätzlich sind auch private Unternehmen gesetzlich verpflichtet, alle Inhalte barrierefrei zur Verfügung zu stellen, um niemanden zu diskriminieren. Untertitel sind also mehr als nur empfohlen – sie sind Pflicht.

„In der Praxis sieht es jedoch so aus, dass die Mehrheit aller Unternehmen dieser Pflicht nicht nachkommen“, bedauert Thinh-Lay Bosshart. Betroffene, die sich diskriminiert fühlen, müssten nämlich tatsächlich rechtlich aktiv werden. „Das macht verständlicherweise kaum jemand.“

Auf der Website von BossharTong gibt es weiterführende Informationen und Links zum Thema Barrierefreiheit sowie auch eine Anleitung für Untertitel.

5. Suchmaschinenoptimierung (SEO)

Nicht zuletzt verschaffen Dir Untertitel auch einen Vorteil bei den Suchmaschinen. Wenn Du sie in eine separate Textdatei verpackst, ist diese für Suchroboter sichtbar. Dadurch wird Dein gesamtes Video indexiert, nicht nur der Titel und die Kurzbeschreibung.

Das verbessert das Ranking Deiner Videos bei Google etc. Das Video kann bei einer Suche besser gefunden werden.

Auch innerhalb einer firmeneigenen Website werden Videos mit einer separaten Untertitel-Textdatei bei einer Begriffs-Suche mit einbezogen.

Aus der Not eine Tugend

Untertitel sind also nicht einfach störende Elemente im Video. Sie können auch einiges und bringen Dir als Videoproduzentin durchaus Vorteile.

Kennst Du die Online-News-Videos, die mit auffallendem, weiss/gelb/schwarzem Text funktionieren? AJ+, oder in der Schweiz Nouvo SRF. Sie machen sozusagen aus der Not eine Tugend:

Diese Formate machen die Untertitel zu ihrem Programm. Sie vermitteln News kurz, direkt und rein visuell – ohne Einbusse, wenn man das Video ohne Ton anschaut. Der Text (von „Untertiteln“ kann man hier eigentlich nicht mehr sprechen) spielt eine zentrale Rolle. Die Videos sind optimiert für ein junges Zielpublikum und für Mobile.

Das SRT-Format

Untertitel ausblenden, die Sprache wechseln, die Schrift vergrössern – all das ist möglich mit dem SRT-Untertitelformat. Es gibt auch noch andere solche Formate (.sub, .ass, .ssa), aber SRT ist am gängigsten.

SRT steht für SubRip. Die Untertitel sind in einer Textdatei verpackt, die zusätzlich zum Video produziert wird und die Endung .srt hat.

Du kannst eine SRT-Datei entweder im Text-Editor oder mit einem speziellen Programm erstellen. Mehr dazu dann in meinem nächsten Blogpost.

Untertitel-Einstellungen personalisieren

So sieht es in YouTube aus, wenn ein Video SRT-Untertitel enthält und man „Einstellungen“ > „Untertitel“ > „Optionen“ öffnet:

So können z.B. Personen mit einer leichten Sehbehinderung die Untertitel vergrössert anzeigen lassen.

Auch bei Facebook kann man die Anzeigeoptionen für Videos mit SRT-Untertitel festlegen, und zwar über „Einstellungen“ > „Videos“ > „Anzeige der Untertitel“ > „bearbeiten“:

Zeit- und Sprachcode

Wann welcher Untertitel einzublenden ist, wird über einen genauen Timecode festgelegt. Wenn man eine SRT-Datei in einem Textprogramm öffnet, sieht das dann zum Beispiel so aus:

Auch der Dateiname ist codiert, und zwar bezüglich der Sprache: Auf Deutsch z.B. Untertitel_Apfelvideo.de_DE.srt – das heisst: Deutsch, wie es in Deutschland gesprochen wird.

Ein zweites Beispiel: Die Endung für Spanisch, wie es in Kolumbien gesprochen wird, ist es_CO, Spanisches Spanisch wird es_ES codiert. (Die Schweiz ist in der SRT-Sprachenliste nicht vorhanden.)

Nützlich: Transkripts aus SRT-Untertiteln

SRT-Untertitel kann man sich bei YouTube auch als Transkript zum jeweiligen Video anzeigen lassen. So kann man anhand des Textes an einen bestimmten Punkt im Video springen.

Die Transkript-Funktion ist auch besonders nützlich, wenn jemand mit Inhalten aus einem Video weiterarbeiten will.

Zum Beispiel im Rahmen einer Recherche: Dann kann man sich beispielsweise das Transkript speichern oder ausdrucken, oder ein Zitat direkt und deswegen auch bestimmt korrekt herauskopieren.

So sieht das zum Beispiel auf YouTube aus, wenn ein Video SRT-Untertitel hat und ich die Transkript-Funktion einschalte:

Tools, Editors und die Möglichkeiten bei YouTube und Facebook

In den zwei nächsten Blogposts werde ich noch genauer darauf eingehen, wie Du Untertitel denn nun erstellen kannst. Erst werde ich die Möglichkeiten von YouTube und Facebook vorstellen. Und in einem dritten Blogpost der Untertitel-Serie gibt’s ein Tutorial zu einem Tool, mit dem ich gute Erfahrungen beim Erstellen von SRT-Dateien gemacht habe.

Wenn du übrigens regelmässig Videos machst und darin auch Musik verwendest, empfehle ich Dir mein PDF zu Musik in Online-Videos. Ich erkläre darin, wo gute Musik für Videos zu finden ist, und wie Du vorgehst, um rechtlich auf der sicheren Seite zu sein.

Merken

Gutes Licht für Deine Videos (3/3): Das sind meine Lampen-Tipps

In meinen letzten zwei Blogeinträgen habe ich die Grundlagen des Arbeitens mit Licht erklärt:

(Hast Du Dir meinen Ratgeber zu diesen beiden Themen schon geholt? Dort hast Du alle Infos kompakt beieinander.)

 

Endlich gibt es preiswerte Lampen!

Wenn ich vor wenigen Monaten nach meinen Lichtempfehlungen gefragt wurde, habe ich jeweils LED Panels für 1000.- pro Stück empfohlen, weil ich einfach keine günstige, gute Variante kannte.

Als ich vor einigen Wochen bei Fotichästli vorbei ging und die verschiedenen Lampen in ihrem Sortiment sah, die gute Qualität haben und preiswert sind, wusste ich, jetzt ist es endlich Zeit, Lampen-Tipps zusammenzustellen.

In diesem Blogpost erkläre ich Dir verschiedene gängige Typen von Lampen, die beim Filmen verwendet werden, und liste ihre Vor- und Nachteile auf.

Dazu habe ich Dir ein PDF zusammengestellt, wo ich Dir verschiedene Modelle aufliste, die ich zum Kauf empfehle.

Softbox: Weiches Licht, einfach zu handeln

Vielleicht hast Du schon eines meiner Videos gesehen. Die filme ich meistens bei mir in meinem Büro. Für gutes Licht stelle ich jeweils zwei Softboxen auf.

Softboxen sind „Schirme“, die innen weiss oder silbern reflektierend sind und in der Mitte eine Lampe oder einen Blitz haben.

Softbox

Vorteile von Softboxen:

  • Sie geben weiches Licht, das nicht blendet. Auch die Schatten sind weich.
  • Falls Dein Interviewpartner eine Brille hat, gibt es mit Softboxen weniger Spiegelungen.
  • Einfach zu handeln! Mit Softboxen kannst Du nicht viel falsch machen.
  • Kaltes Licht, gut kombinierbar mit Tageslicht von draussen (z.B. Fenster als Hairlight).

Nachteile von Softboxen:

  • Das Aufstellen und Zusammenräumen ist eher aufwändig, wenn man die Box immer wieder zusammenbauen muss. Das kommt aber auch aufs Produkt an. Meine beiden Softboxen bleiben immer im Büro stehen und deshalb habe ich sie schnell aufgestellt.
  • Fixe Lichtstärke, nicht dimmbar (z.B. Softboxen als Key und Fill light wären gleich stark – nicht optimal).
  • Lichttemperatur nicht veränderbar (kalt).
  • Das Licht ist nicht so stark, man muss mit den Lampen relativ nah zum Gesicht. Wenn man nur alleine eine Moderation aufnimmt oder ein Einzelinterview filmt, ist das kein Problem. Aber bei einer Talk-Situation mit zwei oder mehr Personen wären die Lampen schnell mal im Bild.
  • Oft haben Softboxen nur ein Kabel und können nicht mit Akku betrieben werden. Auch hier wieder: Bei mir im Büro ist das kein Problem, aber wenn man unterwegs oder auch draussen filmt, muss man sich immer um den Stromanschluss kümmern.

LED-Panel: Starkes Licht, vielfältig einsetzbar

Wenn ich auf Dreh bin, habe ich zwei LED-Panels dabei. Das sind „Licht-Platten“, deren Fläche mit LED-Lämpchen bestückt ist.

LED-Panel

Vorteile von LED-Panels:

  • Starkes Licht. Und je grösser die Fläche, desto mehr LEDs und desto mehr Licht (im Ratgeber habe ich Panels in zwei verschiedene Grössen).
  • Dimmbar, je nach Stimmung oder wenn es jemanden blendet. Dann brennen einfach weniger Lämpchen.
  • Kann gut mit Akku betrieben werden (Sehr praktisch – früher kein Akku, würde ihn nicht mehr hergeben)

Nachteile von LED-Panels:

  • Hartes Licht – das heisst: mehr Schatten, es blendet eher, Vorsicht wegen Spiegelungen in der Brille.
  • Achtung: Es gibt LED-Panels mit Lüftung. Die darf man natürlich im Video nicht hören…

Es gibt verschiedene Modelle von LED-Panels:

  • Es gibt LED Panels, die sind nicht beweglich. Die steckt man gerade auf Lichtstativ und das Licht kommt dann von vorn. Ich gebe aber gerne Licht von oben, weil die Schatten schöner fallen und vor allem bei Brillenträger ist das wegen den Spiegelungen in der Brille sehr hilfreich.
  • Nur Kalt, plus „Diffuser“, das ist eine matte Kunststoffplatte) für weicheres Licht.
  • Mit Diffuser für Lichttemperatur (blaue oder gelbe Tafel). Das finde ich unpraktisch, weil das Licht dann meist extrem blau oder extrem gelb ist, und meistens braucht man etwas dazwischen.

    Verschiedene Diffuser

  • Bi-Color: Diese LED-Panels empfehle ich. Hier ist die Farbtemperatur stufenlos verstellbar, Lämpchen mit kaltem und warmem Licht werden einfach je nach Bedarf ein- oder ausgeschaltet. So kann ich die Lampe z.B. an das Raumlicht anpassen. Allerdings heisst das auch: Wenn ich nur warmes oder nur kaltes Licht will, leuchtet nur die Hälfte der Lämpchen. Ich empfehle wegen dieser Lichteinbusse eher das grosse LED-Panel. Je nachdem reicht aber auch die halbe Lichtstärke, denn die Kameras sind heute lichtstärker als früher.

Mein Tipp: Setze bei einer Dreipunkte-Ausleuchtung als Fill Light eine Softbox ein und nimm als Keylight ein LED-Panel, das stärker ist. Das ist eine schöne Kombi.

Spot für Hair-Light

Mit einem einzelnen Spot kannst Du punktuelles Licht setzen, zum Beispiel als Hair Light in der Dreipunkte-Ausleuchtung.

Spots haben in der Regel kaltes Licht, aber oft aufsteckbare Farbfilter (wie der im Ratgeber).

Was ist mit der integrierten Kameralampe?

Als Videojournalistin hatte ich ein Kameralicht dabei. Das Ziel war ja, schnell arbeiten zu können und nicht noch Lampen mit mir herumtragen und aufstellen zu müssen.

Das kleine Lämpchen, das in der Kamera oder im Smartphone eingebaut ist, kann das Gesicht der gefilmten Person zusätzlich etwas aufhellen. Es kann auch ein Strahlen ins Auge geben – das bezeichnen Profis als „Leben“ im Auge.

Licht besser von der Seite als von vorne

Das Kameralicht sollte aber nur im absoluten Notfall als Hauptlicht eingesetzt werden. Denn wenn das Licht frontal von vorne kommt, wirkt das Gesicht flach.

Im Ratgeber empfehle ich ein Modell von Fotichästli, das mit einer Querstange an der Kamera befestigt wird. Das heisst, das Licht kommt von der Seite. Das ist viel schöner als ein frontales Licht, denn es entstehen leichte Schatten, welche die Gesichtszüge betonen.

Low-Budget-Option: Anstatt der integrierten Kameralampe kannst Du auch die Taschenlampe eines anderen Smartphones als zusätzliche Lichtquelle verwenden. Am besten funktioniert das mit einer Taschenlampen-App mit unterschiedlichen Lichtstärken und Wärmegraden, und wenn Du das Smartphone auf einem Stativ befestigst.

Zusätzlich: Lichtstative und Akkus

Wenn Du eine Lampe kaufst, ist normalerweise kein Licht-Stativ dabei. Es muss zusätzlich bestellt werden.

Lampen haben standardmässig nur ein Kabel dabei. Akkus erleichtern das Filmen extrem, wenn man mobil sein will – ich würde meine nie mehr hergeben. Beim Bestellen von Akkus die entsprechenden Ladegeräte nicht vergessen!

Ratgeber „Ausrüstung Licht“

Damit Du alles zusammen hast und nichts vergessen geht, habe ich Dir einen Ratgeber zusammen gestellt mit meinen Empfehlungen für Lampen, Stative und Akkus. Du kannst den Ratgeber kostenlos herunterladen.

Welche Erfahrungen mit Videolicht hast Du gemacht? Ich würde mich über Deinen Kommentar freuen.

An dieser Stelle Danke an Fotichaestli.ch, das mir die Produkte zum Testen zur Verfügung gestellt hat!

Merken

Gutes Licht für Deine Videos (2/3): Die Dreipunkte-Ausleuchtung

Im letzten Blogeintrag ging es darum, wie Du mit dem Licht vor Ort arbeiten kannst, wenn Du ohne zusätzliche Lampen filmst.

Oft musst Du in diesen Situationen Kompromisse eingehen. Du stellst zum Beispiel Deinen Interviewpartner nahe ans Fenster, um sein Gesicht schön von der Seite auszuleuchten – dafür hast Du im Hintergrund eine Wand mit unschönen Schreibzetteln.

3 Vorteile von Lampen

Das ist für mich der grösste Vorteil davon, mit Lampen zu arbeiten. Du kannst dort filmen, wo der Hintergrund optimal ist. Du musst keine Kompromisse eingehen und hast sowohl einen schönen Hintergrund als auch gutes Licht auf dem Gesicht Deines Interviewpartners.

Es gibt aber noch weitere Vorteile, wenn Du Lampen zur Verfügung hast:

  • Du kannst beim Bild durch die Beleuchtung mehr herausholen und auch vor hellem Hintergrund filmen.
  • Du hast immer genügend Licht dabei und bist nicht auf das Tageslicht oder das Raumlicht angewiesen.

So arbeiten Profis

Die Standard-Methode beim Arbeiten mit Lampen ist die Dreipunkte-Ausleuchtung. Es ist die klassische Ausleuchtung für Interviews, Moderationen etc.

Vorher: Wähle Deinen Hintergrund

Die Regeln, nochmals kurz zusammengefasst:

  • nicht zu unruhig (störende Gegenstände allenfalls entfernen, Tiefenunschärfe nutzen)
  • so wenig Text wie möglich – das Auge beginnt automatisch zu lesen (Ablenkung vom gesprochenen Inhalt)
  • falls vor einer Wand, genügend Abstand lassen, damit kein harter Schatten entsteht und es nicht aussieht, wie „Verbrecherbilder“

1. Key Light

Das Key Light ist das hellste Licht im Setting. Es sorgt dafür, dass Deine Interviewpartnerin gut zu sehen ist.

In der klassischen Dreipunkte-Ausleuchtung scheint das Key Light auf die Gesichtshälfte, die näher bei der Mitte des Bildes ist.

Die Lampe stellst Du möglichst nahe bei der gefilmten Person auf, aber so, dass sie nicht mehr im Bild ist. Ich stelle das Key Light jeweils etwas höher, damit das Gesicht schön in einem schrägen Winkel beleuchtet wird. Dadurch entstehen Schatten und das Gesicht erhält Struktur.

Damit diese Schatten auf der anderen Gesichtshälfte nicht zu dunkel sind, verwenden wir noch eine zweite Lampe:

2. Fill Light

Das Fill Light ist weniger stark als das Key Light. Es kommt ebenfalls von schräg vorne, die Lampe wird relativ nahe bei der gefilmten Person aufgestellt, scheint aber auf die andere Seite des Gesichts.

Wir nehmen dafür weicheres Licht als für das Key Light oder einen Reflektor. Als Fill Light können auch ein Fenster, eine weisse Wand oder ein reflektierender Flipchart dienen!

Mit der Stärke des Fill Light lässt es sich variieren: Wenn das Key Light eindeutig stärker ist, bleibt mehr Schatten und das gibt mehr Charakter ins Gesicht.

3. Hair Light (Back Light)

Das Hair Light (auch „Back Light“ genannt) leuchtet schräg oben auf den Hinterkopf der gefilmten Person (hartes Licht, z.B. Spot). Es gibt mehr Tiefe ins Bild und hebt die Person deutlicher vom Hintergrund ab.

Das Hair Light ist in der Dreipunkte-Ausleuchtung diejenige Lichtquelle, die man am ehesten weglassen kann. Wenn jemand zum Beispiel nicht mehr so viel Haar auf dem Kopf hat, betont man dies mit dem Hair Light eher noch – in diesem Fall lasse ich es weg.

Herausforderung Brillenträger

In der Brille spiegeln sich Lichtquellen. Die Augen sind dann unter Umständen nicht mehr zu sehen. Das macht das Filmen von Personen, die Brille tragen, schwierig – vor allem bei grossen Brillen, wie sie momentan Mode sind.

Beim Aufstellen der Lampen musst Du beachten, dass keine Reflexionen auftauchen. Und wenn es sich nicht vermeiden lässt, dann höchstens am Rand der Brille.

Mein Trick:

Oft hilft es, das Licht leicht von oben herab zu setzen. Dann fallen Reflexionen nicht auf die Augen.

Brille abnehmen – ja oder nein?

Wenn Dein Interviewpartner die Brille immer trägt, gehört sie zur Person. In diesem Fall unbedingt anbehalten.

Ist Deine Interviewpartnerin jedoch manchmal auch mit Kontaktlinsen oder ohne Brille unterwegs, kann sie die Brille für die Aufnahmen auch abnehmen.

Zweipunkte-Ausleuchtung ohne Lampen

Nicht immer hat man drei Lampen. Je nach Budget und je nachdem, wie man unterwegs ist.

Achte jedoch darauf, dass Du mindestens zwei Lichtquellen aufs Gesicht scheinen lässt! Zwei Lampen sind in jedem Fall besser als eine.

Wenn Du nur eine einzige Lampe oder nur ein Fenster mit Tageslicht hast (dazu der erste Blogpost dieser Licht-Serie: „Das Licht vor Ort richtig nutzen“), gibt es Tricks, wie Du noch ein Fill Light erhalten kannst:

  • Zwei Fensterfronten: In diesem Fall stellst Du den Interviewpartner in die Ecke, in der er oder sie von vorne und von seitlich beleuchtet wird. (Hast Du im Hintergrund eine zweite Fensterfront, also Gegenlicht, musst Du diese entweder verdunkeln oder die Perspektive wechseln.)
  • Aber auch eine Wand oder ein Flipchart, welche das Licht etwas reflektieren, können ein zweites Licht (Fill Light) auf das Gesicht geben. Das macht es heller und mildert die Schatten.

Ratgeber „Gutes Licht für Deine Videos“

Zur aktuellen Blogpost-Serie habe ich einen Ratgeber zusammengestellt. Er enthält Tipps, wie Du mit dem Licht vor Ort arbeiten kannst, aber auch kurz zusammengefasst die Erklärung zur Dreipunkte-Ausleuchtung. Hier kannst Du das PDF herunterladen.

Merken

Merken

Gutes Licht für Deine Videos: Das Licht vor Ort richtig nutzen

Wenn jemand vor der Kamera steht und spricht, dann muss man das Gesicht dieser Person sehen. Vor allem ihre Augen. So erhält das, was gesprochen wird, Aufmerksamkeit.

Dafür ist es essenziell, dass das Gesicht gut ausgeleuchtet ist.

Mit diesem Blogeintrag beginne ich eine dreiteilige Serie zum Thema „Licht“: Damit deine Videos im besten Licht erscheinen.

Im ersten Teil erkläre ich Dir, wie Du ohne zusätzliche Ausrüstung gutes Licht erzielen kannst. Im zweiten Teil der Serie dann die Grundlagen fürs Filmen mit zusätzlichen Lichtquellen (die Dreipunkte-Ausleuchtung) und im dritten Teil einige Produkte-Tests und Kauf-Empfehlungen.

Ohne Licht-Equipment unterwegs

Wenn Du wissen willst, wie du Gutes Licht ohne Zusatzlampen hinkriegst, kannst Du dieses Video schauen, den Text unten lesen oder den „Ratgeber Licht“ gratis herunter laden. Oder natürlich eine Kombination wählen:-)

Wenn bei mir ein Dreh ansteht, bin ich meistens mit dem Auto unterwegs und habe Koffer mit Lampen und Licht-Stativen dabei. Aber als ich noch als Videojournalistin gearbeitet habe, fuhr ich mit Zug und Bus zu den Interviews. Dabei zog ich meinen Rollkoffer mit der Kamera hinter mir her und trug ein Stativ auf dem Buckel.

Zusätzliche Hilfsmittel für gutes Licht hatten keinen Platz. Abgesehen davon, dass ich im hektischen VJ-Alltag auch gar nicht die Zeit gehabt hätte, diese auch einzurichten.

Um in deinem Video gutes Licht zu haben, musst Du Dir also nicht unbedingt Lampen oder Scheinwerfer kaufen. Mit etwas Know-How kannst Du mit dem vorhandenen Licht viel machen.

Filmen in Innenräumen: Wo sind die Fenster?

Wenn Du vor einem Fenster filmst, mit Blick nach aussen, dann hast Du unter Umständen einen schönen Hintergrund. Aber Deine Interviewpartnerin ist nur als dunkle Silhouette zu erkennen.

Das kennt man auch aus der Fotografie: Gegenlicht gibt schwarze Silhoutten.

Das Fenster kannst Du aber als Lichtquelle nutzen.

Drehe Dich um 180 Grad, also stelle Deine Interviewpartnerin so, dass das Licht vom Fenster auf ihr Gesicht fällt. Du als Kameramann oder -Frau stehst so, dass Du das Fenster seitlich oder im Rücken hast.

Damit hast Du schon sehr schönes Licht. Ein Fenster ist grossflächig, leuchtet also das Gesicht schön aus. Und weil das Licht von der Seite kommt, entstehen keine Schatten unter den Augen. Zwei grosse Vorteile!

Deshalb die wichtigste Frage bei Interviews in Gebäuden: Wo sind die Fenster? Dorthin bringst Du Deinen Interviewpartner.

Raumlicht ausschalten

Wenn im Raum Licht an ist, schaltest Du dieses idealerweise aus. Dafür gibt es zwei Gründe.

1. Je dunkler der Raum ist und je heller das Gesicht, desto schöner ausgeleuchtet erscheint dieses. Das Gesicht sollte möglichst der hellste Punkt im Bild sein – das zieht die Aufmerksamkeit des Zuschauers an und das Gesprochene wird besser wahrgenommen.

Wenn es sich um eine künstlerische Entscheidung handelt, kannst Du natürlich auch eine Lampe oder ein anderes Licht ins Bild bringen. Grundsätzlich gilt aber die Regel, die ich soeben beschrieben habe.

2. Warmes und kaltes Licht sollte man nicht mischen. Tageslicht ist kalt, künstliches Raumlicht meistens warm. Wenn die beiden Lichtquellen vermischt sind, weiss der automatische Weissabgleich nicht so recht, ob nun warmes oder kaltes Licht die Referenz ist. Wenn der Weissabgleich nicht stimmt, wird das Gesicht im kalten Licht eher bläulich.

Filmen in Räumen ohne Fenster

Am frühen Morgen oder wenn die Sonne schon weg ist, nützen Dir Fenster nicht mehr als Lichtquelle. Es gibt auch Räume, in denen gar kein natürliches Licht vorhanden ist.

In diesem Fall suche ich immer zuerst die Lampen. Zum Beispiel die Deckenbeleuchtung.

Nun stellst Du Deinen Interviewpartner (oder Dich selbst, je nach Aufnahme) so auf, dass das Licht der Deckenlampe schön auf das Gesicht fällt und es keine Augenschatten gibt. In dem Beispiel unten funktioniert die Deckenlampe sehr gut.

 

Falls es Lampen hat, die von der Seite Licht geben, würde ich zuerst diese ausprobieren. Meistens gibt das weniger Schatten unter den Augen.

Oft ist es möglich, in einem Raum das Licht zu verändern oder umzustellen – nutze diese Möglichkeiten!

Unter freiem Himmel

Draussen gelten genau die gleichen Regeln wie diejenigen, die ich für das Filmen in Innenräumen beschrieben habe: Interviewpartnerin oder Moderator brauchen Licht auf dem Gesicht, die Augen müssen zu erkennen sein.

Das funktioniert am besten, wenn es bewölkt ist, oder aber am Morgen oder am späteren Nachmittag/Abend. Denn dann scheint die Sonne nicht mehr von oben herab, sondern tief seitlich ins Gesicht. Sowohl Interviewpartnerin als auch Hintergrund sind hell.

 

Wenn die Sonne hoch am Himmel steht, gibt es harte Schatten auf dem Gesicht. Der Kontrast ist sehr stark und Falten werden unschön betont. Und wenn es sehr hell ist, kneift Dein Interviewpartner die Augen zu. Eine Sonnenbrille ist da natürlich keine Lösung – man soll die Augen ja sehen! 😉 In diesem Beispiel sieht man die Augen auch ohne Sonnenbrille nicht.

 

So funktioniert’s: Geh mit Deinem Interviewpartner weg vom direkten Sonnenlicht. Dabei ist wichtig: Auch der Hintergrund muss im Schatten liegen, damit das Bild ausgeglichen ist.

 

Wenn nur die gefilmte Person im Schatten ist, aber der Hintergrund sonnig, ist entweder die Person zu dunkel…

 

…oder, wenn du die Belichtung an der Kamera anpasst, der Hintergrund überbelichtet.

 

Ein Baum taugt nicht als Schattenspender, denn durch die Blätter scheint immer wieder Sonnenlicht durch. Das kann unschöne helle Flecken auf die gefilmte Person geben.

HDR: Bald auch bei Video?

Wenn Hinter- und Vordergrund unterschiedlich hell sind, kann man das bei Fotos mit HDR etwas ausgleichen. Dabei werden mehrere Bilder auf einmal aufgenommen, jedes mit unterschiedlicher Belichtung. Die Kamera baut diese Bilder dann so zusammen, sodass sowohl Vorder- und Hintergrund schön ausgeleuchtet sind.

Der gleiche Effekt für Videos zu erzeugen, braucht viel mehr Rechenleistung als bei einem Foto. Für ein HDR Foto kombiniert die Kamera 2 bis 3 Bilder. Für ein Video müssen alle Frames doppelt oder dreifach abgelichtet werden. Es gibt zwar bereits HDR Videos, aber noch nicht für den „Normal-User“ Bereich.

 

Und was ist mit dem Hintergrund?

Es kann ein Problem sein, dass Du so den Hintergrund nicht frei auswählen kannst. Doch wenn man das Gesicht der gefilmten Person nicht erkennt, interessiert auch der Hintergrund niemanden. Licht hat erste Priorität, Hintergrund zweite.

Generell sollte der Hintergrund möglichst ruhig sein und Tiefe geben. Lösungen dafür:

  • Interviewpartner nicht direkt vor eine einfarbige Wand – das gibt wegen dem entstehenden Schatten „Verbrecherbilder“
  • Bilder wenn nötig abhängen, störende Gegenstände entfernen
  • Beim Filmen mit DSLR-Kamera: Tiefenunschärfe nutzen, um den Hintergrund ruhiger zu machen (Blogeintrag dazu: „Wie erzeuge ich geringe Tiefenschärfe beim Filmen mit Smartphone?“)
  • Alternativ: Kamera etwas weiter wegstellen und zoomen – auch das gibt leichte Tiefenunschärfe

 

Ratgeber „Gutes Licht für Deine Videos“

Die wichtigsten Tipps aus diesem Blogeintrag habe ich in einem Ratgeber zusammengefasst. Hier kannst Du das PDF herunterladen. Darin enthalten ist auch die „Dreipunkte-Ausleuchtung“, auf die ich im nächsten Teil dieser Blog-Serie eingehen werde. Im dritten Teil der Serie geht es dann um Ausrüstungs-Tipps (mit einem zusätzlichen Ratgeber dazu).

Viel Spass beim Ausprobieren! Wie immer freue ich mich, wenn Du mir von Deinen Erfahrungen erzählst.

Merken

Merken

Q&A: Wie erzeuge ich geringe Tiefenschärfe beim Filmen mit Smartphone?

Hallo Judith,

Ich habe eine Frage zum Fokus. Wie kriege ich geringe Tiefenschärfe hin?

Manchmal gelingt es mir, auf ein Objekt im Vordergrund zu fokussieren, sodass der Hintergrund unscharf wird. Aber dann kann ich nicht zwischen den beiden Ebenen wechseln. Manchmal schaffe ich es auch gar nicht, überhaupt einen unscharfen Hintergrund hinzubekommen.

Gibt es da eine besondere Herangehensweise oder Tricks? Hat es eventuell etwas mit der Belichtung zu tun, oder mit meinem iPhone? Ich komme da nicht weiter.

Vielen Dank für deine Hilfe. 

Liebe Grüße aus Deutschland

S.

Hallo S.,

vielen Dank für Dein Mail und Deine Anfrage. Ich benutze für die geringe Tiefenschärfe den Begriff „Tiefenunschärfe“, denn dies beschreibt meiner Meinung nach besser und verständlicher, worum es geht. Tiefenunschärfe ist ein Effekt, der ganz vielen Leuten gefällt. Das Hauptobjekt kommt schön zur Geltung, und man kann einen unruhigen Hintergrund kaschieren. Die Gestaltungsmöglichkeiten beim Filmen sind also grösser.

Mit dem Smartphone bringst Du nicht so viel Tiefenunschärfe hin wie etwa mit einer DSLR-Kamera, aber dazu noch etwas später. Um aber grundsätzlich einen unscharfen Hintergrund zu erzeugen, kannst Du folgendes ausprobieren:

Nahe heran ans Objekt

Nimm ein Glas und stelle es auf einen Tisch (oder etwas ähnliches), der relativ weit von der Wand weg ist. Nun gehe mit dem Smartphone möglichst nah ans Glas heran, damit es richtig gross im Bild ist. Das Glas soll das Bild aber nicht ganz füllen, der Hintergrund soll noch zu sehen sein.

Tippe das Glas auf dem Bildschirm an. Der Fokusrahmen auf dem Display bewegt sich dann dorthin und das Glas wird scharfgestellt. Wenn Du genug weit weg bist vom nächsten Hintergrund, wird dieser jetzt unscharf. So erzeugst Du Tiefenunschärfe.

 

Ich bin nah am Glas, der Hintergrund ist weit weg, ich habe Tiefenunschärfe.

 

Ich bin nicht mehr nah am Glas und habe gleich viel weniger Tiefenunschärfe.

Fokus manuell verschieben

Nun tippe auf den Hintergrund, damit dieser scharfgestellt wird. Jetzt sollte das Glas eher unscharf sein.

Glas ist unscharf, der Hintergrund ist scharf.

Du kannst so auch während dem Filmen zwischen Vorder- und Hintergrund wechseln, wie Du es in Deiner Frage beschreibst.

Eine sogenannte „Schärfenfahrt“, bei der sich der Fokus langsam von einer Ebene zur anderen verschiebt, kriegst du leider mit der iPhone-Kamera-App nicht richtig hin. Wenn Du das möchtest, empfehle ich dir zum Beispiel die App Filmic Pro: Sie verfügt über einen „Slider“ für den Fokus. Den kannst du langsamer verschieben, wenn Du eine Schärfenfahrt erhalten möchtest.

Wie bekomme ich eine geringe Schärfentiefe?

Die Tiefenschärfe wird durch vier Faktoren beeinflusst: Sensor der Kamera – Abstand zum Objekt – Brennweite – Blendenzahl.

Je grösser der Sensor der Kamera ist, desto mehr Unschärfe kann ich ins Bild bringen. Im Smartphone steckt ein kleiner Sensor. Wie oben gezeigt, kannst Du jedoch mit dem Smartphone auch mit Nähe zu einem Objekt Tiefenunschärfe produzieren.

Die Brennweite bei einer Kamera veränderst Du, indem Du zoomst. Je grösser die Brennweite ist, desto geringer ist die Tiefenschärfe. Das heisst, je näher Du heranzoomst, desto unschärfer wird der Hintergrund. Die meisten Smartphones haben aber keinen optischen Zoom, also keine Linse, bei der die Brennweite verändert werden kann.

Ist die Blende weit offen, hast Du eine kleine Blendenzahl und Tiefenunschärfe. Das iPhone 7 hat eine Blende von f1,8, was eigentlich eine sehr kleine Blende ist. Trotzdem ist es schwierig, den Hintergrund unscharf zu halten. Das zeigt, dass die Blende nicht der wichtigste Faktor in Bezug auf die Tiefenschärfe ist, auch wenn das oft geglaubt wird.

Das iPhone hat einen kleinen Sensor, und schon das macht Tiefenunschärfe schwierig; die kleine Brennweite durch den fehlenden Zoom kommt noch dazu. Viel besser für Aufnahmen mit Tiefenunschärfe geeignet als Smartphones sind Kameras mit Wechselobjektiven (DSLR, Systemkameras, Cinema Cameras). Dank grossem Sensor und kleiner Brennweite bringe ich auch mit einer f4 Blende mehr Tiefenunschärfe ins Bild als mit dem Smartphone mit der f1.8 Blende. 

Wenn Du noch mehr darüber erfahren willst, wie Tiefenschärfe funktioniert, empfehle ich Dir den entsprechenden Artikel bei digitaler-fotokurs.de. Er ist etwas ausführlicher, aber doch nicht zu technisch.

Ablenkung reduzieren mit Tiefenunschärfe

Der schöne Effekt der Tiefenunschärfe kann auch nützlich sein: Gerade gab ich eine Schulung bei der Firma Adesso. Die Teilnehmenden diskutierten, ob sie ihre Statements mit dem Smartphone oder mit einer Canon EOS 100D aufnehmen sollten.

Ich plädierte für die Canon, gerade wegen der Möglichkeit der Tiefenunschärfe. Die Interviews wurden nämlich in einem Büro aufgezeichnet, das heisst, es waren Bilder und Bücherregale an den Wänden. Diese können Kontraste und Struktur ins Bild geben, damit wird das Bild spannend. Mit dem Smartphone gefilmt, sieht man aber jeden Buchstaben und jeden Strich – und das lenkt von der sprechenden Person ab.

Mit der Canon-DSLR-Kamera und der entsprechenden Blendenzahl verschwindet der Hintergrund und die Person oder das Objekt im Vordergrund erhalten im Video die ganze Aufmerksamkeit.

Wenn Du mit dem Smartphone beim Interview einen unscharfen Hintergrund hinkriegen willst, musst Du doch recht nah ran:

Schau mir ins Auge, Kleiner 🙂

Zwei verschiedene Brennweiten beim iPhone 7 Plus

Das iPhone 7 Plus besitzt zwei Linsen statt nur eine. Deshalb kann ich die Brennweite verändern. Die erste Linse ist ein Weitwinkel mit einer Brennweite von 28 mm (wie die Linse beim iPhone 7). Die zweite Linse ist ein Teleobjektiv und hat eine Brennweite von 56 mm. Wenn ich also von der ersten auf die zweite Linse wechsle, kann ich zweifach zoomen, bekomme also mehr Tiefenunschärfe:

Das Glas ist zwar grösser im Bild, aber ich war mit der Kamera weiter weg als bei den Bildern vorher.

Porträtmodus beim iPhone 7 Plus

Die Dualkamera des iPhone 7 Plus kommt vor allem beim „Porträtmodus“ zum tragen. Das Teleobjektiv fokussiert den Kopf des Gesprächspartners, das Weitwinkelobjektiv bildet den Hintergrund ab und die Software kombiniert danach die beiden Fotos und macht den Hintergrund unscharf. Dank diesem Modus kann ein viel stärkerer Tiefeneffekt („Bokeh“) erzeugt werden.

Poträtmodus beim iPhone 7 Plus.

 

Aufnahme nur mit Teleobjektiv des iPhones 7 Plus.

 

Aufnahme mit Weitwinkellinse des iPhones 7 Plus. Wegen der hohen Tiefenschärfe kommen mehr Informationen ins Bild, und wegen des Weitwinkels auch mehr in der Breite. Somit habe ich viel mehr Ablenkung.

Leider funktioniert der Porträtmodus nur beim Fotografieren. Beim Filmen bräuchte es wegen der vielen Aufnahmen pro Sekunde sehr viel Rechenleistung. So ist dieser Vorteil im Videobereich (noch) nicht nutzbar.

Lieber S., die Antwort wurde jetzt ausführlicher als ich geplant hatte 🙂 Gib mir doch ein Feedback, ob das Experiment mit dem Glas geklappt hat! Und Du lieber Blogleser, liebe Blogleserin auch.

Herzlich

Judith

 

Merken

Merken

Doppelt gemoppelt – Wenn die zweite Kameraperspektive ablenkt

Vor kurzem schaute ich mir ein Video von Todd Herman, einem erfolgreichen Geschäftsmann, der viele Menschen coacht und weiterbringt. Seine Videos finden ein riesiges Publikum, seine Inhalte sind sehr inspirierend. Doch die Kameraführung in diesem Video lenkte mich total ab. Deshalb beschloss ich, einen Blogbeitrag über das Thema zu verfassen.

Unterschiedliche Beziehungen zum Zuschauer

Bei Videos gibt es zwei grundlegende Arten von Beziehung, die die sprechende Person mit dem Zuschauer aufbaut. In einem Interview erhält der Zuschauer eine Aussenperspektive: Die Person im Interview spricht nicht mit dem Zuschauer, sondern mit dem Interviewpartner. Deshalb schaut die interviewte Person nicht direkt in die Kamera, sondern zum Gesprächspartner. Als Zuschauer spüre ich quasi die angesprochene Person neben der Kamera, so dass der Blickkontakt zu mir nicht fehlt.

1

Anders ist es bei einer Moderation: Katja Stauber beginnt beispielsweise die Tagesschau mit „Grüezi, herzlich willkommen zur Tagesschau“ und blickt dabei in die Kamera. Als ZuschauerIn fühle ich mich direkt angesprochen durch die Anrede, weshalb es befremdlich wäre ohne Blickkontakt.

2

Heute ist es einfach, mit zwei Kameras zu arbeiten

Man findet heutzutage immer häufiger Videos, die mit zwei Kameras gefilmt wurden. Dies liegt zum einen daran, dass das Equipment nicht mehr so teuer ist und man leichter an zwei Kameras, beziehungsweise Smartphones gelangt. Zum anderen ist die Bearbeitung dank diverser Schnittprogramme um einiges einfacher geworden.

Bei Interview schön…

Bei der Frage nach einer oder zwei Kameras muss der Schnitt in den Mittelpunkt gestellt werden. Wie erwähnt, gibt es zwei Szenarien, in denen wir zwei Kameras einsetzen können: Interviews und Moderationen.  Wenn ich ein Interview schaue, kann die Technik mit zwei Kameras sehr schön und angenehm sein, da ich dadurch unterschiedliche Blickwinkel erhalte. Ich bin Beobachter eines Gesprächs.

Bei einem Interview kann eine Aufnahme mit zwei Kameras also sehr gut funktionieren. Dies zeigt folgendes Beispiel meines Kollegen Markus Bärtschi von videokom.ch.

Die Übersetzerin im Bild erklärt ihre Arbeit bei Diction.ch. Als Zuschauer erhält man eine Aussenansicht, die Übersetzerin spricht nicht direkt zu mir.

unspecified-3

unspecified-4

(Quelle: Markus Bärtschi, videokom.ch)

… bei Moderation störend

Bei Moderationen verhält es sich anders. Der Moderator muss sich bei der Aufnahme entscheiden, in welche Kamera er schaut. Hat es zwei Kameras gleichzeitig, schaut der Moderator an einer Kamera vorbei.

Das im Einstieg erwähnte Video von Todd Hermann wurde mit zwei Kameras aufgenommen. Beim ersten Bild schaut er mich an, beim zweiten schaut er an mir vorbei. Inhaltlich spricht er im Video aber immer direkt zu mir. Jedes mal wenn er „you“ in der zweiten Einstellung sagt, bin ich irritiert, weil er mich nicht anschaut.

unspecified-5

unspecified-6

Todd Herman

Natürlich springt mir ein solcher Schönheitsfehler wohl schneller ins Auge als den meisten Betrachtern. Aber ich glaube, dass der direkte Blick in die Kamera auch unbewusst mich besser abholt und mehr Vertrauen schafft.

Lieber zweimal als mit zwei Kameras filmen

Meine Empfehlung für dich lautet: Wenn du in deinem Video direkt zum Zuschauer sprichst, nimm es nicht mit zwei Kameras auf. Denn du möchtest eine Verbindung herstellen und Vertrauen aufbauen. Statt zwei Kameras empfehle ich dir, das Video zweimal mit verschiedenen Einstellungen oder gleich mit einer 4K-Kamera aufzunehmen. Die Cadrage kannst du anschliessend in der Postproduktion verändern. Die verschiedenen Schnittmöglichkeiten zeige ich Dir im Blogbeitrag: Die Videoauflösung 4K bringt Vorteile in der Postproduktion.

unspecified-8  unspecified-7

Wie ergeht es dir mit solchen Zwei-Kamera-Aufnahmen? Empfindest du sie ebenfalls als irritierend oder hast du eine andere Sicht auf die Dinge? Es gibt ja schliesslich immer mehrere Einstellungen für jede Thematik!

Facebook YouTube

Copyright © 2017 Judith Steiner Videoproduktion