Praxis

2/2013 - Freizeitpädagogik - Freiwillig, Selbstbestimmt, Selbstorganisiert?

Die Formatestadt

Ein potjomkinsches oder ein spanisches Dorf?

AutorIn: Günter Trojan

Zu Zeiten von DV oder VHS (wer kennt das eigentlich noch?) war die Welt noch in Ordnung: Da hatte man eine Kassette in der Hand und wenn das passende Gerät gefunden wurde konnte man das Video auch abspielen. Günter Trojan diskutiert die Geschichte und Gegenwart unterschiedlicher Videoformate ...

1. HD: alles besser – oder was?

HD Segen oder Fluch?

Nachdem die Redaktion der MEDIENIMPULSE mich eingeladen hatte, etwas Praktisches zum Tehma Videoformate zu schreiben – und das in Form einer Glosse – hatte ich den Eindruck, dass die Form nicht ganz richtig wäre; und richtig: überspitzt und polemisch, ja, das ist mein Metier, aber kurz – das kann bei diesem Thema mit verständlichen Informationen nicht angehen!

Während wir also mit den Datenträgern auf Kassette noch mit eher mechanisch sichtbaren Widrigkeiten zu kämpfen hatten, versprach die fortschreitende Digitalisierung eine eminente Verbesserung der Bildqualität mit gleichzeitiger Vereinfachung in der Handhabung.

Versprach ...

Aber sehet selbst:

2. Abspielstätten

Früher war ein VHS Recorder die Abspielstätte für VHS Kassetten; es konnte sein, dass er noch Longplay abspielen konnte, aber das war dann schon alles.

Heute kann eine Abspielstätte nicht nur ein Gerät, sondern auch ein Programm sein. Eigentlich ist es immer ein Programm, aber es ist uns nur am Computer bekannt; in einem Gerät ist Software immer gerätespezifisch. Seit Fernseher auch USB Medien abspielen können, sind auch sie – so wie DVD Player – zu individuellen Abspielstätten geworden.

Abspielstätten sind also nicht nur DVD Player sondern eine Stätte ist DVD Player Modell x, ein anderes DVD Player Modell y; allen gemeinsam ist, dass sie eine DVD abspielen können, aber was sie darüber hinaus können, ist modellabhängig, weil dort ein anderes Programm im Hintergrund werkt.

Der Computer selbst kann ohne Software kein Video abspielen, deswegen ist ein Computer keine Abspielstätte, sondern nur die darauf laufenden Programme.

Um das Gleichnis mit der Stadt der Formate weiterzutreiben, müssen wir uns eine Stadt vorstellen. Es entstehen auch immer wieder neue Stadtteile (oder Dörfer, die eingemeindet werden), und zwar immer dann, wenn ein neues Kompressionsverfahren oder Format auftaucht. Nach und nach verteilt sich das Know how auf den Rest der Gemeinde.

Jedes Haus ist eine Abspielstätte mit Zimmern für die jeweiligen Sachbearbeiter – jeder kann nur ein bestimmtes Format lesen.

Am Eingang steht ein Portier, der bei Eintreffen einer Datei in deren Reisepaß und Nachnamen nachschaut, welcher Sachbearbeiter zuständig ist. Jede Datei hat einen Ausweis, den sogenannten Header, in dem die Eigenschaften der Datei beschrieben sein sollten, der Nachname ist die Endung z. b. mov, mp4, avi ...

Steht da nichts drin, wird es wie im richtigen Leben kompliziert: manche Portiere verweigern den Zugang (obwohl es einen kompetenten Sachbearbeiter gäbe), manche Portiere schauen nur auf den Nachnamen und winken die Besucher durch. Was dann zur Anzeige kommt, ist aber nicht unbedingt vorhersehbar. In anderen Häusern gibt es einen Erkennungsdienst und der Portier verweist die BesucherInnen dorthin. Beim Erkennungsdienst werden die BesucherInnen auf Größe, Geschwindigkeit, Aussehen, ja sogar nach Krankheiten untersucht. Mit diesen Erkenntnissen geht es dann weiter zum Sachbearbeiter, manchmal sogar zum Arzt und dann erst zum Sachbearbeiter oder wieder vor die Tür.

Die Größe der Häuser richtet sich nach seinen Zimmern, somit ist VLC ein Wolkenkratzer, gefolgt von Quicktime Player und Media Player; Alle anderen Player (die kostenlosen) werden durch die großen Häuser der Konvertierungsprogramme überragt. Dann kommen noch die Gemeindebauten der DVD Player und die Mehrfamilienhäuser der Fernseher und Mediaplayer. Kameras sind schon Einfamilienhäuser oder stehen im Schrebergarten.

Die Amtssprache richtet sich nach der Geschwindigkeit der Einwohner; in dieser Stadt sind das 50 Hz, nachdem wir in Europa sind. In manchen Häusern versteht man aber auch Fremdsprachen, sodass es möglich ist in manchen Häusern amerikanische 60 Hz zu zeigen oder sogar Kino-Esperanto mit 24 Hz.

Womit wir schon beim ersten Parameter eines Formates wären, der

3. Framerate

In Europa haben wir – durch die Netzfrequenz vorgegeben – 25 oder 50 Bilder/s

Beim TV wird allerdings in Halbbildern gesendet – es sind zwar 25 volle Bilder, aber es werden 50 Bilder übertragen, wobei jede 2. Zeile fehlt.

Dadurch gibt es gute Bewegungsauflösung und durch die Trägheit des Auges auch recht gute Detailauflösung. Nur im Standbild fällt das Manko auf durch Unschärfe oder Interlacefehler (Kammbildung an den Kanten)

Es gibt neben der Halbbildvariante (interlaced) noch die Vollbildvariante (progressive), die durch HD immer weiter fortschreitet – dabei werden nur ganze Bilder mit 25 oder 50 übertragen

Daraus folgt aber auch, dass Fotoapparate die nur 30 oder 60 Bilder liefern können in Europa für Video ungeeignet sind, weil die damit gemachten Videos entweder sehr aufwändig umgerechnet werden müssen und/oder im schlimmsten Fall immer ruckeln müssen, weil ja jedes 5. Bild weggeworfen werden muß und im Bewegungsablauf fehlt.

3.1. ... Problematik der mobiles ...

Handykameras oder sonstige Actioncams arbeiten noch dazu nicht mit eine fixen Framerate, sondern steuern die Belichtung über die Belichtungszeit, weil bei diesen „Lochkameras“ mit stecknadelkopfgroßer Optik gar keine Blende möglich ist. Von dieser Belichtungszeit ist auch die Framerate abhängig. (hell = mehr Bilder, dunkel weniger pro Sekunde…) diese Frameraten zu konvertieren, das kann schon eine Herausforderung werden; dafür braucht keine Rücksicht darauf genommen werden, dass Bewegungsabläufe ruckelfrei sein sollten – das sind sie meist im Original schon nicht.

3.2. ... Problematik des 25p ...

Es kommt aber noch schlimmer: Viele Videokameras (die meisten) nehmen generell mit 50 p–Bildern auf. Je nach Auswahl der Qualität wird bei p jedes 2. Bild und bei i jede 2. Zeile verworfen.

25p bedeutet dann, dass ein Bild mit einer 1/50 Sekunde Belichtungszeit aufgenommen wurde und dann 2x gezeigt wird. Eine Bewegung sieht dann abgehackt, stroboskopartig aus, weil die typische Bewegungsunschärfe fehlt.

Es wird in diesem Fall auch technisch richtiger von pfs gesprochen.

Insgesamt gibt es für uns also 3 frameraten 25p 50i, 50p, wobei nur 50i und 50p sinnvoll und sicher sind

3.3. ... und wie ist das mit YouTube?

Wer die ersten Gehversuche mit anständigen Schnittprogrammen durchführt, wird beim Anblick von bewegten Bildern ob der verzerrten Kanten verzweifeln und im schlechtesten Fall diverse Filter darüberlegen, um dieses Manko wegzubekommen.

Das liegt daran, dass Computer immer und prinzipiell nur ganze Bilder (also p) anzeigen. Das paart sich noch mit einer geringen Nachleuchtdauer und viel höherer Framerate als bei Video, sodass die 2 Halbbilder gleichzeitig sichtbar werden.

Wer also ein sauberes Bild für Computer haben will muß grundsätzlich progressiv arbeiten.

Nachdem der PC ursprünglich aus den USA kam, gilt dort als mindeste Framerate 60 Hz; zumindest, weil die Frameraten weitgehend willkürlich zwischen 60 und 120 Hz angesiedelt sind.

Nachdem diese Frameraten mit richtigem Video nicht kompatibel sind, können wir nur progressiv arbeiten – und das am besten schon bei der Aufnahme, damit nach dem Hochladen auf YouTube durch die Umrechnung keine unvorhergesehenen Effekte auftreten.

Aber Halt!

Hier können die für richtiges Video ungeeigneten Fotoapparate und Actioncams so richtig punkten. Wenn wir die Aufnahme und Nachbearbeitung auf 30 oder 60 p betreiben und damit leben können, dass das Video wahrscheinlich auf Fernsehern nie richtig darstellbar sein wird, haben wir einen guten Einsatzbereich für diese Geräte gefunden.

Der nächste Parameter ist die Größe der Besucher, die

Auflösung
– die Anzahl der Pixel

Da ist schon viel mehr möglich, aber auch nur weniges sinnvoll – die wenig sinnvollen und amerikanischen lasse ich gleich weg und beschränke mich auf die „guten“

720x576 (SD), 1280x720 (HD oder auch HD ready), 1920x1080 (HD bzw. full HD).

Wer sehen will, was es sonst noch gibt, möge sich folgenden Artikel ansehen: http://de.wikipedia.org/wiki/Videoaufl%C3%B6sung (letzter Zugriff: 20.05.2013)

3.4. ... Problematik HD und „full“ HD ...

Wobei die Bezeichnung bewusst von der Industrie irreführend gewählt ist. Full HD suggeriert die größtmögliche, letztendlich erreichbare Auflösung. Das ist aber falsch. Profis arbeiten schon mit Auflösungen von 4k und 8k (full HD = in etwa 2k)

Alles andere ist PC, amerikanisch oder sonst exotisch, aber jedenfalls nicht Fernsehen in Europa und somit nicht sicher beim Abspielen

Daraus ergeben sich folgende sinnvolle Nomenklaturen:

  • 720x576i =720x576i50 = SD
  • 1280x720p50 = 720p50 = HD ready
  • 1920x1080i = 1920x1080i50 = full HD (per Definition die Obergrenze der Auflösung)
  • 1920x1080p = 1920x1080p50 = full HD (mit Vorbehalt die Obergrenze)

3.5. ... und der Pixelwahn im Allgemeinen ...

Aber damit ist es noch nicht genug.

Nachdem der Markt mit Full HD und 3D einigermaßen gesättigt ist, braucht die Wirtschaft einen neuen Anreiz um neue Systeme an die Kunden zu bringen.

So wie weiland in der Digitalfotografie jede Kamera ein paar Megapixel mehr hatte und Konsumerkameras mit 12 Megapixel keine Seltenheit sind, und die Käufer gelernt haben, dass mehr als 6 Megapixel nur sinnvoll sind, wenn ich für Plakate fotografiere, muß diese Erfahrung der Konsumenten bei Video erst gemacht werden.

In den Startlöchern stehen nämlich schon Kameras mit 4 K und 8K, was eindeutig nur für professionelle Filmaufnahmen für das große Kino sinnvoll ist.

Sehr schön hat Wolfgang Wunderlich in seinen Buch Digitales Fernsehen HDTV / HDV & AVCHD für Ein- und Umsteiger schon in der Einleitung ab Seite 5 die Sinnhaftigkeit von HD für Consumer demonstriert.

Warum außerdem alle Anwender gern in den Pixelwahn verfallen hat auch historische Gründe. In der Vergangenheit zählte das Argument der Reserven sehr viel: Wenn ich ein hochauflösendes Bild aufnehme (damals mit UMatic, SVHS etc.) habe ich die Reserven um eine Generation mehr zu kopieren, ohne dass das Bild zusammenfällt oder extrem unscharf wird.

Das ist aber in der Digitaltechnik irrelevant und unsinnig, weil jede Kopie so gut wie das Original ist.

Die einzige Verschlechterung der Bildqualität entsteht durch Umcodieren!

3.6. ... und die ungewöhnlicheren Pixelzahlen.

Gopro Pixelzahlen und 1440x1080

Actioncam, Handys und sonstige Geräte, die mit der engeren Definition von Video nichts am Hut haben – also bewegtes PC – Bild mit Ton erzeugen. Dabei sind Pixelverhältnisse von 1440 x 1280 durchaus noch eine Norm, aber die 1280x 960 einer GoPro nicht mehr.

Was dabei vor allenm auffällt, ist, dass das Seitenverhältnis, das durch die Pixelanzahl gegeben ist, nicht mehr mit 16:9 gleichgesetzt werden kann.

Es gibt also noch einen Parameter der Darstellung, das

4. Seitenverhältnis ...

Das Seitenverhältnis eines Videos ist zwar kein Wert, der eine Präsentation unmöglich macht, wird aber doch meist etwas unterschätzt. Ein falsches Seitenverhältnis äußert sich dadurch, dass Menschen sehr schlank oder sehr dick dargestellt werden; ein anderer Fehler ist, dass das Bild von schwarzen Balken (seitlich oben, unten oder rundherum) begrenzt wird; oder eine Kombination aus beiden Fehlern.

Grundsätzlich gibt es bei Video nur 2 Bildformate: 4:3 und 16:9.

4.1. ... Letterbox ...

Es gab aber schon immer die Notwendigkeit ein Bildformat ins andere überzuführen.

Früher hatte Video immer 4:3, alte (Röhren)Fernseher sind immer 4:3.
Jetzt ist der Produktionsstandard generell 16:9 und auch neue Fernseher sind immer 16:9.
Film hatte immer schon andere Bildformate als 4:3, die auch auf normalen Fernsehern dargestellt werden mußten. Nachdem die Bilder immer breiter waren, wurden immer oben und unten schwarze Balken gezeigt.

Dieses Aussehen wird als letterboxed (oder landläufig nur als Letterbox) bezeichnet. Wenn also ein 16:9 Video auf einem alten Fernseher gezeigt werden soll muß es so dargestellt werden. Die Frage ist nur, ab der Fernseher den Unterschied zwischen 4:3 und 16:9 schon kennt und er von sich aus die Balken erstellen kann oder nicht. Kann er es nicht – und davon müssen wir ausgehen – muß ein 4:3 Video mit schwarzen Balken erstellt werden. Der Nachteil ist, dass in diesem Fall jede 5. Zeile einfach weggeschmissen wird und 20 % unserer kostbaren Pixel mit schwarz gefüllt sind.

Das ist extreme Datenverschwendung; aber es gibt auch eine gute Nachricht:
nachdem im Normalfall ein DVD Player das Video wiedergibt und jeder DVD Player den Unterschied kennt, können wir die Umschaltung und das Einfügen der Balken dem Player überlassen. Voraussetzung ist natürlich, dass
a) das Video korrekt kodiert ist und somit der DVD Player das Bildformat auch wirklich erkennt, und
b) der DVD Player gesagt bekam, dass ein 4:3 Fernseher angeschlossen ist – der weiß das von selber sicher nicht bei diesen alten Geräten.

4.2. ... Pillarbox ...

Umgekehrt gibt es viele alte Aufnahmen auf 4:3, die auf einem aktuellen Bildschirm wiedergegeben werden wollen. Damit das Bild nicht einfach in die Breite gezogen wird, müssen hier wieder schwarze Balken eingefügt werden – aber jetzt rechts und links.
Dazu gibt es 2 Möglichkeiten:
a) Wir erstellen ein 16:9 Video und fügen die Balken ein. Das ist zwar auch Datenverschwendung, aber nicht so schlimm, weil es nicht auf Kosten der sichtbaren Auflösung geht – nur die Datei wird unnötig größer.
b) Wir kodieren richtig in 4:3 und die Abspielstätte erkennt es und fügt gegebenenfalls (z. B. auf einem Fernseher) die Balken ein

Die 3. Möglichkeit ist die Kombination aus beiden und ein nicht seltener Fehler!
Da entsteht dann ein 16:9 Bild mit einem schwarzen Rand rundherum…

4.3. ... und Pixelseitenverhältnis ...

Das ist ja doch ganz einfach. Das Seitenverhältnis definiert sich doch durch das Verhältnis der Pixel horizontal und vertikal.

Also 4:3 sollte dasselbe Verhältnis haben wie 720:576.

Wenn wir aber nachrechnen ergibt 4:3=1,33, aber: 720:576=1,25

Da stimmt offensichtlich etwas nicht!

Jetzt wird manch geneigte LeserIn anmerken, dass 720x576 doch 16:9 ist.

Rechnen wir: 16:9=1,78 – stimmt also auch nicht!

Bei 16:9= 1,78 und 1920:1080= 1,78 geht sich die Rechnung aber aus.

Das ist der Hinweis auf einen weiteren Parameter, das Pixelseitenverhältnis.

In der „guten alten Zeit“ sprachen wir von Zeilen oder Linien oder Bildpunkten. Allen war gemeinsam, dass idealtypisch Zeilen und Linien eine Breite hatte, die gegen 0 ging, also je schärfer die Darstellung, desto schmäler konnten die Linien oder Punkte dargestellt werden. Theoretisch gesehen hat ein Punkt ja keine Abmessungen sondern ist unendlich klein.

In der Digitaltechnik sprechen wir von Pixel (zusammengesetzt aus Picture Element) und die sind nicht mehr punktförmig! Deswegen können auch Pixel – Seitenverhältnisse definiert werden.

4.4. ... quadratisch und rechteckig ...

Quadratische Pixel entsprechen am ehesten den früheren Bildpunkten, weil auch sie gleiche horizontale und vertikale Abmessungen hatten. In der Standardauflösung, wie wir sie von DV oder DVD kennen, gibt es aber – wie wir gerade errechnet haben – keine quadratischen Pixel – weder in 4:3 noch in 16:9. Das kommt daher, dass ein digitaler Standard gesucht wurde, der ein Umrechnen von amerikanisch nach „Rest der Welt“ ermöglicht. Deswegen (aber nicht nur – aber das wäre eine andere Geschichte) sind auch die 625 Zeilen der alten TV Norm zu 576 mutiert.

Das erklärt aber noch nicht, wieso die horizontale Auflösung nicht mit 1024 oder 768 festgelegt wurde – aber das ist auch eine andere Geschichte…

Fest steht jedenfalls, dass bei SD immer rechteckige Pixel, bei HD meistens quadratische Pixel zur Anwendung kommen.

Quadratische Pixel haben auch für die Standbildbearbeitung einen Vorteil, weil Fotobearbeitung natürlich auch immer mit Quadrapixel arbeitet. Wenn das Videomaterial dann auch noch progressiv ist, ist alles gut.

Grundsätzlich geht HD zwar mit quadratischen Pixeln Hand in Hand, aber es gibt natürlich auch da wieder Ausnahmen, die die Regel bestätigen.

4.5. ... anamorphotisch ...

Es gibt so wie bei SD auch bei HD anamorphotische Formate. Anamorph ist jetzt keine Erfindung der Digitaltechnik, sondern bezeichnet in diesem Zusammenhang eine zylindrische Linse und wurde schon in der Kinotechnik verwendet. Dort sind die Bilder auf dem 35mm Film immer gleich groß, auf der Leinwand je nach Format im Verhältnis bis zu 1:2,1. Das wird nur dadurch erzielt, dass in der Projektion (und vorher natürlich auch in der Aufnahme) eine zylindrische Linse zuerst das Bild horizontal gestaucht und in der Projektion wieder horizontal gedehnt hat.

Es werden also nur die horizontalen Abmessungen anders interpretiert.

Das fällt aber nicht weiter auf, das Bild wird dadurch nicht wirklich unschärfer.

4.6. ... also wie jetzt – 16:9 oder 4:3 oder was?

Nehmen wir als Beispiel DV.

DV hat 720x576 rechteckige Pixel.

Diese können als 4:3 Bild oder als 16:9 Bild interpretiert werden. Diese Information steckt kodiert in der Videodatei. Nicht alle Sachbearbeiter können diese Information lesen, manche Codecs lassen auch per Definition nur quadratische Pixel zu, sodass daraus 768 oder 1024x576 Pixel werden müssen.

Dieselbe Situation gibt es bei HD mit 1440x1080. Das ist von der Pixelzahl her 4:3, wird aber meistens anamorphotisch 16:9 verwendet um Full HD zu erzeugen (die horizontale Auflösung ist zwar nicht full, aber wen kümmert das schon ...).

Seltener, aber doch, gibt es 960x720 (z. B. bei der GoPro)

Es gibt also in jeder Auflösungsklasse immer ein anamorphotisches Format.

Ob der Bildinhalt jetzt 4:3 oder 16:9 ist, ist idealerweise richtig mitkodiert, ausgehen können wir davon nicht – auch nicht dass die Kodierung stimmt. In Wahrheit müssen wir uns den Bildinhalt genau ansehen, um die richtige Interpretation zu finden. Oder andersherum: jede exportierte Datei muß in der Abspielstätte getestet werden, für die sie erstellt wurde …

Eine weitere Größe der Besucher ist deren Gewicht, das sich in der Datenrate niederschlägt.

4.7. Datenraten

Die Datenrate ist meistens kein Grund, dass eine Datei vom Portier abgewiesen wird. Viel öfter sind die Sachbearbeiter aber überfordert, sodass das Bild ruckelt oder stockt; nur selten ist es der Portier, der zu hohe Datenraten von vornherein abweist.

Die Rohdaten bewegen sich im Bereich von 270Mbit/s bis 1,485Gbit/s – je nach Auflösung; das ist das professionelle SDI Signal, bzw. das was nach dem Kamerachip an Daten vorliegt und komprimiert werden muß.

  • Die 270 Mbit/s werden bei DV auf 25 Mbit/s komprimiert. Diese Datenrate ist eine konstante.
  • Alle anderen Datenraten sind variabel, d. h. je höher desto besser.
  • Eine DVD hat eine maximal übertragbare Datenrate von 10 Mbit/s per Definition, deswegen dürfen wir nicht mehr als 8 Mbit/s für das Bild rechnen.
  • Bei full HD werden die 1,485 Gbit/s bei der Aufnahme in der Kamera auf 5 bis 24 Mbit/s (je nach Qualitätsanspruch) komprimiert.
  • Beim Schnitt werden die stark komprimierten Daten in ein leicht bearbeitbares Format von ca. 100Mbit/s umcodiert (Prores, mpg2).
  • Die weiteste Verbreitung hat neben der DVD mpg4 mit Datenraten von einigen Kbit/s für Web bis ungefähr 5Mbit/s für gute Volldarstellung

Das waren jetzt die Bildformate. Wir haben es in der Realität noch mit Dateiformat und Codec zu tun – das ist das, was sich der Portier in erster Linie ansieht und dann einläßt oder abweist.

5. Dateiformate

(Der Familienname)

Das ist das, was auch wir an der Endung erkennen können.

Jetzt müssen wir allerdings zwischen den Einsatzgebieten unterscheiden: Aufnahme, Bearbeitung und Distribution

5.1. Aufnahmeformate

sind stark komprimiert (Speicherplatz) und so optimiert, dass sie leicht zu komprimieren sind. Z. b. mts, m2t, mkv, mpg, mov, (avi) ...

5.2. Bearbeitungsformate

Für den Schnitt. Treten immer mehr in den Hintergrund und werden eher professionell benötigt z. B. mov, avi, mpg.

5.3. Distributionsformate

Das, was in der Abspielstätte tatsächlich zur Vorführung kommt

Mp4, flv, mov, avi, mpg, mp2, (avi), wmv ...

Interessant ist, dass mov und avi überall vorkommt. Aber Achtung, mov und avi sind Container, wo alles Mögliche drin sein kann, zu Zeiten von DV ist allerdings avi immer mit Microsoft DV verbunden gewesen, was bedeutet, dass die Dateien überall verwendet werden konnten.

Mov (Quicktime) ist allerdings auch ein eigener Codec, der je nach Anwendungsfall verschieden sein konnte Web, Aufnahme ...

Heute ist mov ein Container – genauso wie avi mit vielen möglichen Codecs:

diese Endungen beschreiben wie gesagt nur die Kiste (Container genannt), in der die Seiten mit den Daten transportiert werden. Wie die Seiten geordnet, in welchen Ordnerhüllen mit welchen Trennblätter sie versehen werden, das bestimmt der

5.4. Codec

(Der Vorname)

Kurzform für Encoder/Decoder. Dient der Datenreduktion

Der Einfachheit halber werde ich sie nur in Codecfamilien einteilen; für Genaueres empfehle ich das sehr übersichtliche und ausführliche Buch Video-Codecs. Zum kurzen Reinschauen:
http://www.amazon.de/Video-Codecs-Ralf-Biebeler/dp/3794907736#reader_3794907736 (letzter Zugriff: 20.05.2013)

5.5. DV

der einzige Codec, der für alle Anforderungen gleich ist, ist DV; er ist immer SD.

Kommt vor als Apple DV in mov, als Microsoft DV in avi

5.6. H264

Kommt vor als AVCHD in mts, m2t und in mov, avi, flv, und hauptsächlich mp4.

Für Aufnahme und Distribution – auch Blue-Ray verwendet ihn

5.7. Mpeg2

Mxf, vob (DVD) mp2, mpg, …
Selten als Aufnahmecodec (JVC Kameras!) aber DER Distributionscodec, der überall läuft, weil er schon so alt ist. Wird in seinen Möglichkeiten immer unterschätzt, er kann nur nicht so gut komprimieren wie h264, ansonsten werden alle Formate unterstützt.

6. Standards

Was sind nun die Video-Standards für Aufnahmen und Schnitt?

6.1. Aufnahme

720p50 für HD

Obwohl kein wirklicher Standard existiert, weil je nach Anwendungsfall eine andere Einstellung notwendig ist, ist dieses Format für mehrere Aufgaben gut:

1280x720 ist schon HD und gute Auflösung; die 1920x1080 sind nur im direkten Vergleich besser. Außerdem gibt es immer wieder Probleme mit der Konvertierung der Halbbilder bei 1080i50, was den geringen Vorteil der Auflösung wieder wettmacht.

P50 ist durch Vollbilder einerseits für alle Computerdarstellungen und somit für Youtube und Co. gut geeignet, ebenso für eventuellen Chromakey. 50 Bilder geben gute Bewegungsauflösung und mit etwas Nachbearbeitung gibt es eine echte Zeitlupe wenn notwendig.

DV (576i50) für DVD

Nachdem DVD nur SD ist, reicht dies für ein DVD. Falls auch Youtube damit bedient wird, ist es auch kein Beinbruch, dass es bei Fullscreen Darstellung etwas unscharf wird.

Ein weiteres wichtiges Argument für die Verwendung von SD bei Aufnahme und Schnitt für die Erstellung von DVDs ist die Farbtreue: HD arbeitet in einem anderen Farbraum, da mehr Abstufungen für Farbe und Helligkeit möglich sind. Wenn ich nun umfangreiche Farbkorrekturen vorgenommen habe, werden mir nach der Konvertierung zu DVD möglicherweise die Tränen kommen, weil alles ganz anders aussieht ... Es gibt mit unseren Mitteln keine Möglichkeit bei einem Schnitt mit HD Material die Ausgabe auf SD richtig anzuzeigen!

6.2. Schnitt

Da muß das Format immer dem Rohmaterial entsprechen. Ein Formatwandel ist immer mit großen Einbußen in der Bildqualität verbunden. Einzig der Codec ist ein anderer, damit die Anzeige auf einem externen Monitor möglich wird.

Bei Apple ist das Prores 422 (LT oder ohne Endung) oder Apple intermediate Codec, wenn wir etwas Speicherplatz sparen wollen. Das geht aber nicht mehr bei Final Cut X, da ist es fix eingestellt Prores.

Bei Premiere ist es mpg2, aber ist nur notwendig, wenn wir das Video auf einem externen, wirklichen Monitor begutachten wollen. Ansonsten ist Premiere schon so mächtig, dass es die Timeline nativ in den Originalformaten anlegen kann.

7. Distribution

7.1. DVD

Das ist immer noch der Standard, wenn das Video auf einem Fernseher wiedergegeben werden soll. Für HD wäre es Blueray, aber wir können nur mit Sicherheit sagen, dass jeder einen DVD Player hat.

7.2. Mpg4

Alle Mediaplayer, neue Browser und VLC, wenn sonst nichts geht, spielen mpg4 ab.

Auch die geeignete Wahl als Upload für Youtube und Co.

Als Datenrate gilt: je mehr desto besser, die Erfahrung zeigt aber, dass alles ab 5 Mbit/s gut ist.

8. Conclusio

Abspielstätten sind nicht nur Orte sondern Geräte und Programme.
Wer nun glaubt, dass es am besten ist 1920×1080 aufzunehmen und dann in das jeweilig benötigte Format zu konvertieren, der irrt! HD und SD verwenden unterschiedliche Farb– und Helligkeitsabstufungen, wodurch eine Konversion von HD nach SD unvorhersehbare Effekte bei Kontrast und Helligkeit hervorrufen können. Wer also viel Zeit in Farbgebung und Lichtsetzung bzw. Color Grading investiert hat, kann nicht davon ausgehen, dass das auf einer DVD den gewünschten Effekt hat – es ist auch beim Schnitt nicht simulierbar.

Es ist also unabdingbar, sich – auch von der Technik her – schon vor Beginn der Aufnahme über die Abspielstätten Gedanken zu machen!

Als universelle Distributionsformel würde ich mp4 empfehlen – das ist gut komprimiert und kann zumindest mit VLC auf jedem Rechner geöffnet werden. Was überhaupt nicht geht ist wmv, das geht (so wie avi) auf keinem Mac.

9. Gute Konverter:

  • Mpg Streamclip: kostenlos, für Mac und PCs, benötigt Quicktime pro oder alternatives qt
    http://www.squared5.com/ (letzter Zugriff: 20.05.2013)
  • Adobe Media Encoder: teuer, schnell, übersichtlich, bei Premiere (1000eur) dabei, gut im Frameraten konvertieren (so wie Premiere auch) http://www.adobe.com/at/products/mediaencoder.html (letzter Zugriff: 20.05.2013)
  • Compressor: nicht mehr teuer (45eur), langsam unübersichtlich, kann gut mit Final Cut, gut im de-interlacen, für das Geld top. http://www.apple.com/at/finalcutpro/compressor/ (letzter Zugriff: 20.05.2013)
  • Clipwrap: billig (10$), für Mac, von .mts o.ä. auf Quicktime oder mp4; unter Win nicht notwendig, weil .mts schon vom Betriebssystem gelesen werden kann. http://www.divergentmedia.com/clipwrap (letzter Zugriff: 20.05.2013)
  • Procoder 3: teuer (400eur), universell am PC http://www.filmpraxis.de/produkte/procoder.php (letzter Zugriff: 20.05.2013)
  • VLC: kostenlos, für Mac und PC, ist als ultimative Abspielstätte eher bekannt. Die Konvertierungsfähigkeiten sind eher beschränkt, aber brauchbar, wenn die Datei mit sonst nichts mehr zu öffnen geht.
    http://www.videolan.org/vlc/ (letzter Zugriff: 20.05.2013)
  • Toast: mäßig teuer (100eur), nur für Mac, war ursprünglich das ultimative Brennprogramm, jetzt kann Toast auch alle Internetformate konvertieren. Aber Vorsicht! Es gibt immer wieder Versionen, die mit Halbbildern überhaupt nicht umgehen können und diese verkehrt zusammensetzen. Aber solange wir progressiv arbeiten, ist alles gut. Ansonsten die eierlegende Wollmilchsau.
    http://www.roxio.de/deu/products/toast/titanium/overview.html?source=G2de (letzter Zugriff: 20.05.2013)

10. Literatur und weiterführende Links

Ralf Biberler. Videocodecs. Schiele&Schön. 2011

Wolfgang Wunderlich,  Digitales Fernsehen HDTV / HDV & AVCHD für Ein– und Umsteiger. Auberge-tv Verlag. Das Buch (Stand 2012) ist unter http://www.lulu.com/shop/dr-ing-wolfgang-wunderlich/digitales-fernsehen-hdtv-hdv-avchd-für-ein-und-umsteiger/paperback/product-21008418.html oder aktueller als pdf, das direkt unter info@auberge-tv.de erhältlich.

http://www.paradiso-design.net/videostandards.html (letzter Zugriff: 20.05.2013)
Wie ist ein mpg2 Signal aufgebaut, wie funktioniert die Umrechnung zwischen PAL und NTSC und Film, Rechner für die exakte Länge nach Umrechnung…

Tags