Moin,
ich weiß nicht, ob diese Frage noch relevant ist:
> Könnte mir jemand näher erklären, was es damit auf sich hat (25i, 25p, 30p,30i...)
Falls ja: "i" steht für "interlaced", d.h. dass das "volle" Bild aus zwei aufeinanderfolgenden "Halbbildern" zusammengesetzt ist, die jeweils die halbe Auflösung haben und zeilenweise abwechselnd Inhalte darstellen. Also nicht so:
Zeitachse ------>
VOLLBILD 1: VOLLBILD 2:
+++++++++ +++++++++
+++++++++ +++++++++
+++++++++ +++++++++
+++++++++ +++++++++
sondern so:
HALBBILD 1:
+++++++++ ------------
------------ +++++++++
+++++++++ ------------
------------ +++++++++
Unser Gehirn macht aus zwei aufeinanderfolgenden Halbbildern wieder ein Vollbild; die Geschwindigkeit, mit der sich die Inhalte ändern können, ist bei interlaced eben halb so hoch. (Oft wird gesagt, das "Auge sei nicht schnell genug", das ist aber natürlich Unsinn, denn unser Auge kann viel schneller Informationen aufnehmen als unser Gehirn diese verarbeitet, geschweige denn dem Bewusstsein/bewussten Sehen zur Verfügung stellt. Manche Menschen "sehen schneller" als andere, so kann ich - wie rund 10% der Bevölkerung auch - z.B. das Flimmern der LEDs bei "modernen" KFZ-Rücklichtern wahrnehmen und fühle mich dadurch massiv irritiert, während die meisten Menschen das Flimmern nicht registrieren. Dabei "sehen" wir nicht wirklich schneller, unser Gehirn leitet nur aus irgendeinem Grund häufiger ein Helligkeitsupdate weiter)
Was heißt das?
Streng genommen ist "interlaced Auflösung" nur die halbe Auflösung - entweder in der Zeilenzahl oder in der Zeitachse. Üblicherweise sagt man dann, dass die "Auflösung" (Zeilenzahl) dieselbe ist wie bei "p" Video, aber nur halb soviele Bilder dargestellt werden. Da man aber beim Verarbeiten aus interlaced meistens "progressive" (dafür steht das "p") Darstellungen macht, stimmt dieser Standpunkt nicht so ganz.
Warum "interlaced"?
Amiga-User kennen das Problem: Will man "hohe Auflösung", flimmert's auf dem Bildschirm. Mit niedriger Auflösung ist das Bild ruhiger, dafür gibt's Klötzchengrafik. Interlaced versus Progressive ist ganz einfach ein technischer "Tradeoff". Der verwendete Bildprozessor (ob nun Wiedergabe oder Aufnahme ist erstmal egal, später mehr dazu) kann eben nur eine bestimmte Anzahl Bildpunkte pro Zeiteinheit verarbeiten. Da der "dumme Käufer" (und nur für den wird ja getrickst) immer auf große Schw... Zahlen steht, setzt man die angebliche Auflösung eben herauf (und versteckt die Tatsache, dass im Ergebnis kein "echtes" flüssiges Video mehr rauskommt, in einen kleinen Apple-mäßigen Buchstaben namens "i". Böse Zungen sagen darum ja auch, dass das "i" immer für "iDiot" steht, egal, um welchen Kontext es sich handelt - aber ich bin ja nicht böse).
Unser „altes“ Fernsehen (PAL 50Hz ist „50i“) war auch interlaced, 25 Vollbilder pro Sekunde sind für eine flüssige Bewegungswahrnehmung auch durchaus ausreichend, durch die 50 Halbbilder konnte man sogar schnellere Bewegungen relativ scharf darstellen.
Der Unterschied zwischen Aufnahme in interlaced und Wiedergabe in interlaced ist aber durchaus bemerkenswert:
Bei der Wiedergabe KANN man aus einem sauberen(!) interlaced Bild natürlich die volle Bildauflösung herausholen. Wenn die Wiederholrate mindestens 50 (also „50i“) ist, ergibt das im Ergebnis 25 Bilder pro Sekunde bei voller Auflösung. Voraussetzung ist, dass das Wiedergabegerät (oder der bearbeitende Cutter) richtig arbeitet. Ich schätze, dass das in einem Drittel der Anwendungsfälle so ist ... (andersrum ausgedrückt: Meistens wird Murks wiedergegeben, entweder halbe Auflösung bei „stabilem“ Bild oder Flimmern). Bei einem „progressive“ Bild ist die volle Auflösung in der angegebenen Bildwiederholrate vorhanden, „50p“ ist also doppelt so „schnell“ (doppelte Auflösung in der Zeitachse) wie unser altes Fernsehsystem.
Bei der Aufnahme gibt es unterschiedliche Standpunkte: Natürlich wäre eine hohe Auflösung bei hoher Aufnahmerate „genial“, das ist aber technisch sehr aufwändig (bei 50p muss ja die doppelte Menge an Daten verarbeitet werden wie bei 50i, ohne, im Vergleich zu „Pal 50Hz“, Vorteil). Ich persönlich stehe auf dem Standpunkt, dass ich, vor die Wahl gestellt, lieber eine höhere Aufnahmerate (bei niedrigerer Auflösung) nehme als anders herum.
Warum?
Ich nehme meistens Bewegung auf. Je mehr Bilder pro Sekunde ich aufnehme, desto schärfer kann ich Bewegung darstellen, es „verwischt“ weniger (natürlich eine entsprechend kurze Belichtungszeit vorausgesetzt, was bei den hier angesprochenen Kameras das Thema nur umso komplexer macht!). Ich möchte „schöne Bewegungen“, Landschaftsaufnahmen mit vielen Details habe ich seltener in Planung.
Aber ...
Wer Flugaufnahmen machen möchte und von vornherein beabsichtigt, das Ergebnis noch durch einen Stabilisierungsprozess zu jagen, kommt um Auflösung nicht herum: Eine gute Bildstabilisierung schluckt gerne mal 10% und mehr Bildinformationen (nämlich außen am Rand). Damit’s keine Klötzchen gibt, lohnt es sich also, mehr „Input“ anzuliefern.
> Soweit ich informiert bin, bezieht sich dies auf die Frequenz des Stromnetzes, so dass im Innenbereich ein Flackern auftreten könnte.
Nein, die Aufnahme- bzw. Wiedergaberate hat primär nichts mit der Frequenz des Stromnetzes zu tun. Allerdings gibt es einen Punkt zu beachten: Will man irgendeine künstliche Lichtquelle filmen (Röhrenfernseher, LED-Beleuchtung etc), sollte man die Bildwiederholrate auf die Frequenz der Stromversorgung einstellen (bzw. ein ganzzahliges Vielfaches wählen), um die bekannten „durchlaufenden Streifen“ auf den abgefilmten Bildschirmen zu vermeiden (die ganz einfach Interferencen sind). (Bei Röhrenfernsehern hat man dann allerdings unter Umständen stehende Streifen, wenn die Frequenzen genau passen )
NTSC ist in sofern immer ein Problem – abgesehen davon, dass die Farbwiedergabe das Schlimmste seit Platons Höhlengleichnis ist („never twice the same color“). NTSC fuhrwerkt nämlich mit einer Bildwiederholrate von etwas weniger als 30 Bildern pro Sekunde herum, was im Ergebnis fast immer und überall zu Timingproblemen (z.B. laufenden Interferenzen) führt.
Kurz: Je höher die Zahl, desto höher die zeitliche Auflösung (schnelle Bewegungen werden „schärfer“, also ohne Wischen, wiedergegeben), je mehr „i“, desto größer die Wahrscheinlichkeit, dass die tatsächliche Auflösung deutlich schlechter als die Hälfte der angegebenen ist (hier lehne ich mich schon aus dem Fenster, wer mehr dazu lesen will: Gerne). Je kleiner die Zahl, desto schneller führt ein „i“ zu stockenden Bildern (weil die Vollbildwiedergabe ja nur die Hälfte der angegebenen Bilder pro Sekunde ausmacht).
Aber: Höhere Bildraten bringen andere Probleme mit sich. Diese haben mit dem zu tun, was das EINZIGE ist, das Foto- und Film-Menschen für wirklich wichtig halten. LICHT. Dazu, in anderem Zusammenhang, gern mehr.