Vor etwa drei Jahren hatte ich mal ein tolles Erlebnis. Beim Nuri-Flug eines Flugkameraden klinkte ich mich mit meiner Zeiss Oled in die Übertragung mit ein. Er flog, nun ja, sagen wir mal, ganz ungewollt, (durch) / in eine Wolke. In der Wolke war nicht nur das Bild weg, (Wolke eben), es war auch kein Videosignal da (keine OSD-Anzeige). Als er nun wieder nach unten aus der Wolke rausschoss, war das Bild erst mal schwarz-weiss, nach gefühlten 2 Sekunden wieder in Farbe.
DOOOOCH---> das SW Bild sah gestochen scharf aus wie ein Foto, das normale Farb-Bild dagegen, naja, eben "normal", gegenüber dem SW aber richtig schei.....
Ich habe schon einige befragt, eine überzeugende Antwort aber noch nicht erhalten.
Variante 1
---> beim SW Bild stehen für die Bildauflösung bei Pal mehr Pixel , drei mal so viele als eben R G und B Pixel beim Farb-Bild zur verfügung.
Ja aber wie geht denn das??? Bullshit(?)!!, wir haben doch sowohl in der Cam als auch im Monitor nur RGB-Pixel, und nicht das einzelne SW-Pixelchen!!! Es werden alle drei Pixel für Schwarz oder Weiss benötigt. Also gibt es doch (eigentlich) dadurch nicht mehr Detaildarstellungsmöglichkeit!!!
Variante 2
---> In unserem Auge haben wir die Fähigkeit der Stäbchen / unseres Gehirnskastens, ein SW-Bild scheinbar besser (schärfer???) zu erkennen. (als mit den Zapfen?, die erst eine "Bildverarbeitung" benötigen?)
Ich zitiere mal aus dem Netz, Planet-wissen.de:
Stäbchen: Sie reagieren auf alle Farben etwa gleich und erfassen so unfarbige Helligkeitseindrücke. Würden wir nur mit ihnen sehen, erschiene uns die Welt schwarzweiß. Die andere Rezeptorenart ist für unser Farbsehen zuständig. Sie nennt man Zapfen. Von diesen gibt es drei verschiedene Arten, die für unterschiedliche Farbbereiche empfindlich sind, für Rot, Blau und Grün. Im Gehirn werden dann die drei Farbbereiche sowie die entsprechenden Helligkeitseindrücke zusammengeführt - wir sehen bunt. Solange es heller Tag ist, arbeiten Zapfen und Stäbchen zusammen. Mit abnehmenden Licht und Beginn der Dämmerung, übernehmen immer mehr die Stäbchen das Sehen. Im Dunkel der Nacht sind dann allein die Stäbchen aktiv.
Farbe ist nicht einfach da. Sie entsteht nur in dem Moment des Sehens. Unsere Wahrnehmung der Farbe besteht aus der Zusammenarbeit zwischen Augen und Gehirn. Unser Gehirn empfängt und verarbeitet die Licht- und Helligkeitsimpulse nach einem hochkomplizierten Ordnungssystem, besser als jeder Computer der Welt. Jeder Moment unseres Sehens wird ununterbrochen neu verarbeitet und interpretiert. So können wir Farbe wahrnehmen. Das System der Wahrnehmung ist so kompliziert, dass es bis heute niemand genau erklären kann.
Nuuun???? warum ist das SW-Bild bei einer Sony besser????
mehr Pixel?, Mehr SW-Stäbchen im Auge? Oder alles nur Einbildung?? Weil eben das Gehirn keine Farbe verarbeiten muss??
DOOOOCH---> das SW Bild sah gestochen scharf aus wie ein Foto, das normale Farb-Bild dagegen, naja, eben "normal", gegenüber dem SW aber richtig schei.....
Ich habe schon einige befragt, eine überzeugende Antwort aber noch nicht erhalten.
Variante 1
---> beim SW Bild stehen für die Bildauflösung bei Pal mehr Pixel , drei mal so viele als eben R G und B Pixel beim Farb-Bild zur verfügung.
Ja aber wie geht denn das??? Bullshit(?)!!, wir haben doch sowohl in der Cam als auch im Monitor nur RGB-Pixel, und nicht das einzelne SW-Pixelchen!!! Es werden alle drei Pixel für Schwarz oder Weiss benötigt. Also gibt es doch (eigentlich) dadurch nicht mehr Detaildarstellungsmöglichkeit!!!
Variante 2
---> In unserem Auge haben wir die Fähigkeit der Stäbchen / unseres Gehirnskastens, ein SW-Bild scheinbar besser (schärfer???) zu erkennen. (als mit den Zapfen?, die erst eine "Bildverarbeitung" benötigen?)
Ich zitiere mal aus dem Netz, Planet-wissen.de:
Stäbchen: Sie reagieren auf alle Farben etwa gleich und erfassen so unfarbige Helligkeitseindrücke. Würden wir nur mit ihnen sehen, erschiene uns die Welt schwarzweiß. Die andere Rezeptorenart ist für unser Farbsehen zuständig. Sie nennt man Zapfen. Von diesen gibt es drei verschiedene Arten, die für unterschiedliche Farbbereiche empfindlich sind, für Rot, Blau und Grün. Im Gehirn werden dann die drei Farbbereiche sowie die entsprechenden Helligkeitseindrücke zusammengeführt - wir sehen bunt. Solange es heller Tag ist, arbeiten Zapfen und Stäbchen zusammen. Mit abnehmenden Licht und Beginn der Dämmerung, übernehmen immer mehr die Stäbchen das Sehen. Im Dunkel der Nacht sind dann allein die Stäbchen aktiv.
Farbe ist nicht einfach da. Sie entsteht nur in dem Moment des Sehens. Unsere Wahrnehmung der Farbe besteht aus der Zusammenarbeit zwischen Augen und Gehirn. Unser Gehirn empfängt und verarbeitet die Licht- und Helligkeitsimpulse nach einem hochkomplizierten Ordnungssystem, besser als jeder Computer der Welt. Jeder Moment unseres Sehens wird ununterbrochen neu verarbeitet und interpretiert. So können wir Farbe wahrnehmen. Das System der Wahrnehmung ist so kompliziert, dass es bis heute niemand genau erklären kann.
Nuuun???? warum ist das SW-Bild bei einer Sony besser????
mehr Pixel?, Mehr SW-Stäbchen im Auge? Oder alles nur Einbildung?? Weil eben das Gehirn keine Farbe verarbeiten muss??