Huhu,
ich bin ein Neueinsteiger und meine FPV-Flugstunden belaufen sich bisher noch auf 0,0, da ich bisher das Equipment dafür noch nicht zusammen habe.
Von der FatShark Base SD die ich bisher habe bin ich etwas entäuscht, das FOV ist ja nicht so das wahre und die chromatische Aberration der Plastiklinsen gerade zu den Rändern hin ist ja doch ziemlich extrem...
Habe mich deshalb man drangesetzt und ein kleines Tool gerschrieben, welches es erlaubt die Ocolus Rift (VR-Brille mit 140° FOV, Stereo und deutlich höherer Auflösung) als FPV-Videobrille zu verwenden. Mangels Rift und sonstigem Equipment (Sender, Empfänger, Videokamera) hatte ich jedoch noch nicht die Chance es "live" zu testen. Wollte euch trozdem mal einen Screenshot und das Tool zeigen und fragen was ihr davon haltet.
Laut Erfahrungsberichten soll ja die Immersion bei der Rift sehr stark sein. Wäre toll wenn man das auch beim FPV-Flug hinkriegt!
Hier ein Screenshot:
Ich benutze aktuell meine Webcam als Caputure Device, es sollte aber auch jede USB-TV Karte o.Ä. gehen. Die Anwendung läuft mit der Webcam ohne merkliche Verzögerung. Die Frames werden vom USB gelesen und direkt auf die Grafikkarte gestreamt. Die Transformationen für die Rift hab ich als OpenGL Fragmentshader umgesetzt um möglich hohe Ausführungsgeschwindigkeit zu haben. Praktisch ist die Verzögerung im Worstcase. so 50ms. Die Kamera nimmt mit 50fps auf (alle 20 msec ein Frame) sendet diese über USB 2.0 (max. 2 msec) und die Grafikkarte arbeitet mit 50hz Richtung Monitor (max. 20 msec).
Wer es selber mal ausprobieren möchte hier:http://lab.neosolve.de/RemoteEyes/RemoteEyes.zip
Das ganze ist noch sehr buggy und erkennt noch nicht das Videoformat das vom Capturedevice kommt. Es wird einfach mal 640x480 angenommen und BGR Bytefolge für die Farben. Das senden jedoch auch viele Webcams / Capturekarten. Es werden eben die rohen Bytedaten interpretiert und keine unötige Transformation auf der CPU o.Ä. durchgeführt.
Das ganze Ding läuft mit OpenGL und ist Cross-Platform kompilierbar (Linux, Windows). Man könnte das DIng also später z.B. mal auf nem RaspberryPI oder auf irgend so nem China ARM-Stick ausführen. Da die ganzen Transfomrationen auf der GPU per Fragmentshader passieren läuft das auch darauf.
Naja TL;DR ich hoffe Jemand kann damit was anfangen und würde mich über Eure Meinung freuen!
Edit: Bei dem Tool könnt ihr mit "f" in den Vollbildmodus gehen und mit ESC beenden. In meinem Blog steht nochmal genauer wie das Tool funktioniert falls das Jemand interessiert: http://www.spacefish.biz/blog/2013/04/ocolus-rift-fpv/
ich bin ein Neueinsteiger und meine FPV-Flugstunden belaufen sich bisher noch auf 0,0, da ich bisher das Equipment dafür noch nicht zusammen habe.
Von der FatShark Base SD die ich bisher habe bin ich etwas entäuscht, das FOV ist ja nicht so das wahre und die chromatische Aberration der Plastiklinsen gerade zu den Rändern hin ist ja doch ziemlich extrem...
Habe mich deshalb man drangesetzt und ein kleines Tool gerschrieben, welches es erlaubt die Ocolus Rift (VR-Brille mit 140° FOV, Stereo und deutlich höherer Auflösung) als FPV-Videobrille zu verwenden. Mangels Rift und sonstigem Equipment (Sender, Empfänger, Videokamera) hatte ich jedoch noch nicht die Chance es "live" zu testen. Wollte euch trozdem mal einen Screenshot und das Tool zeigen und fragen was ihr davon haltet.
Laut Erfahrungsberichten soll ja die Immersion bei der Rift sehr stark sein. Wäre toll wenn man das auch beim FPV-Flug hinkriegt!
Hier ein Screenshot:
Ich benutze aktuell meine Webcam als Caputure Device, es sollte aber auch jede USB-TV Karte o.Ä. gehen. Die Anwendung läuft mit der Webcam ohne merkliche Verzögerung. Die Frames werden vom USB gelesen und direkt auf die Grafikkarte gestreamt. Die Transformationen für die Rift hab ich als OpenGL Fragmentshader umgesetzt um möglich hohe Ausführungsgeschwindigkeit zu haben. Praktisch ist die Verzögerung im Worstcase. so 50ms. Die Kamera nimmt mit 50fps auf (alle 20 msec ein Frame) sendet diese über USB 2.0 (max. 2 msec) und die Grafikkarte arbeitet mit 50hz Richtung Monitor (max. 20 msec).
Wer es selber mal ausprobieren möchte hier:http://lab.neosolve.de/RemoteEyes/RemoteEyes.zip
Das ganze ist noch sehr buggy und erkennt noch nicht das Videoformat das vom Capturedevice kommt. Es wird einfach mal 640x480 angenommen und BGR Bytefolge für die Farben. Das senden jedoch auch viele Webcams / Capturekarten. Es werden eben die rohen Bytedaten interpretiert und keine unötige Transformation auf der CPU o.Ä. durchgeführt.
Das ganze Ding läuft mit OpenGL und ist Cross-Platform kompilierbar (Linux, Windows). Man könnte das DIng also später z.B. mal auf nem RaspberryPI oder auf irgend so nem China ARM-Stick ausführen. Da die ganzen Transfomrationen auf der GPU per Fragmentshader passieren läuft das auch darauf.
Naja TL;DR ich hoffe Jemand kann damit was anfangen und würde mich über Eure Meinung freuen!
Edit: Bei dem Tool könnt ihr mit "f" in den Vollbildmodus gehen und mit ESC beenden. In meinem Blog steht nochmal genauer wie das Tool funktioniert falls das Jemand interessiert: http://www.spacefish.biz/blog/2013/04/ocolus-rift-fpv/