Moin
Zuerst einmal folgende Worte: Mir ist bekannt, das man in Deutschland nichts autonom fliegen lassen darf, bzw irgendwelche selbstfliegenden Drohnen, welche sich komplett selbst steuern in Betrieb nehmen darf. Die Testflüge des Projektes finden natürlich immer über abgesperrtem und freigegebenen Luftraum statt, sowie immer mit menschlicher Möglichkeit des Eingreifens.
Plane im Moment eine autonome Drohne, welche Waypoints abfliegen soll. Sich dabei völlig autonom an der Umgebung orientieren kann (zb auf Hindernisse, wie Bäumen, Häusern und Strommasten reagieren) und natürlich alles live zur Bodenstation funkt. GPS Position, Daten wie Höhe, Temperatur, Luftdruck und natürlich ein Live Bild, was die Drohne sieht. Dabei will ich das Rad nicht neu erfinden, sondern bekannte Komponenten benutzen. Das Ganze ist fuer mich eher die Herausforderung des Codes und der Umsetzung.
Es geht mir dabei eigentlich nur um die Funktion der autonomen Navigation und das Reagieren auf Hindernisse, Wetterverhältnisse und Co.
Da es ja atm viele coole Dinge diesbezüglich schon zu kaufen gibt, muss ich da nix neu erfinden.
Und da ich Elektroniker bin, habe ich schon viel gebastelt, aber das reizt mich total, sowas mal umzusetzen.
Ich möchte dabei mehr über die Verfahrensweise der Navigation, der Messwertermittlung, Verarbeitung der ganzen Werte und letztendlich natürlich die daraus resultierende Steuerung der Drohne mit Open Source Code realisieren.
Ich möchte hier mit euch darueber diskutieren, was rechtlich möglich - oder eben nicht möglich ist, wie man das Projekt verbessern, programmieren und natürlich bauen kann.
Ich hoffe, das die Interessierten und natürlich jene, welche was dazu beitragen können, mir dabei helfen das Ganze zur Realität werden zu lassen.
Folgende Komponenten habe ich mir bisher als Hardware ausgesucht:
CPU: ArduPilotMega
Rahmen: selbstgebauter Quadrahmen im Copterstyle (ich weiss, über die Zuverlässigkeit von mehr Motoren, wegen Ausfall und so, aber es reichen 4 Motoren zum Testen)
Navigation: GPS, Sonar (evtl auch Radar), Altitude vom GPS und externem Sensor in Verbindung mit den Codeteilen vom Mega, Evtl Kamera, wobei das bestimmt sehr aufwendig ist, das zu processen und auszuwerten) und natürlich neue, andere Möglichkeiten der Umgebungsauswertung, wie zb Kinect (Danke Mista)
Messwerte: Mega (GPS und co) und externe I²C oder Seriell
Telemetrie: Xbee
Live Video: irgend ne bekannte FPV Lösung, gerne auch mit Tracker - aber das ist nicht soooo wichtig dabei
Software:
Code vom Mega, als Interface am PC dann was selbtgebautes, oder eben vom Mega modifiziert. Einbindung der Sensoren und natürlich Auswertung und Aufzeichnung derselben an der Bodenstation.
Soweit bin ich bisher - und hätte gerne mal eure Meinungen dazu. Ich weiss, das sowas sicherlich nicht sooo schwer zu "kaufen" ist, aber mir gehts um die autonome Navigation. Und eben der Code "dahinter".
Los gehts.
Zuerst einmal folgende Worte: Mir ist bekannt, das man in Deutschland nichts autonom fliegen lassen darf, bzw irgendwelche selbstfliegenden Drohnen, welche sich komplett selbst steuern in Betrieb nehmen darf. Die Testflüge des Projektes finden natürlich immer über abgesperrtem und freigegebenen Luftraum statt, sowie immer mit menschlicher Möglichkeit des Eingreifens.
Plane im Moment eine autonome Drohne, welche Waypoints abfliegen soll. Sich dabei völlig autonom an der Umgebung orientieren kann (zb auf Hindernisse, wie Bäumen, Häusern und Strommasten reagieren) und natürlich alles live zur Bodenstation funkt. GPS Position, Daten wie Höhe, Temperatur, Luftdruck und natürlich ein Live Bild, was die Drohne sieht. Dabei will ich das Rad nicht neu erfinden, sondern bekannte Komponenten benutzen. Das Ganze ist fuer mich eher die Herausforderung des Codes und der Umsetzung.
Es geht mir dabei eigentlich nur um die Funktion der autonomen Navigation und das Reagieren auf Hindernisse, Wetterverhältnisse und Co.
Da es ja atm viele coole Dinge diesbezüglich schon zu kaufen gibt, muss ich da nix neu erfinden.
Und da ich Elektroniker bin, habe ich schon viel gebastelt, aber das reizt mich total, sowas mal umzusetzen.
Ich möchte dabei mehr über die Verfahrensweise der Navigation, der Messwertermittlung, Verarbeitung der ganzen Werte und letztendlich natürlich die daraus resultierende Steuerung der Drohne mit Open Source Code realisieren.
Ich möchte hier mit euch darueber diskutieren, was rechtlich möglich - oder eben nicht möglich ist, wie man das Projekt verbessern, programmieren und natürlich bauen kann.
Ich hoffe, das die Interessierten und natürlich jene, welche was dazu beitragen können, mir dabei helfen das Ganze zur Realität werden zu lassen.
Folgende Komponenten habe ich mir bisher als Hardware ausgesucht:
CPU: ArduPilotMega
Rahmen: selbstgebauter Quadrahmen im Copterstyle (ich weiss, über die Zuverlässigkeit von mehr Motoren, wegen Ausfall und so, aber es reichen 4 Motoren zum Testen)
Navigation: GPS, Sonar (evtl auch Radar), Altitude vom GPS und externem Sensor in Verbindung mit den Codeteilen vom Mega, Evtl Kamera, wobei das bestimmt sehr aufwendig ist, das zu processen und auszuwerten) und natürlich neue, andere Möglichkeiten der Umgebungsauswertung, wie zb Kinect (Danke Mista)
Messwerte: Mega (GPS und co) und externe I²C oder Seriell
Telemetrie: Xbee
Live Video: irgend ne bekannte FPV Lösung, gerne auch mit Tracker - aber das ist nicht soooo wichtig dabei
Software:
Code vom Mega, als Interface am PC dann was selbtgebautes, oder eben vom Mega modifiziert. Einbindung der Sensoren und natürlich Auswertung und Aufzeichnung derselben an der Bodenstation.
Soweit bin ich bisher - und hätte gerne mal eure Meinungen dazu. Ich weiss, das sowas sicherlich nicht sooo schwer zu "kaufen" ist, aber mir gehts um die autonome Navigation. Und eben der Code "dahinter".
Los gehts.