I. Einleitung und Gesamtdarstellung
MiteSens – Konzept, Ziele und FuE-Konsortium
Ziel des von der Bundesanstalt für Landwirtschaft und Ernährung (BLE) finanzierten Verbundprojekts MITESENS ist die Entwicklung eines UAS (Unmanned Aerial Vehicle) basierten Systems zum Monitoring von Spinnmilben bei typischen Pflanzenbeständen (Erdbeeren, Gurken, Rosen) im Unterglasanbau (MiteSens).
Abb.1: MitesSens Gesamtsystem mit Aufgaben und Leistungen der Konsortiumsmitglieder sowie Interaktionen und Datenschnittstellen. (Graphik aus Hortico 4.0 Meeting 9. Dez. 2020)
Die Abb. 1 zeigt das MitesSens Gesamtkonzept sowie die Aufgaben der verschiedenen Mitglieder (Universität Hohenheim, University of Applied Sciences Karlsruhe (HKA), Wolution, Multikopter, IB Bauer, LVG Heidelberg und LTZ Augustenberg) sowie die Interaktionen und die Datenschnittstellen auf. Die Projektlaufzeit ist 31.03.2023.
MiteSens soll in der Lage sein, sowohl den frühen Befall von Pflanzenblättern mit Spinnmilben zu detektieren, als auch entsprechende Bekämpfungsmaßnahmen mit Prädatoren und/oder integrierbaren Pflanzenschutzmitteln (Akariziden) zu überwachen und deren Erfolg zu bewerten. MiteSens basiert dabei auf bildgebenden Verfahren. In Verbindung mit einem UAS (MiteSens UAS) mit intelligenter Flugsteuerung (Flight Control) als Kameraträger sind grundsätzlich eine hohe raumzeitliche Auflösung des Spinnmilben-Monitorings, ein berührungsloser Einsatz sowie eine autonome Anwendung möglich.
Die Ableitung der nötigen Befallsinformationen (Ort, Stärke, raumzeitliche Dynamik des Spinnmilbenbefalls) aus den verorteten Bildinformationen basiert auf einem ML (maschinelles Lernen) Ansatz, der die entsprechenden Auswertungen in Echtzeit durchführt, somit eine schnelle Reaktion auf einen möglichen Befall ermöglicht und darüber hinaus bei verschiedenen Kulturen eingesetzt werden kann.
Die zentrale Komponente des Gesamtsystem MiteSens ist ein mehrere Aufgaben wahrnehmendes UAS (Unmanned Aerial System) in Verbindung mit einer Ground-Control-Station zur Datenkommunikation sowohl mit dem UAS als auch mit der Cloud als allgemeine technische Datenschnittstelle des Konsortiums (Abb.1). Auf dem UAV (Unmanned Aerial Vehicle) als Sensor- und Kommunikations-Trägerplattform des UAS befinden sich - neben der dem Monitoring des Milbenbefalls dienenden Multispektralkamera – in kompakter Form die GNSS, MEMS (Micro-Electro-Mechanical-Systems) Sensorik sowie die optische Sensorik (Multispektral-Kamera, Optische Kameras zur Navigation und Hinderniserkennung, Laserscanner (LIDAR) zur 3D Bestandserfassung als Voxel-Modell) und schließlich die Datenkommunikationskomponenten (WIFI, Internet).
Die GNSS/MEMS/Optik Multisensorik dient in erster Instanz der Navigation und der sich damit verbindenden Flugsteuerung, d.h.
- Bestimmung des 18 parametrigen Navigations-Istzustandes y(t)Ist (Abb. 2)
- Dynamische Hinderniserkennung per optischer Sensorik (Kamera, Laserscanner)
- Automatisierte Flugregelung (Flight Control (FC)) entlang einer 3D-Trajektorie y(t)Soll
Der Navigations-Istzustand y(t)Ist kann in Verbindung mit dem Laserscanner, der der 3D-Gebäude- und Bestandserfassung, der „3D-Map m(t)“ dient, in Doppelfunktion auch zur Navigationszustandsschätzung dienen. Im Fall einer um m(t) erweiterten Zustandsschätzung spricht man von SLAM (Simultaneous Localization and Mapping) (y_(t)Ist),m(t) ).
Grundsätzlich übernimmt der im globalen ITRF (International Terrestrial Reference Frame) bzw. in Europa dem INSPIRE konform ermittelten ETRF89 Navigations-Istzustand y(t)Ist eine damit im Raumbezug, d.h. örtlich wie auch zeitlich global identifizierbar gehaltene 3D Georeferenzierung der Laserpunktwolken m(t) und des darauf gewonnenen Gebäude- und Pflanzenbestandes sowie der unklassifizierten und der klassifizierten Multispektralbilder s(t) bzw. s(t)‘.
Aus den Laserpunktwolken m(t) können dann das BIM-gerechte
- 3D Gebäudemodell b sowie das
- 3D Voxelmodell v des Pflanzenbestandes rechnerisch ermittelt werden.
Über Methoden der Bildverarbeitung kann das 3D Gebäudemodell b als digitaler Zwilling des durchflogenen Gebäudes dann widerum als Marker für die MEMS/Optik Datenfusion bei der Indoornavigation (hat ohne die GNSS-Komponente auszukommen) verwendet werden. Die klassifizierten Multispektralbilder s(t)‘ werden dann ebenfalls auf der Grundlage des Navigationszustandsvektor y(t)Ist auf das 3D-Voxellmodell v zurückgerechnet. Daraus resultiert schließlich das ITRF/ETRF89 georeferenzierte räumliche 3D Voxelmodell v‘ des Milbenbestandes. Aus der vollständigen 3D-Information v‘ können dann vertikale oder horizontale Schnitte (2D Orthokarten) abgeleitet werden.
Abb. 2: Sensorik der MiteSens UAS Flight-Control (FC) zur Zustandsschätzung y(t)Ist, Spinnmilbenerkennung und Datenkommunikation
Weitere Projektinformationen findet sich auch auf der Webseite der Förderungsgebers, der Bundesanstalt für Landwirtschaft und Ernährung unter dem nachfolgenden Link https://service.ble.de/ptdb/index2.php?detail_id=18370053&site_key=141&sLfd=laufend&zeilenzahl_zaehler=1684&NextRow=1550