Anwendung einer drohnenbildbasierten, direkten Georeferenzierungsmethode für Smart Farming
DOI:
https://doi.org/10.15150/ae.2024.3326Abstract
Für Smart Farming Anwendungen müssen die Informationen, welche autonome Systeme wie z.B. Drohnen sammeln, mit ihrer exakten räumlichen Verteilung verknüpft werden – ein Prozess, welcher allgemein Georeferenzierung genannt wird. Dieser Prozess ist jedoch häufig sehr rechenintensiv und komplex. In dieser Arbeit untersuchen wir die Anwendbarkeit und Genauigkeit einer vereinfachten, direkten Georeferenzierungsmethode von Drohnenbilder für Smart Farming Anwendungen wie z.B. die Unkrauterkennung. Die Methode, welche nur auf einer affinen Homographie basiert und keine Kalibration benötigt, erreicht in Kombination mit einer High-end-Drohne (DJI Matrice 300 RTK) eine Genauigkeit von < 0.82 m bei einer Flughöhe von 30 m, sogar bei ausgeprägter Hangneigung. Da die untersuchte Methode nur Einzelbilder benutzt und kein Feature Matching benötigt, ist sie sehr recheneffizient und bestens für Echtzeitanwendungen geeignet. Abhängig vom konkreten Anwendungsfall liefert die Methode Genauigkeiten von der Größe der zu detektierenden Objekte, insbesondere für den Fall der Ampfererkennung auf Wiesen, wie wir in dieser Arbeit aufzeigen. Die Methode kann als obere Schranke der Georeferenzierung angesehen werden und ist einfach auf andere Drohnensysteme anzuwenden.
Literaturhinweise
Bu, S.; Zhao, Y.; Wan, G.; Liu, Z. (2016): Map2DFusion: Real-time incremental UAV image mosaicing based on monocular SLAM. In 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4564–4571, https://doi.org/10.1109/IROS.2016.7759672
Comaniciu, D.; Meer, P. (2002): Mean shift: a robust approach toward feature space analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence 24(5), pp. 603–619, https://doi.org/10.1109/34.1000236
Correia, C.A.M.; Andrade, F.A.A.; Sivertsen, A.; Guedes, I.P.; Pinto, M.F.; Manhães, A.G.; Haddad, D.B. (2022): Comprehensive direct georeferencing of aerial images for unmanned aerial systems applications. Sensors 22(2), pp. 604-629, https://doi.org/10.3390/s22020604
Cucci, D.A.; Rehak, M.; Skaloud, J. (2017): Bundle adjustment with raw inertial observations in UAV applications. ISPRS Journal of Photogrammetry and Remote Sensing 130, pp. 1–12, https://doi.org/10.1016/j.isprsjprs.2017.05.008
Gabrlik, P.; la Cour-Harbo, A.; Kalvodova, P.; Zalud, L.; Janata, P. (2018): Calibration and accuracy assessment in a direct georeferencing system for UAS photogrammetry. International Journal of Remote Sensing 39(15–16), pp. 4931–4959, https://doi.org/10.1080/01431161.2018.1434331
Hartley, R.I.; Zisserman, A. (2004): Multiple View Geometry in Computer Vision. Second ed. Cambridge University Press
Helgesen, H.H.; Leira, F.S.; Bryne, T. H.; Albrektsen, S.M.; Johansen, T.A. (2019): Real-time georeferencing of thermal images using small fixed-wing UAVs in maritime environments. ISPRS Journal of Photogrammetry and Remote Sensing 154, pp. 84–97, https://doi.org/10.1016/j.isprsjprs.2019.05.009
Hemerly, E.M. (2014): Automatic georeferencing of images acquired by UAV’s“. International Journal of Automation and Computing 11(4), pp. 347–352, https://doi.org/10.1007/s11633-014-0799-0
Hinzmann, T., Schönberger, J.L.; Pollefeys, M.; Siegwart, R. (2018): Mapping on the fly: Real-time 3D dense reconstruction, digital surface map and incremental orthomosaic generation for unmanned aerial vehicles. In Field and Service Robotics, 383–396. Cham: Springer International Publishing, https://doi.org/10.1007/978-3-319-67361-5_25
Innosuisse (2024): Schweizerische Agentur für Innovationsförderung. “Verbesserung der Schweizer Agrarproduktion durch Digitalisierung,” published 22 September 2022. https://www.innosuisse.admin.ch/de/verbesserung-der-schweizer-agrarproduktion-durch-digitalisierung, accessed on 15 October 2024
Kern, A.; Bobbe, M.; Khedar, Y.; Bestmann U. (2020): OpenREALM: Real-time mapping for unmanned aerial vehicles. In: 2020 International Conference on Unmanned Aircraft Systems (ICUAS), pp. 902–911, https://doi.org/10.1109/ICUAS48674.2020.9213960
Leira, F.S.; Trnka, K.; Fossen, T.I.; Johansen, T.A. (2015): A light-weight thermal camera payload with georeferencing capabilities for small fixed-wing UAVs. In: 2015 International Conference on Unmanned Aircraft Systems (ICUAS), pp. 485–494, https://doi.org/10.1109/ICUAS.2015.7152327
Liu, X.; Lian, X.; Yang, W.; Wang, F.; Han, Y.; Zhang, Y. (2022): Accuracy assessment of a UAV direct georeferencing method and impact of the configuration of ground control points. Drones 6(2), https://doi.org/10.3390/drones6020030
Mian, O.; Lutes, J.; Lipa, G.; Hutton, J. J.; Gavelle, E.; Borghini S. (2016): Accuracy assessment of direct georeferencing for photogrammetric applications on small unmanned aerial platforms. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XL-3/W4, pp. 77–83, https://doi.org/10.5194/isprs-archives-XL-3-W4-77-2016
Pix4D (2024): Pix4D documentation. https://support.pix4d.com/hc/en-us/articles/115002471546, accessed on 9 October 2024
Pfeifer, N.; Glira, P.; Briese, C. (2012): Direct georeferencing with on board navigation components of light weight UAV platforms. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XXXIX-B7, pp. 487–492. https://doi.org/10.5194/isprsarchives-XXXIX-B7-487-2012
Popović, M.; Hitz, G.; Nieto, J.; Sa, I.; Siegwart, R.; Galceran, E. (2017a): Online informative path planning for active classification using UAVs. In: 2017 IEEE International Conference on Robotics and Automation (ICRA), pp. 5753–5758, https://doi.org/10.1109/ICRA.2017.7989676
Popović, M.; Vidal-Calleja, T.; Hitz, G.; Sa, I.; Siegwart, R.; Nieto, J. (2017b): Multiresolution mapping and informative path planning for UAV-based terrain monitoring. In: 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 1382–1388, https://doi.org/10.1109/IROS.2017.8202317
Pretto, A.; Aravecchia, S.; Burgard, W.; Chebrolu, N.; Dornhege, C.; Falck, T.; Fleckenstein, F. et al. (2021): Building an aerial–ground robotics system for precision farming: an adaptable solution. IEEE Robotics & Automation Magazine 28(3), pp. 29–49. https://doi.org/10.1109/MRA.2020.3012492
Sax, M.; Stoop, R.L.; Nasser, H.-R-; Seatovic, D.; Keel, S.; Lehrmann, A.; Höfer,T.; Anken, T. (2023): Broad-leaved dock control by unmanned aerial vehicles: What image quality is needed for a plant detection? In Land. Technik AgEng 2023, VDI-Berichte 2427, pp. 505–512,Düsseldorf, VDI Verlag
Seifert, E.; Seifert, S.; Vogt, H.; Drew, D.; van Aardt, J.; Kunneke, A.; Seifert, T. (2019): Influence of drone altitude, image overlap, and optical sensor resolution on multi-view reconstruction of forest images. Remote Sensing 11(10), pp. 1252-1271. https://doi.org/10.3390/rs11101252
Storm, H.; Seidel, S. J.; Klingbeil, L.; Ewert, F.; Vereecken, H.; Amelung, W.; Behnke, S., et al. (2024): Research priorities to leverage smart digital technologies for sustainable crop production. European Journal of Agronomy 156(1), pp. 127178-127185. https://doi.org/10.1016/j.eja.2024.127178
Syetiawan, A., Gularso, H.; Kusnadi, G. I.; Pramudita, G. N. (2020): Precise topographic mapping using direct georeferencing in UAV. IOP Conference Series: Earth and Environmental Science 500(1), pp. 012029-012039, https://doi.org/10.1088/1755-1315/500/1/012029
Walter, A., Finger, R.; Huber, R.; Buchmann, N. (2017): Smart farming is key to developing sustainable agriculture. Proceedings of the National Academy of Sciences 114(24), pp. 6148–6150. https://doi.org/10.1073/pnas.1707462114
Xiang, H.; Tian, L. (2011): Method for automatic georeferencing aerial remote sensing (RS) images from an unmanned aerial vehicle (UAV) platform. Biosystems Engineering 108(2), pp. 104–113. https://doi.org/10.1016/j.biosystemseng.2010.11.003
Downloads
Veröffentlicht
Zitationsvorschlag
Ausgabe
Rubrik
Lizenz
Copyright (c) 2024 Ralph L. Stoop, Markus Sax, Dejan Seatovic, Thomas Anken
Dieses Werk steht unter der Lizenz Creative Commons Namensnennung 4.0 International.