Mobile Benutzungsschnittstellen und Augmented Reality für Mikrodrohnen

Zivile Rettungseinsätze oder militärische Operationen in Gebäuden sind für die Einsatzkräfte gefährlich und hoch dynamisch, weil die Sicht durch die Wände enorm eingeschränkt ist. Mikrodrohnen könnten das Risiko verkleinern: Sie können die Einsatzkräfte begleiten, die Lage erkunden und so bereits frühzeitig Gefahren identifizieren, die hinter der nächsten Ecke lauern. Allerdings sind aktuell erhältliche Modelle in erster Linie für den Außeneinsatz konzipiert. Die Nachfrage ist hier schlichtweg größer. Die Möglichkeiten, sie in geschlossenen Räumen oder gar Kanälen einzusetzen, sind sehr begrenzt. Damit sie dennoch hierfür genutzt werden können, müssen die Bedienung und die Darstellung der Informationen möglichst benutzerfreundlich und zuverlässig sein

© Fraunhofer FKIE
Smartphone und AR-User-Interface für Mikrodrohnen: Die Smartphone-Schnittstelle bietet die Möglichkeit, Steuerungsinformationen an die Drohne zu senden und die von ihr gesammelten Informationen darzustellen. Die AR-Schnittstelle ist eine Ergänzung zur Smartphone-Schnittstelle und auf die räumliche Darstellung von Informationen in unmittelbarer Nähe der beobachteten Umgebung ausgerichtet.

Anders als unter freiem Himmel können Drohnen in geschlossenen Räumen nicht auf Satellitendaten zurückgreifen. Dies erschwert die autonome Navigation und verlangt alternative Lösungen, die es im Projekt zu entwickeln galt. Darüber hinaus sollten Aspekte identifiziert und bewertet werden, die dazu beitragen, die Mikrodrohnen in den Einsatzkontext zu integrieren. Anhand der daraus abgeleiteten ergonomischen Kriterien sollte eine Benutzungsschnittstelle gestaltet werden, mit der die Drohne gesteuert wird und Informationen angezeigt werden.

Wie Aufklärungsdaten mit Mikrodrohnen in Innen- und Außenbereichen erfasst und gesammelt werden können, wurde in Zusammenarbeit mit der Abteilung »Sensordaten- und Informationsfusion« untersucht.

Der Schwerpunkt der Abteilung »Mensch-Maschine-Systeme« lag hierbei darauf, die intuitive Benutzungsschnittstelle zu konzipieren und zu visualisieren. Neben einer mobilen Benutzeroberfläche wurde zudem eine Schnittstelle für Augmented Reality (AR) entworfen und umgesetzt. Besonderes Augenmerk lag auf der Verwendung von multimodaler und situationsbezogener Kommunikation. Wie AR bestmöglich zur Bereitstellung einer räumlichen Darstellung von Informationen eingesetzt werden kann, wurde ebenso untersucht wie der Einsatz verschiedener Modalitäten (Touch, Gesten und Head-Tracking), um Informationen zu explorieren und die Drohne zu steuern.

© Fraunhofer FKIE
Geteilte Ansicht – Karte und Videodaten von der Drohne: Die Lagedarstellung bildet das Kernelement der Benutzungsschnittstelle und bietet die drei Modi »Karte«, »Video« und »Geteilt«. Diese können mithilfe des Buttons, der sich mittig am oberen Rand befindet, durchgeschaltet werden. Dem Nutzer kann hierdurch sowohl Übersichtswissen über die Gesamtlage als auch Detailwissen aus den aktuellen Videodaten der Drohne zur Verfügung gestellt werden.
© Fraunhofer FKIE
Darstellung der von der Drohne erkundeten Innenräume als 2D-Gitterkarte. Im Menü hat der Nutzer die Möglichkeit, die freie Exploration des Innenraums durch die Drohne zu starten. Die Drohne entscheidet hierbei selbst über Richtung und Priorität der Exploration.
© Fraunhofer FKIE
Smartphone-Schnittstelle im Nachtmodus. Die Farbgebung soll optimale Lesbarkeit wichtiger Informationen ermöglichen. Die unterschiedlichen Farbpaletten für Tag- und Nachteinsätze sollen sowohl Kontrast als auch Sichtbarkeit sicherstellen. Zu beachten ist dabei, dass die Auszeichnungsfarben im Nacht- gegenüber dem Tag-Modus entsättigt erscheinen, um ein harmonisches Gesamtbild zu ermöglichen.

Für die Interaktion mit der Drohne wurden zwei Ansätze verfolgt: zum einen die Nutzung eines mobilen Endgerätes (Smartphone) und zum anderen der Einsatz eines AR-Head-Mounted-Display (HMD). Für die Ausgestaltung beider Schnittstellen wurden im Vorfeld Anforderungen mit potenziellen Nutzern erhoben, die die besondere Unterstützung des Situationsbewusstseins und die kontextspezifische Nutzung in den Blick nahmen.

Zentrales Element der mobilen Benutzerschnittstelle ist die Lagedarstellung. Darüber werden sowohl Drohnenbefehle gegeben als auch Lageinformationen von Außen- und Innenbereichen dargestellt. Der Nutzer kann – nach individuellen Vorlieben und aktuellen Erfordernissen der Situation – aus verschiedenen Darstellungsmodi auswählen. Statusinformationen der Drohne werden platzsparend als kombinierte Steuerungselemente umgesetzt und zur intuitiven Erfassung farbig kodiert. Zudem wurden Touch-Gesten für die manuelle Steuerung der Drohne entwickelt und separat getestet. Hierzu wurde ein Simulator für den Einsatz im Außenbereich erstellt, der unter anderem das Höhenprofil der Umgebung realitätsnah darstellt. 

Die AR-Schnittstelle bietet sowohl kontextspezifische Visualisierungen, wie Lageinformationen und Drohnenstatus, als auch Tiefeninformationen. Um die Wirksamkeit verschiedener Strategien für Letztere zu evaluieren, wurde eine Nutzerstudie durchgeführt.

Schließlich entstand eine Simulationsumgebung für die AR-Schnittstelle mittels Virtual Reality. Dies erlaubt einerseits, verschiedene AR-HMDs als Sichtbereiche und Interaktionsmöglichkeiten nachzubilden. Andererseits können Gestaltungslösungen schnell umgesetzt und iteriert werden, ohne sie auf verschiedenen Endgeräten zeitaufwendig installieren zu müssen.

© Fraunhofer FKIE
AR-Schnittstelle: Zentrales Element der Nutzungsschnittstelle ist die egozentrische Darstellung relevanter Statusinformationen der Drohne. Die Position der Drohne wird normgerecht, in Anlehnung an die Symbolik des Nato APP6 Standards, dargestellt. Durch einen nach unten gerichteten Pfeil wird die Grafik mit dem Flugkörper visuell verknüpft.
© Fraunhofer FKIE
Off-Screen-Visualisierung der Drohne und Einbruchstellen in AR: Durch das limitierte AR-Sichtfeld ist eine direkte Erfassung der Drohne und bestehender Eingangs- und Ausgangspunkte nicht immer möglich. Um die Identifikation von relevanten Objekte auch außerhalb des Sichtfeldes zu gewährleisten, sind Off-Screen-Marker notwendig
© Fraunhofer FKIE
Virtual-Reality-Testumgebung mit simuliertem AR-Sichtfeld: Die Simulation ermöglicht kontrollierte und systematische Veränderungen von Simulationsparametern, wie beispielsweise die flexiblen Einstellungen des Sichtfelds oder verschiedene Visualisierungstechniken.

Die Benutzungsschnittstelle, die auf zwei Endgeräte verteilt ist, wurde nach den Prinzipien der menschenzentrierten Gestaltung entwickelt.

Das Smartphone übermittelte die von der Drohne gesammelten Informationen sowie die Angaben zur Drohne. Zudem kann der Nutzer darüber Steuerbefehle an die Drohne senden. Zudem wurde ein nutzerzentriertes Gestenalphabet entwickelt und basierend auf drei verschiedenen Bewegungserfassungssystemen (Touch-Display, Radar-Sensor und Tiefenkamera) realisiert. Anhand von Experteninterviews mit Nutzern wurde dieses Alphabet verfeinert und angepasst. Mit den gesammelten Touch-Gesten kann die Drohne manuell gesteuert werden.

Das AR-Interface stellt Informationen über die Position und den aktuellen Status der Drohne dar und weist auf Objekte außerhalb des Sichtfelds hin. Die Studie zur Tiefenwahrnehmung hat verschiedene Arten der Darstellung von Tiefe untersucht. In der Studie konnte kein positiver oder negativer Effekt von tiefenkodierten Einfärbungen festgestellt werden. Gitter und Linien hingegen verbesserten den egozentrischen und exozentrischen Schätzfehler, verringerten die Schätzzeit, führten zu einer besseren Leistung und einer geringeren geistigen Anstrengung. Diese Effekte können hauptsächlich auf die Stützlinien zurückgeführt werden, die in die Gitterdarstellungen integriert wurden.