Für die Interaktion mit der Drohne wurden zwei Ansätze verfolgt: zum einen die Nutzung eines mobilen Endgerätes (Smartphone) und zum anderen der Einsatz eines AR-Head-Mounted-Display (HMD). Für die Ausgestaltung beider Schnittstellen wurden im Vorfeld Anforderungen mit potenziellen Nutzern erhoben, die die besondere Unterstützung des Situationsbewusstseins und die kontextspezifische Nutzung in den Blick nahmen.
Zentrales Element der mobilen Benutzerschnittstelle ist die Lagedarstellung. Darüber werden sowohl Drohnenbefehle gegeben als auch Lageinformationen von Außen- und Innenbereichen dargestellt. Der Nutzer kann – nach individuellen Vorlieben und aktuellen Erfordernissen der Situation – aus verschiedenen Darstellungsmodi auswählen. Statusinformationen der Drohne werden platzsparend als kombinierte Steuerungselemente umgesetzt und zur intuitiven Erfassung farbig kodiert. Zudem wurden Touch-Gesten für die manuelle Steuerung der Drohne entwickelt und separat getestet. Hierzu wurde ein Simulator für den Einsatz im Außenbereich erstellt, der unter anderem das Höhenprofil der Umgebung realitätsnah darstellt.
Die AR-Schnittstelle bietet sowohl kontextspezifische Visualisierungen, wie Lageinformationen und Drohnenstatus, als auch Tiefeninformationen. Um die Wirksamkeit verschiedener Strategien für Letztere zu evaluieren, wurde eine Nutzerstudie durchgeführt.
Schließlich entstand eine Simulationsumgebung für die AR-Schnittstelle mittels Virtual Reality. Dies erlaubt einerseits, verschiedene AR-HMDs als Sichtbereiche und Interaktionsmöglichkeiten nachzubilden. Andererseits können Gestaltungslösungen schnell umgesetzt und iteriert werden, ohne sie auf verschiedenen Endgeräten zeitaufwendig installieren zu müssen.