Für den Menschen zu gefährlich: Experimentelle CBRNE-Roboter unterstützen bei der Erkennung und Bergung von Gefahrstoffen.

Autonome CBRNE-Kartierung und -Manipulation mit Erkundungsrobotern

Experimentelle CBRNE-Roboter

© Foto Fraunhofer FKIE

In Situationen, die für Menschen viel zu gefährlich sind, unterstützen Roboter. So beispielsweise im Bereich der CBRNE-Aufklärung.

Bei Aufgaben, die für Menschen ein zu hohes Risiko bedeuten, unterstützen Roboter. So beispielsweise im Bereich der CBRNE-Aufklärung. CBRNE steht für »Chemical, Biological, Radiological, Nuclear and Explosive«. Darunter fallen beispielsweise auch aggressive Gefahrstoffe und radioaktive Verstrahlung, welche die Streit- und polizeilichen Sicherheitskräfte im Einsatzfall vor extreme Herausforderungen stellen. Eine Gefahr für Leib und Leben kann hierbei trotz richtiger Ausrüstung und intensiver Schulung nie vollkommen ausgeschlossen werden. Roboter, die mit CBRNE-Sensorik und autonomen Assistenzfunktionen ausgestattet sind, übernehmen hier.

Unterstützt von der Bundeswehr erforscht die Abteilung »Kognitive Mobile Systeme« die intelligente Kombination von CBRNE-Aufklärungssensorik, Navigationsstrategien und Geodatenverarbeitung. Zudem befasst sie sich mit der Entwicklung intelligenter Assistenzfunktionen, die eine entfernte Steuerung von Robotern deutlich einfacher und intuitiver gestalten oder Teilaufgaben sogar vollkommen automatisiert erledigen.

© Foto Fraunhofer FKIE

Die vom Roboter festgestellte Strahlungsintensität wird mittels Datenfusion in einer sogenannten »Strahlungskarte« zusammengeführt.

© Foto Fraunhofer FKIE

Der Leitstand hat die Möglichkeit, nach Sensoren zu filtern und sich die unterschiedlichen Karten (Messwerte/Geodaten) in einer fusionierten Ansicht transparent übereinanderzulegen.

Für die präzise Detektion, Lokalisierung und Kartierung von Gefahrstoffen verknüpfen und koordinieren die Wissenschaftler Sensordaten, die Erkundungsroboter im Hinblick auf die Erkennung von CBRNE-Gefahrstoffen liefern, mit Navigationsstrategien und Zusatzinformationen aus digitalen Geo-Datenbanken. Können nicht alle Bereiche eines Areals vom Roboter erkundet werden, ergänzt ein geostatistisches Schätzverfahren die Messwertkarte an den nicht zugänglichen Stellen.

Gefahrenquellen können somit genauer detektiert, lokalisiert sowie – für die Einsatzkräfte besonders wichtig – präzise kartiert werden. Die unterschiedlichen Daten werden hierfür zu einem gemeinsamen Lagebild fusioniert. Dieses wird dem Leitstand zur Verfügung gestellt, der somit nachhaltige Entscheidungsunterstützung erhält.

Viele Einsatzszenarien erfordern weiterhin auch die entfernte, mobile Manipulation von Objekten, also das Sichern der Gefahrstoffe. Die Fernsteuerung eines Roboters mit Greifarm erforderte bisher jedoch eine langwierige Ausbildung des Bedieners. Dies ändert sich mit der Verfügbarkeit immer leistungsfähigerer mobiler Rechner und moderner KI-Algorithmen, die eine intuitivere Steuerung sowie teilweise sogar die automatisierte Erledigung von Aufgaben ermöglichen.

So nimmt mit ihrer Hilfe beispielsweise die Fähigkeit zur Echtzeit-Verarbeitung detailreicher Videodatenströme, sogenannte »Robot Vision«, stetig zu. Ihre Bedeutung für autonome High-Level-Anwendungen wächst rasant. Auf ihr basiert auch eine weitere innovative Assistenzfunktion aus dem FKIE-Labor: ein »Click & Grasp«-System, das allein auf Mausklick in ein Live-Videobild einen Greifarm automatisiert Gegenstände aufnehmen und an anderer, ebenfalls per Mausklick angewiesener Stelle wieder ablegen lässt.

© Foto Fraunhofer FKIE

Beim »European Robotics Hackathon« in dem niemals in Betrieb gegangenen österreichischen Atomkraftwerk Zwentendorf stellten die FKIE-Wissenschaftler ihre Detektions-, Kartierungs- und Manipulationsverfahren im Rahmen eines Störfallszenarios unter realen Bedingungen mit großem Erfolg unter Beweis.

© Foto Fraunhofer FKIE

Als einzigem Teillnehmerteam gelang es dem Fraunhofer FKIE, seinen Roboter autonom nach dem ausgetretenen Material greifen zu lassen, es auf Strahlung zu überprüfen, abzutransportieren und in einem speziellen Behälter zu deponieren.

Funktionalität und Effizienz der vom Fraunhofer FKIE entwickelten Kartierungs- und intelligenten Assistenzverfahren konnten nicht nur wissenschaftlich unter Laborbedingungen bewiesen, sondern auch mit einem Demonstrator im Rahmen des »European Robotics Hackathon« (EnRicH) erfolgreich unter Beweis gestellt werden.

Der Wettbewerb, den das Fraunhofer FKIE in Kooperation mit dem Amt für Rüstung und Wehrtechnik (ARWT) des österreichischen Bundesheeres erstmalig ausgerichtet hat, fand im Juni 2017 im stillgelegten Atomkraftwerk Zwentendorf statt. Sein Ziel war es, die derzeitigen Fähigkeiten mobiler Roboter zur Reaktion auf nukleare Katastrophen zu prüfen und voranzubringen.

Elf internationale Teams und ihre Robotersysteme stellten sich der Herausforderung des realen Störfallszenarios. Nur sieben von ihnen, darunter auch das Fraunhofer FKIE, traten in allen drei Kategorien – »3D-Lagekarte«, »Strahlungskarte« und »Manipulation« – an.

Als einzigem Teilnehmerteam gelang es dem Fraunhofer FKIE, seinen Roboter autonom nach dem ausgetretenen Material greifen zu lassen, es auf Strahlung zu überprüfen, abzutransportieren und in einem speziellen Behälter zu deponieren. Für die Leistung, auf diese Weise vier von fünf Strahlenquellen identifizieren und bergen zu können, wurde das Team mit dem Preis »Best Manipulation« ausgezeichnet. Einen weiteren ersten Preis erzielten die Wissenschaftler in der Kategorie »Best Radiation Mapping«.

Das Forschungsvorhaben wird in verschiedene Richtungen fortgeführt. So sollen auf der Grundlage des ganzheitlichen Ansatzes zur Bildauswertung für universell einsetzbare Roboter, wie er für das »Click & Grasp«-System gewählt wurde, viele weitere Funktionen realisiert werden. Hilfreich hierbei sind leistungsfähige Sensoren und miniaturisierte Rechner sowie Virtual-Reality-Brillen und Steuergeräte mit Bewegungserkennung. Sie stellen eine Triebfeder für Robot Vision dar. Perspektivisch können dadurch nicht nur militärische Technologien, sondern auch ganz neue Bedienkonzepte und Anwendungsfelder erschlossen werden.  

 

© Foto Fraunhofer FKIE
© Foto Fraunhofer FKIE
© Foto Fraunhofer FKIE