Die Bauindustrie braucht Malerroboter, die mit Künstlicher Intelligenz ans Werk gehen. Raumfahrt und Rettungseinsätze benötigen supersmarte KI-Kumpel, die für uns ihren Kopf hinhalten.
Gut, dass ich es besser wusste: Eine Künstliche Intelligenz wollte mir jüngst erzählen, dass Andrea Petkovic ganz sicher bei den French Open als Profi-Tennisspielerin antritt. „Petko“ ist 2022 zurückgetreten. Den fleißig alles zusammentragenden Kollegen KI, der anschließend aus der Text-Wühlkiste einen frei fabulierten Artikel schmiedet: Das gibt seriöse Medienarbeit nicht her. Die Kontrollarbeit hebelt hier oft noch den Nutzen aus.
Andernorts geht da schon mehr. Beispielsweise im Handwerk. Siehe den Maler-Roboter der ConBotics GmbH. Der bekam sogar den Start-up-Preis der Konferenz „KI-basierte Robotik 2024“. Bei dem Treffen in Berlin tauschten sich Wissenschaft, Wirtschaft und Politik aus, um mit Künstlicher Intelligenz in Maschinenform voranzukommen. Von Deutschland und Europa aus, im internationalen Wettbewerb.
Bert hat vier Beine statt Rollen
Dem realen Leben und dem Alltag zugewandt: Im weiten Einsatz-Feld der neuronalen Verknüpfungen künstlicher Intelligenzen. Der Maler-Roboter, der in künftigen Varianten beispielsweise auch schleifen soll, sammelt bei einem Rund-Roll Informationen über Wände, Türen, Fenster, Böden und Heizkörper. Seine Pläne zum Streichen, die auf den so gewonnenen Raumplänen fußen, checkt eine Fachkraft via Tablet. Der Maler-Roboter ist also nicht wirklich allein zu Hause zugange.
Im Team fühlt sich auch Bert wohler. Ein kleiner Schritt für einen Menschen, ein großer für diesen Roboter. Denn Bert nähert sich dem an, wovon wir alle träumen: Sitzen bleiben, während eine Maschine unseren Job macht. Egal, wie kompliziert oder unangenehm die Aufgabe ist. Wundersames Multitasking geht auch: Denn mehrere Roboter sollen sich von einem einzigen Menschen feinfühlig steuern lassen sowie unter seiner Beobachtung teil- oder vollautonom agieren. Oder man handhabt es wie bei Kindern, die keine Lust haben, aufzuräumen: „Tut Euch einfach zusammen, dann geht es besser.“ Auf Maschinen umgemünzt sollen unterschiedliche Roboter eine Aufgabe gemeinsam ausführen, sich absprechen, die Absichten des anderen erkennen und kollaborieren.
Solches Handling hilft umso mehr, wenn wir den Erdboden unter den Füßen verlieren, uns merkwürdig leicht fühlen. Was in der Luft- und Raumfahrt schwerelos passiert. Deshalb leitet das DLR-Institut für Robotik und Mechatronik das Projekt „Surface Avatar“, bei dem es mit der Europäischen Weltraumorganisation ESA und dem Deutschen Raumfahrtkontrollzentrum GSOC zusammenarbeitet. Das Forschungsteam setzt auf feinfühlig ferngesteuerte Maschinen und entwickelt nicht alltägliche Technologien. Im Marslabor des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen lassen sich Verbindungen zur Internationalen Raumstation ISS aufbauen, um Roboter aus der Ferne als Avatare ihrer menschlichen Dirigenten zu steuern.
Blicken wir auf Bert, den Roboter. Bert besitzt vier Beine, beherrscht mehrere Gangarten. Eine Weltpremiere in der Telerobotik. Seine Kumpel rollen auf Rädern durch die simulierten Sehnsuchtsorte des Orbits. Enge Höhlen und holpriges Terrain konnten sie im Alleingang nicht erkunden. ESA-Astronaut Marcus Wandt wies Bert mit den Beinen daher vom Columbus-Modul auf der ISS an, im irdischen Marslabor auf Erkundungsgang zu gehen und das Terrain mit seinen Kamera-Augen unter die Lupe zu nehmen. Berts Echtzeitberichte können künftig eine Steilvorlage für den Astronauten sein, den humanoiden Serviceroboter Rollin’ Justin des DLR sowie den Interact Rover der ESA barrierefrei ins Rollen zu bringen.
Im Columbus-Modul der Internationalen Raumstation ISS steht der Roboter-Kommando-Terminal für Surface-Avatar-Experimente. Über den Joystick sigma steuert ESA-Astronaut Marcus Wandt die Bewegungs- und Blickrichtungen der verschiedenen Roboter intuitiv. Ein Interaktionsgerät ist so fein eingestellt, dass der Astronaut via Kraftrückkopplung fühlt, wie Widerstand auf den Roboter wirkt, wenn dieser mit seinen Armen etwas greift. So steuert Wandt die Arme des Roboters, als wären sie seine eigenen.
Dinge aus der Ferne installieren
Künstliche Intelligenz, verkörpert in Spitzentechnologie, bereitet Raumfahrenden so den Weg für ihre Missionen. Üblicherweise strahlt vieles von der Forschung und den Experimenten im All wohltuend auf die Erde ab. „Zukünftige Mond- und Marsstationen, einschließlich der Habitate für Astronautinnen und Astronauten, werden von Robotern aufgebaut und gewartet werden, die unter der Anleitung der Raumfahrenden agieren“, erläutert Professor Dr. Alin Albu-Schäffer, Direktor des DLR-Instituts für Robotik und Mechatronik. „Unsere neuesten Regelungs- und KI-Algorithmen ermöglichen es einer einzigen Person, ein komplettes Team unterschiedlichster Roboter zu kommandieren.“ Mit dieser Technologie sei das DLR-ESA Team weltweit führend.
Die Theorie klingt gut, doch was schafften Justin und Interact Rover im ersten Experiment dieser Art? Sie installierten gemeinsam ein kurzes Rohr, das ein wissenschaftliches Messgerät abbildet. Rollin’ Justin griff sich auf Kommando von Wandt das Rohr und brachte es zur Messstelle. Dort hielt er es in der gewünschten Position, während Wandt über die feinfühlige Fernsteuerung des Interact Rovers das Rohr aus der Ferne installierte: Als wäre der Astronaut selbst vor Ort.
Keine Frage: Auf Roboter kommen immer anspruchsvollere Aufgaben zu. Mithilfe Künstlicher Intelligenz sollen sie künftig auch eigenständig komplexe Aufgaben durchführen. Sogar in Umgebungen, die sich permanent verändern und unstrukturiert sind. Im Zusammenwirken mit Menschen, für eine flexible Produktion sowie eine entlastete Logistik.
Und für Spezialaufgaben, die für Such- und Rettungsroboter als Tests anstehen. So wurde Asterix, ein ebenso regelmäßiger wie erfolgreicher Teilnehmer an internationalen Wettbewerben wie dem RoboCup Rescue (https://rrl.robocup.org/) mit Fokus auf Autonomie und Assistenzfunktionen komplett an der Technischen Universität Darmstadt entwickelt. Asterix dient als Testplattform für die Softwareentwicklung des Teams „Hector“, das aus studentischen und wissenschaftlichen Mitarbeitern des Fachgebiets Simulation, System-Optimierung und Robotik (SIM) der TU Darmstadt besteht. „Er ist eine reine Forschungsplattform und nicht für den realen Einsatz geeignet“, betont Martin Oehler, wissenschaftlicher SIM-Mitarbeiter.
Asterix kann selbständig klettern, Hindernisse überwinden und mit seinem Arm etwa Türen öffnen. Kein Zaubertrank, sondern Sensorik befähigt ihn, auf Erkundungstour zu gehen, eventuelle Opfer zu finden und seine Erkenntnisse live sowie anhand eines Umgebungsmodells zu teilen. Übrigens hat Asterix auch einen kleinen Begleiter, der aber keinen Arm hat: Idefix.
„Asterix ist ein Forschungsdemonstrator für einen sehr kompakten und dennoch sehr geländegängigen Roboter, der mit vielen intelligenten Zusatzfunktionen aus unserer Forschung ausgestattet ist, die bisher nicht in kommerziellen Produkten enthalten sind“, betont Professor Dr. Oskar von Stryk. Der SIM-Leiter zählt hierzu autonome Kartierung unbekannter Umgebungen, autonome Navigation mit Kollisionsvermeidung sowie autonome Überquerung sehr unebenen Geländes. Dem Professor zufolge können alle Funktionen als Assistenzfunktionen für Fernbediener genutzt werden.
Feinfühligkeit ist besonders wichtig
Die Forschungsdemonstratoren kommen aus den Wissenschaftsgebäuden hinaus ins Leben, wenn sie als Teil der Robotics Task Force (RTF) des Deutschen Rettungsrobotik-Zentrums in Übungen und Trainings sowie in echten Einsätzen genutzt werden. Die mit Asterix gewonnenen Forschungsergebnisse und seine grundlegende Sensorik waren in Gestalt des Roboters D2 TIM bereits zweimal im Realeinsatz: Mit der Robotischen Task Force war TIM in Erftstadt nach der Flutkatastrophe, als Drohnen aus der Luft eine Abbruchkante untersuchten. D2 TIM hielt sich vor Ort in Bereitschaft auf, um gegebenenfalls schwierig zugängliche Gebäude zu erkunden.
„In Essen wurden nach einem schweren Wohnhausbrand nicht begehbare Teile des Gebäudes mit TIM untersucht“, berichtet Oehler. Die aufgezeichneten Daten vom Inneren, wie 360-Grad-Panoramabilder und ein 3D-Modell, seien der Polizei zur Aufklärung der Brandursache zur Verfügung gestellt worden. „Wissenschaftler der TU Darmstadt waren mit dem von uns erweiterten Telemax Hybrid als Teil der RTF im Einsatz, um das einsturzgefährdete Gebäude im Inneren zu erkunden und Daten aufzunehmen“, schildert von Stryk die Aufgabenstellung.
TIM sei in Kooperation mit dem gemeinnützigen Verein Deutsches Rettungsrobotik-Zentrum (DRZ e.V.) entstanden, so Oehler. „In Zusammenarbeit mit dem DRZ entwickeln wir in BMBF-geförderten Verbundvorhaben intelligente Autonomie- und Assistenzfunktionen, die den Robotereinsatz im Vergleich zur konventionellen und sehr schwierigen Teleoperation wesentlich effektiver und sicherer machen“, erläutert SIM-Leiter von Stryk.
Als DRZ Telemax dient der Roboter ebenfalls der Forschung. Als kommerzielle Plattform verfügt er über zusätzliche Sensorik. So kann der Bediener intelligente Assistenzfunktionen nutzen.
Die Basisplattform des mobilen Roboters Telemax Hybrid mit Arm komme von der Firma Telerob, erzählt der SIM-Leiter. Bei seinen Jobs ist smarte Feinfühligkeit besonders wichtig: „Der Telemax Hybrid ist ein rein ferngesteuerter Roboter, der sich vielfach für gefährliche Einsätze, beispielsweise bei Bombenentschärfungsmissionen, bewährt hat und dafür zum Beispiel von Bundes- und Landespolizeien eingesetzt wird“, betont von Stryk.