Sicherheitsstrategien für die Mensch/Roboter-Kooperation und -Koexistenz (SIMERO-2)
Zusammenfassung der Projektergebnisse
Menschen sind geschickt bei komplizierten manuellen Tätigkeiten und können sehr flexibel auf unbekannte Situationen reagieren. Industrieroboter sind sehr stark, schnell, ausdauernd und positionsgenau. Durch die enge Zusammenarbeit von Mensch und Roboter können die verschiedenen Stärken kombiniert werden. Das Ziel des SIMERO-Projekts ist die Analyse, Entwicklung und Auswertung von Konzepten zur sicheren Koexistenz und Kooperation von Mensch und Roboter. Bei der Koexistenz befinden sich Mensch und Roboter in einem gemeinsamen Arbeitsraum und führen unabhängige Aufgaben durch. Bei der Kooperation arbeiten sie zusammen an der Erfüllung einer gemeinsamen Aufgabe. Zur Lösung der Aufgabe wird die aktuelle Situation in der Roboterarbeitszelle durch mehrere hochauflösende Kameras aus unterschiedlichen Richtungen erfasst und daraus mitlaufend eine dreidimensionale Rekonstruktion der Szene erstellt. Diese Rekonstruktion wird durch Zusatzwissen bereinigt von Artefakten, welche das Kamerarauschen mit sich bringt. Basierend auf mehreren Full-HD-Farbkameras kann eine Szene mit einer Auflösung von einer Milliarde Volumenelementen und mit Videobildrate (30 Hz) mitlaufend dargestellt werden. Basierend auf dieser Szenenerfassung ist es dem Roboter nun möglich, parallel dazu seine zukünftigen Bewegungen zu planen und auszuführen. Diese Bewegungen minimieren ein allgemeines Risiko. Diese Optimierung kann dazu genutzt werden, um beispielsweise kollisionsfreie Roboterbewegungen zu planen, seine Geschwindigkeit in Hindernisnähe zu reduzieren oder um kürzeste bzw. schnellste Wege für den Roboter zu berechnen. Ist der Roboter mit zusätzlichen Sensoren für externe Kräfte ausgestattet (z. B. ein Kraft/Moment-Sensor in der Handwurzel), dann kann er dem Menschen erlauben ihn zur Führung „an die Hand“ zu nehmen. Damit sind die vier prinzipiellen Modi der Mensch/Roboter-Kooperation realisierbar. Diese Kooperationsmodi unterscheiden sich darin, ob der Roboter sich frei nach seinem Programm oder vom Menschen geführt bewegt und ob sich der Roboter in großem Hindernisabstand befindet oder in Kontakt mit einem Szenenobjekt ist. Die Anwendungen der erzielten Ergebnisse liegen beispielsweise in den Bereichen der Automatisierungs-, Sicherheits- und Überwachungstechnik sowie in der Servicerobotik. Über die Forschungsergebnisse wurde auch mehrfach in den Medien berichtet.
Projektbezogene Publikationen (Auswahl)
-
„Human-robot cooperation: Safe pick-and-place operations“, 14th IEEE International Workshop on Robot and Human Interactive Communication (ROMAN’05), Nashville, August 13-15 2005
Gecks T., Henrich D.
-
“Velocity control for safe robot guidance based on fused vision and force/torque data”, IEEE Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI'06), Heidelberg, September 3-6, 2006
Kuhn St., Gecks Th., and Henrich D.
-
„Modelling intuitive behavior for safe human/robot coexistence and cooperation“, IEEE International Conference on Robotics and Automation (ICRA’06), Orlando, May 15-19, 2006
Henrich D., Kuhn S.
-
„Fast Vision-Based Minimum Distance Determination Between Known and Unkown Objects“, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’07), San Diego, Oct. 29 – Nov. 2, 2007
Kuhn S., Henrich D.
-
„Path Planning and Execution in Fast-Changing Environments with Known and Unknown Obstacles“, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS'07), San Diego, Oct. 29 – Nov. 2, 2007
Gecks Th., Henrich D.
-
„Multi-Camera Collision Between Known and Unknown Objects“, Second ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC’08), Stanford University, California, September 7-11, 2008.
Henrich D., Gecks Th.
-
“Multi-View Reconstruction of Unknown Objects within a Known Environment”, 5th International Symposium on Visual Computing (ISVC'09), Las Vegas, Nov 30. – Dec 2. 2009
Kuhn St., Henrich D.
-
“Surveillance of Robots using Multiple Colour or Depth Cameras with Distributed Processing”, Third ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC'09), Como/Italy, August 30. - September 2nd, 2009
Fischer M., Henrich D.
-
„Optimal camera placement to measure distances regarding static and dynamic obstacles”, International Journal of Sensor Networks (IJSNET), vol 12, no 1, 2012
Hänel M., Kuhn M., Henrich D., Grüne L., Pannek J.
-
„Efficient and Precise Multi-Camera Reconstruction“, Eighth ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC’14), November 4-7, 2014, Venetia.
Werner T., Henrich D.
-
“Efficient graphics processing unit– based voxel carving for surveillance”, Journal of Electronic Imaging, Volume 25, Issue 4, Juli, 2016
Ober-Gecks A., Zwicker M., Henrich D.
-
„Neural Networks for Real-Time, Probabilistic Obstacle Detection“, 26th International Conference on Robotics in Alpe- Adria-Danube Region (RAAD), June 21-23, 2017.
Werner T., Bloeß J., Henrich D.