"Was ist das jetzt genau?”"
""Das ist zum Koppeln mit dem Roboter später.”"
""Also der misst dann quasi an meinem Handgelenk und vorne an meinen Fingerknöcheln, was ich gerade machen möchte?”"
""Genau. Dann koppeln wir uns hier wieder mit den Roboterarmen an."
Die Ingenieurin Dr. Angelika Peer, Mitarbeiterin des Sonderforschungsbereichs 453 der TU München, zieht mir gerade Spezialhandschuhe über und verdrahtet sie mit einem beweglichen Stahlgerüst. Außerdem stülpt sie mir einen schweren 3D-Sicht-Helm auf. Vor mir sehe ich den Nebenraum. Ich schaue an mir runter und erblicke nicht meine Hände, sondern zwei Metallarme mit zwei kleinen flachen Greiffingern. Eine Mitarbeiterin schüttelt mir meine Roboterhand.
"Also wenn sie jetzt auf meine Fingerchen drückt, dann spür ich das aber im Handgelenk. Sie kann mir jetzt schon was geben, wenn sie möchte."
"Ja. Carolina?"
Carolina gibt mir einen Metallbolzen in den Greifarm, den ich dann in das zugehörige Loch einführen soll. Ich muss dazu nur Zeigefinger und Daumen zusammendrücken und der Befehl wird per Internet zu dem Roboter übertragen. Durch Rückkopplungen wir mir dann vorgegaukelt, ich hätte den Metallbolzen tatsächlich in der Hand. Normalerweise werden bei solchen Teleoperationen natürlich viel komplizierte Aktionen ausgeführt, als Bolzen A in Loch B zu stecken. Professor Gerhard Hirzinger vom Deutschen Zentrum für Luft- und Raumfahrt in Oberpfaffenhofen bei München arbeitet zusammen mit den Wissenschaftlern der TU München an den verschiedensten Telepräsenz-Systemen.
"Die Telepräsenz hat viele Anwendungen. Es geht immer wieder um die Möglichkeit, das Gefühl zu haben, als wäre ich an einem entfernten Ort, an den ich normalerweise aber nicht hinkomme. Also im Weltraum ist es eben die unwirkliche Umgebung, im Nuklearbereich wäre es die Strahlung, in der Unterwassertechnik ist es das Problem der großen Drücke in großen Tiefen. Und in der Chirurgie ist es die Möglichkeit, im Körper zu operieren, ohne den Körper großflächig aufschneiden zu müssen."
Minimal-invasive Operationen werden schon seit einigen Jahren durchgeführt. Ein Chirurg steuert dabei dünne Roboter im Körper des Patienten. Über ein Endoskop kann er seinen Eingriff visuell verfolgen und kontrollieren. Die bayerischen Forscher gehen einen Schritt weiter. Sie benutzen das Endoskop, um zukünftig Operationen am schlagenden Herzen durchführen zu können – bislang muss es dazu stillgelegt werden.
"Das Endoskop wird automatisch nachgeführt, so wie sich die beiden Roboter bewegen, das braucht kein Kameraassistent mehr machen. So, jetzt überträgt das Endoskop quasi ein Bild eines schlagenden Herzens. Das wird ausgewertet, und dann kommandiert man diese Bewegung den beiden Operationsrobotern, dann machen die die Herzbewegung automatisch mit. Dann hat man ein Bild auf dem sich das Herz bewegt und zwei Roboter. Und dann kann man das Bild elektronisch stabilisieren. Der Chirurg sieht nur mehr ein stillstehendes Herz und stillstehende Roboter. In Wirklichkeit bewegen sich aber Herz und Roboter synchron miteinander weiter."
Die Forscher arbeiten neben der visuellen an einer haptischen, also gefühlten Kontrolle. Das heißt im Fall der Operation, dass der Chirurg Widerstand auf seinen Händen verspürt, wenn die Greifer im Körper an etwas stoßen – ähnlich wie ich den Metallbolzen in meiner Hand gespürt habe, obwohl ich ihn gar nicht in der Hand hatte. Der Arzt hat somit den Vorteil einer direkten OP: Er spürt, was er macht. Diese haptische Rückkopplung kann für andere Anwendungsbereiche soweit ausgebaut werden, dass man sogar raue und glatte Oberflächen über die Maschinenhand erfühlen kann.
"Für die Fingerspitze benutzt man Vibrationselemente. Da hat man so Matrizen von so kleinen Pins, die dann die Fingerspitze gezielt stimulieren können und dadurch kann man Berührungseindrücke zurück koppeln.",
beschreibt Professor Martin Buss vom Lehrstuhl für Steuerungs- und Regelungstechnik der TU München und Sprecher des Sonderforschungsbereichs 453. Der Forschungsbereich hat in den letzten zwölf Jahren ganz verschiedene Systeme der Telepräsenz entwickelt. Mit dem einen kann man sich beziehungsweise einen Roboter durch den entfernten Raum bewegen, mit einem anderen kann man Geräusche so orten, als wäre man persönlich da. In den kommenden drei Jahren will man sich um konkrete Anwendungen kümmern. Dabei beschränken sich die Forscher nicht nur auf Chirurgie und Weltallprojekte, sondern erarbeiten zusammen mit der Industrie auch ganz alltägliche Dinge.
"Das sind sehr konkret motivierte Projekte. Also ein Beispiel ist die Haptik von Bedienungselementen bei Fahrzeugen. Da geht es also wirklich um die Haptik, das Gefühl wenn man Bedienelemente bedient im Auto. Drehknöpfe, Tasten und so weiter. Also dieses Gefühl genauer zu verstehen und dadurch ein systematischeres Design der Elemente zu erreichen."
Das heißt aber nicht, dass man irgendwann mit verdrahteten Händen und 3D-Helm im Auto sitzt. Wie und was für Knöpfe und Tasten im Auto der Zukunft bedient werden, bleibt abzuwarten.
""Das ist zum Koppeln mit dem Roboter später.”"
""Also der misst dann quasi an meinem Handgelenk und vorne an meinen Fingerknöcheln, was ich gerade machen möchte?”"
""Genau. Dann koppeln wir uns hier wieder mit den Roboterarmen an."
Die Ingenieurin Dr. Angelika Peer, Mitarbeiterin des Sonderforschungsbereichs 453 der TU München, zieht mir gerade Spezialhandschuhe über und verdrahtet sie mit einem beweglichen Stahlgerüst. Außerdem stülpt sie mir einen schweren 3D-Sicht-Helm auf. Vor mir sehe ich den Nebenraum. Ich schaue an mir runter und erblicke nicht meine Hände, sondern zwei Metallarme mit zwei kleinen flachen Greiffingern. Eine Mitarbeiterin schüttelt mir meine Roboterhand.
"Also wenn sie jetzt auf meine Fingerchen drückt, dann spür ich das aber im Handgelenk. Sie kann mir jetzt schon was geben, wenn sie möchte."
"Ja. Carolina?"
Carolina gibt mir einen Metallbolzen in den Greifarm, den ich dann in das zugehörige Loch einführen soll. Ich muss dazu nur Zeigefinger und Daumen zusammendrücken und der Befehl wird per Internet zu dem Roboter übertragen. Durch Rückkopplungen wir mir dann vorgegaukelt, ich hätte den Metallbolzen tatsächlich in der Hand. Normalerweise werden bei solchen Teleoperationen natürlich viel komplizierte Aktionen ausgeführt, als Bolzen A in Loch B zu stecken. Professor Gerhard Hirzinger vom Deutschen Zentrum für Luft- und Raumfahrt in Oberpfaffenhofen bei München arbeitet zusammen mit den Wissenschaftlern der TU München an den verschiedensten Telepräsenz-Systemen.
"Die Telepräsenz hat viele Anwendungen. Es geht immer wieder um die Möglichkeit, das Gefühl zu haben, als wäre ich an einem entfernten Ort, an den ich normalerweise aber nicht hinkomme. Also im Weltraum ist es eben die unwirkliche Umgebung, im Nuklearbereich wäre es die Strahlung, in der Unterwassertechnik ist es das Problem der großen Drücke in großen Tiefen. Und in der Chirurgie ist es die Möglichkeit, im Körper zu operieren, ohne den Körper großflächig aufschneiden zu müssen."
Minimal-invasive Operationen werden schon seit einigen Jahren durchgeführt. Ein Chirurg steuert dabei dünne Roboter im Körper des Patienten. Über ein Endoskop kann er seinen Eingriff visuell verfolgen und kontrollieren. Die bayerischen Forscher gehen einen Schritt weiter. Sie benutzen das Endoskop, um zukünftig Operationen am schlagenden Herzen durchführen zu können – bislang muss es dazu stillgelegt werden.
"Das Endoskop wird automatisch nachgeführt, so wie sich die beiden Roboter bewegen, das braucht kein Kameraassistent mehr machen. So, jetzt überträgt das Endoskop quasi ein Bild eines schlagenden Herzens. Das wird ausgewertet, und dann kommandiert man diese Bewegung den beiden Operationsrobotern, dann machen die die Herzbewegung automatisch mit. Dann hat man ein Bild auf dem sich das Herz bewegt und zwei Roboter. Und dann kann man das Bild elektronisch stabilisieren. Der Chirurg sieht nur mehr ein stillstehendes Herz und stillstehende Roboter. In Wirklichkeit bewegen sich aber Herz und Roboter synchron miteinander weiter."
Die Forscher arbeiten neben der visuellen an einer haptischen, also gefühlten Kontrolle. Das heißt im Fall der Operation, dass der Chirurg Widerstand auf seinen Händen verspürt, wenn die Greifer im Körper an etwas stoßen – ähnlich wie ich den Metallbolzen in meiner Hand gespürt habe, obwohl ich ihn gar nicht in der Hand hatte. Der Arzt hat somit den Vorteil einer direkten OP: Er spürt, was er macht. Diese haptische Rückkopplung kann für andere Anwendungsbereiche soweit ausgebaut werden, dass man sogar raue und glatte Oberflächen über die Maschinenhand erfühlen kann.
"Für die Fingerspitze benutzt man Vibrationselemente. Da hat man so Matrizen von so kleinen Pins, die dann die Fingerspitze gezielt stimulieren können und dadurch kann man Berührungseindrücke zurück koppeln.",
beschreibt Professor Martin Buss vom Lehrstuhl für Steuerungs- und Regelungstechnik der TU München und Sprecher des Sonderforschungsbereichs 453. Der Forschungsbereich hat in den letzten zwölf Jahren ganz verschiedene Systeme der Telepräsenz entwickelt. Mit dem einen kann man sich beziehungsweise einen Roboter durch den entfernten Raum bewegen, mit einem anderen kann man Geräusche so orten, als wäre man persönlich da. In den kommenden drei Jahren will man sich um konkrete Anwendungen kümmern. Dabei beschränken sich die Forscher nicht nur auf Chirurgie und Weltallprojekte, sondern erarbeiten zusammen mit der Industrie auch ganz alltägliche Dinge.
"Das sind sehr konkret motivierte Projekte. Also ein Beispiel ist die Haptik von Bedienungselementen bei Fahrzeugen. Da geht es also wirklich um die Haptik, das Gefühl wenn man Bedienelemente bedient im Auto. Drehknöpfe, Tasten und so weiter. Also dieses Gefühl genauer zu verstehen und dadurch ein systematischeres Design der Elemente zu erreichen."
Das heißt aber nicht, dass man irgendwann mit verdrahteten Händen und 3D-Helm im Auto sitzt. Wie und was für Knöpfe und Tasten im Auto der Zukunft bedient werden, bleibt abzuwarten.