Interview l Technik für die Gesundheit - Roboter als Pflegehelfer
Ansprechpartner, Trainer, Helfer in der Not - das und mehr sind Pflegende. In Heimen drohen sie aber oft unter den vielen Aufgaben zusammenzubrechen. Wie wäre es, wenn Roboter helfen? Zum Beispiel Fragen von Patienten beantworten, Alarm schlagen bei Gefahr oder als Gedächtnistrainer? Daran forschen Wissenschaftler beim AriA-Projekt im Wissenschaftsjahr 2018. Wir haben mit Informatiker Felix Carros darüber gesprochen, was (seine) Pflegeroboter schon können - und gerade lernen.
Er ist 1,20 Meter groß, hat große Augen und spielt gerne mit Senioren: Roboter Robbie. Der kleine Roboter ist Teil des AriA-Projektes: "Anwendungsnahe Robotik in der Altenpflege" der Universität Siegen und der Fachhochschule Kiel, gefördert vom Bundesministerium für Bildung und Forschung.
Das Projekt ist Teil des Wissenschaftsjahres 2018, in dem es um die Zukunft der Arbeit geht. Robbie und sein "Software-Mitschöpfer" Felix Carros wollen herausfinden, was sozial-interaktive Roboter in Alten- und Pflegeheimen leisten können, wie und unter welchen Umständen sie von den Bewohnern, aber auch den Pflegenden akzeptiert werden und was diese für Wünsche an Robotik in der Pflege haben.
Herr Carros, bei "Robotern in der Pflege" denken viele Menschen vielleicht erst einmal an z.B. Hebehelfer, Entlastung für den Rücken der Pflegenden sozusagen. Ist das für Sie auch der Kern der Robotik in der Pflege zur Zeit?
Ich glaube es gibt nicht den einen Kern, sondern es gibt verschiedene Anwendungen – einmal die entlastende Robotik, das geht dann auch so ein bisschen in die Richtung Industrierobotik. Also das auch schwere Gewichte damit gehoben werden können. Was wir aber machen hat einen anderen Ansatz – wir gehen mehr in das Soziale rein und versuchen Personen zu aktivieren und zu informieren. Diese Roboter können dann aber nicht mehr diese Servicetätigkeiten tun, also jemanden aus dem Bett tragen z.B. – da gibt es im Moment noch unterschiedliche Welten, aber beides hat seine Berechtigung.
Lässt sich das denn nicht verbinden?
Also nach aktuellem Stand noch nicht. Sie haben ja unseren Roboter auf den Bildern gesehen – der spielt ja ein bisschen mit dem Kindchenschema, sieht niedlich aus, ist auch relativ klein, filigrane Finger und so und das tut man alles, damit der Roboter nicht bedrohlich aussieht. Er soll nicht so aussehen, als hätte er Kraft und er hat auch tatsächlich keine Kraft. Jetzt wäre die Kunst einen niedlichen Roboter zu machen, der dann doch viel Kraft hat, dann könnte man beide Welten vereinen, aber das hat man bisher technisch noch nicht hinbekommen.
Was erforschen Sie denn beim AriA-Projekt mit dem Modell Pepper, also Roboter Robbie?
AriA steht ja für "Anwendungsnahe Robotik in der Altenpflege" und das ist ein Projekt, wo wir herausfinden wollen: Wie könnte man so einen Roboter in einem Altenheim überhaupt einsetzen? Dafür programmieren wir Prototypen auf verschiedene Anwendungen, zusammen mit unseren Studenten und dann gehen wir in die Heime und testen, wie die Bewohner darauf reagieren. Wir versuchen dann auch gemeinsam mit den Senioren und den Pflegern Anwendungen zu entwickeln, die nach deren Bedarf dann sind. Da versuchen wir also durch Interaktion ständig dazuzulernen.
Wir machen auch Workshops mit Pflegekräften, auch mit der Öffentlichkeit, mit Angehörigen usw. und das ist Teil des "Wissenschaftsjahres 2018" und das Projekt endet also dann. Wir haben aber schon vor dem Wissenschaftsjahr mit dem Projekt Robotik in der Altenpflege angefangen und bewerben uns jetzt gerade auf neue Forschungsprojekte – es endet nicht alles , weil das Wissenschaftsjahr dann zu Ende ist.
Wie reagieren denn die Menschen, die Senioren, auf den Roboter?
Sehr positiv! Man muss einschränkend natürlich sagen: wir zwingen keinen zum Kontakt. Wir haben aber so 60-70 Prozent der Heimbewohner, die das interessant finden und sich auch sehr schnell drauf einlassen, einfach mitmachen.
Wir dachten, dass ziemlich viel Skepsis am Anfang kommt, aber mit dem aktuellen Stand der Programmierung funktioniert das inwzischen auch in neuen, nicht vertrauten Heimen, ziemlich gut. Bei der Programmierung sind z.B. Anwendungen mit alten Liedern dabei, die man dann mit dem Roboter singen kann oder auch Spiele.
Als wir angefangen haben, war die Akzeptanz noch nicht so groß, da konnte der Roboter nur drei Sätze oder so sprechen und die Bedienung ging nur in Englisch. Aber jetzt haben wir die Anwendungen eben zusammen so nach dem Bedarf dieser Menschen entwickelt, dass sie Spaß dran haben und was damit anfangen können – das hat was verändert.
Was ist denn für Sie bei den Robotern in der Pflege nahe und was ferne Zukunftsmusik?
Nahe Zukunftsmusik sind eigentlich Anwendungen, die immer nur so einen Bereich haben, d.h. zum Gedächtnistraining gibt’s dann eine App, die wie ein Quizspiel aufgebaut ist vielleicht. Also man hat im Endeffekt viele kleine Anwendungen, die aber immer noch in Interaktion mit dem Menschen dann gestartet werden müssen oder vom Pfleger z.B. bestimmt werden. grundsätzlich sind solchen Anwendungen kaum Grenzen gesetzt, bis auf die Tatsache, dass sie halt nicht so komplex sind, also nur eine Sache betreffen.
Was fernere Zukunftsmusik meiner Meinung nach ist: diese ganzen Anwendungen, die man hat dann miteinander zu verbinden. Aber auch dass ein Roboter dynamisch auf sein Umfeld reagieren kann. Also der Roboter ist ja in einem Altenheim in ständig wechselnden Situationen und er müsste dann aus dem Kontext herauslesen können, was gerade passiert und darauf reagieren – das können wir noch nicht, da können wir auch mit einer künstlichen Intelligenz relativ wenig ausrichten.
Haben Sie da ein Beispiel? Was ist zu komplex?
Ja, der Roboter müsste zum Beispiel das Gesicht eines Bewohners erkennen – gut, das kriegen wir heute schon hin. Dann muss er die Emotion des Menschen erkennen – das wird schon schwieriger, vor allem, wenn man in einer Gruppe ist. Vielleicht könnten dann auch symbolische Handbewegungen helfen, wie Abwinken, anstatt dass man sagt "Ich habe keine Lust" – das müsste der Roboter erkennen können und auch, ob das jetzt eine absichtliche oder unabsichtliche Bewegung war. Dann müsste der Roboter noch wissen: In so einer Situation sage ich das und das oder biete eine App an.
Also man bräuchte ganz viele Daten von Fällen, um ein Schema für den Roboter zu definieren und dann müsste er das noch verbinden mit Verhalten in einer Situation – das ist ein bisschen schwierig.
Und der Roboter als zum Beispiel Medikamentengeber oder Erinnerungshelfer – solche Sachen gehen doch schon, oder?
Ja, da gibt’s schon Apps, die das machen, aber unser Roboter ist noch nicht mit Android verbunden – also wir können nicht einfach auf den App-Store zugreifen und was runterladen, sondern müssen immer prototyphaft was selber entwickeln.
Und da ist Medikamentenausgabe für uns ein heikles Feld, weil man weiß ja nicht, ob sich dann doch ein Fehler in die Programmierung einschleichen kann. Am Ende kommt der Roboter noch in einen Loop und sagt immer wieder, man solle ein Medikament nochmal und nochmal nehmen… also deswegen trauen wir uns das zumindest auf der Projektebene, wo wir sind, nicht.
Aber es gibt ja Anwendungen für Android, die das können und man wird sie in Zukunft koppeln können und dann wird es auch ein Stück leichter und kommt in ein Stadium, wo man mehr ausprobieren kann, ohne ein zu großes Risiko einzugehen.
Wie ist das denn in Sachen Software: Könnten Roboter wie Robbie einmal selber Gesten oder Emotionen der Heimbewohner „erlernen“?
Also da sprechen Sie vom Maschine-Learning und Künstlicher Intelligenz: Das ist momentan noch nicht implementiert, also nicht bei unserem Roboter. Es gibt Pepper-Modelle, die arbeiten schon mit künstlichen Intelligenzen. Da ist das zum Beispiel mit Chatbots so: Je mehr man mit ihnen redet, desto besser wird man verstanden, da gibt es klassische Algorithmen.
Es ist immer ein Datenproblem – denn wir können eine künstliche Intelligenz nicht komplett lokal installieren auf dem Roboter. Und das bedeutet: Wir müssen immer eine Internetverbindung haben und es würden dann –gerade im Altenheim ja sensible – Daten weitergegeben an irgendein Servercenter, was vielleicht hier steht, vielleicht auch in den USA… und da machen wir uns noch Gedanken, wie wir das gut lösen können, dass es auf jeden Fall sicher wäre, damit nicht irgendwelche Daten abhandenkommen können in Hände, wo wir das nicht wollen.
Und wir haben noch die einfache Hürde, dass in den meisten Altenheimen nicht unbedingt WLAN ist – eigentlich selten. Eine massive Hürde. Aber da gibt es schon Zusammenarbeiten, also das löst sich gerade, glaube ich.
Wo wünschen Sie sich ihren Roboter in zehn Jahren? Was müsste er unbedingt können?
Im Endeffekt versuchen wir den Pfleger zu unterstützen in seinem Job und da gibt’s viele sich wiederholende Tätigkeiten. Oft werden Pfleger z.B. immer wieder auf das gleiche angesprochen: Was gibt’s heute zu essen? Was gibt’s für Aktivitäten? Und ein Ziel wäre, dass man so einen Informationsassistenten schafft, der den Patienten hilft ihren Alltag zu gestalten und auch bei der 10. Nachfrage immer noch brav antwortet.
Und es gibt ja auch die Möglichkeit den Roboter mit Wearables [kleines Computersytem am Körper, z.B. Smartwatch, A.d.R.] zu koppeln – zum Beispiel wird gerade ein Armband entwickelt, was den Wasserhaushalt misst. Wir würden gern das Armband mit dem Roboter verbinden und wenn das Armband merkt: die Person hat zu wenig Wasser getrunken, dass dann der Roboter auf den Menschen zugeht und sagt: "Trink doch mal was!" Das ist aber eigentlich schon was für die nächsten fünf Jahre.
Herr Carros, vielen Dank für das Gespräch!
Das Interview führte Lucia Hennerici