EPFL-Wissenschaftler entwickeln neue Ansätze für eine verbesserte Steuerung der Roboter-Hände-insbesondere für amputierte — verbindet einzelne finger-Steuerung und Automatisierung für bessere greifen und manipulation. Diese interdisziplinäre proof-of-concept zwischen neuroengineering und Robotik erfolgreich getestet wurde auf drei amputierte und sieben gesunden Probanden. Die Ergebnisse sind veröffentlicht in der heutigen Ausgabe von Nature Machine Intelligence.
Die Technologie vereint zwei Konzepte aus zwei verschiedenen Feldern. Implementieren Sie beide zusammen noch nie zuvor getan hatte für die Roboter-hand-Bedienung und trägt zu dem aufstrebenden Gebiet der gemeinsamen Kontrolle in der Neuroprothetik.
Ein Konzept, das von neuroengineering, umfasst die Entschlüsselung soll-finger-Bewegung, die von Muskelaktivität auf der amputierten ist stumpf für die einzelnen finger zu Steuern, der prothetischen hand, die nie zuvor getan wurde. Die andere, von der Robotik, ermöglicht die Roboter-hand zu helfen, halten von Objekten, und pflegen den Kontakt mit Ihnen für ein robustes greifen.
„Wenn Sie ein Objekt in Ihrer hand, und es beginnt zu rutschen, müssen Sie nur ein paar Millisekunden, um zu reagieren“, erklärt Aude Billard, führt EPFL-Learning-Algorithmen und-Systemen im Labor. „Die Roboter-hand hat die Fähigkeit zu reagieren, innerhalb von 400 Millisekunden. Ausgestattet mit Drucksensoren, die entlang der Finger, kann es reagieren und stabilisieren das Objekt, bevor das Gehirn kann tatsächlich erkennen, dass das Objekt zu rutschen. „
Wie der gemeinsame Steuerung funktioniert
Der Algorithmus, der zuerst lernt, wie zu entschlüsseln, die intention der user und übersetzt diese in den finger-Bewegung von der prothetischen hand. Die amputierten, müssen Sie eine Reihe von Bewegungen der hand, um zu trainieren, den Algorithmus, der verwendet machine learning. Sensoren platziert auf der amputierten ist stumpf erkennen, der Muskeltätigkeit und der Algorithmus lernt, die Bewegungen der hand entsprechen die Muster der Muskelaktivität. Sobald der Benutzer die soll-finger-Bewegungen werden verstanden, können diese Informationen verwendet werden, um die Kontrolle über einzelne Finger der prothetischen hand.
„Weil Muskeln Signale können laut sein, wir brauchen eine machine-learning-Algorithmus, extrahiert sinnvolle Aktivität von Muskeln, und interpretiert diese in Bewegungen,“ sagt Katie Zhuang Erstautor der Veröffentlichung.
Weiter, die Wissenschaftler entwickelt, die den Algorithmus so, dass die Roboter-Automatisierung tritt ein, wenn der Benutzer versucht, zu begreifen, ein Objekt. Der Algorithmus sagt die prothetische hand zu schließen, seine Finger, wenn Sie ein Objekt in Kontakt mit den sensoren auf der Oberfläche der prothetischen hand. Diese automatische greifen ist eine Adaption aus einer früheren Studie für Roboterarme entwickelt, um Rückschlüsse auf die Form der Objekte und fassen Sie auf der Grundlage taktiler information allein, ohne die Hilfe von optischen Signalen.
Viele Herausforderungen bleiben, Ingenieur der Algorithmus, bevor Sie umgesetzt werden können in eine kommerziell verfügbare Handprothese für amputierte. Für jetzt, der Algorithmus ist noch nicht getestet, auf einem Roboter, bereitgestellt durch einen externen Dritten.
„Unser gemeinsamer Ansatz zur Steuerung Roboter-Hände könnte verwendet werden, in mehreren neuroprothetische Anwendungen wie bionische hand-Prothesen und Gehirn-zu-Maschine-Schnittstellen, die Erhöhung der klinischen Wirkung und die Nutzbarkeit von diesen Geräten“, sagt Silvestro Micera, EPFL Bertarelli Foundation Chair in Translational Neuroengineering, und Professor für Bioelectronics an der Scuola Superiore Sant ‚ Anna.