'Finger
HeimHeim > Blog > 'Finger

'Finger

Aug 21, 2023

Vom Atlas von Boston Dynamics bis zum SayCan von Google verfügen die meisten handgeführten Roboter nicht über die nötige Geschicklichkeit, um zu „fühlen“, was sie halten. (Wenn sie es täten, wäre einem 7-jährigen Jungen letztes Jahr vielleicht nicht der Finger von einem Schachroboter geschnippt worden.) Einen Roboter dazu zu bringen, ein Objekt zu „sehen“, sich darauf zuzubewegen und es zu greifen, ist schon kompliziert genug; Die Fähigkeit, dieses Objekt zu fühlen und seinen Griff entsprechend anzupassen, ist eine ganz andere Herausforderung. Doch nach fünf Jahren des Experimentierens scheint einer Forschergruppe der Columbia University genau das gelungen zu sein.

In einem Artikel, der über arXiv (ein Server für Vorabdrucke von wissenschaftlichen Zeitschrifteneinträgen) geteilt wurde, sagen Informatiker und Maschinenbauingenieure, dass sie eine Roboterhand gebaut haben, die taktiles und propriozeptives Feedback nutzt. Unter Propriozeption versteht man die Fähigkeit, Bewegungen und Standorte körperlich wahrzunehmen. Während sie üblicherweise in Bezug auf die Muskeln und Gelenke von Lebewesen diskutiert wird, beweist die Roboterhand, dass sie nicht nur auf Tiere beschränkt ist. Gepaart mit der Fähigkeit, taktiles Feedback zu nutzen, ermöglicht die Propriozeption der Roboterhand, das von ihr gehaltene Objekt zu spüren und ihren Griff ohne Hilfe einer passiven Auflagefläche, wie eines Tisches, entsprechend anzupassen.

Das Team schreibt, dass sie Reinforcement Learning (RL) gepaart mit Sampling-based Planning (SBP)-Algorithmen verwendet haben, um den Roboter zu trainieren. Mithilfe von RL erhielt der Roboter „Belohnungssignale“, wenn er etwas tat, was die Forscher wollten, und er „schimpfte“, wenn er etwas tat, was er nicht tun sollte. Technisch gesehen hätte das Team RL allein verwenden können, aber da diese Technik Raum für Fehler lässt – die kleinste Abweichung von den erwarteten „Sollten“ und „Sollten nicht“ würde sie zum Scheitern bringen – verwendeten sie SBP als Ergänzung. Jedes Mal, wenn der Roboter dafür belohnt wurde, dass er etwas tat, was er tun sollte, ermöglichte ihm SBP das Hinzufügen eines Zweigs zu einem ständig wachsenden digitalen Web, das als eine Reihe von Auswahlmöglichkeiten dient, die der Roboter durchgehen kann, wenn sich eine neue Gelegenheit bietet.

Dieses Training ebnet den Weg für eine Roboterhand, die weit mehr kann, als nur Gegenstände aufzuheben. Nachdem er etwas erfasst hat, kann der Roboter des Columbia-Teams seine propriozeptiven Fähigkeiten nutzen, um den Kern dessen zu erfassen, was er in der Hand hält. Dadurch kann der Roboter anpassen, wie viel Druck er ausübt, um den Halt aufrechtzuerhalten. Der Roboter kann auch „Fingergang“ betreiben, bei dem er einzelne Finger bewegt, um das, was er hält, besser zu greifen. Während er sich anpasst, hält der Roboter mindestens drei Finger auf dem Objekt, um zu verhindern, dass es herunterfällt, sodass keine Tische oder andere Oberflächen erforderlich sind. Da der Roboter nicht auf einen visuellen Sensor angewiesen ist, ist er in der Lage, den Halt im Dunkeln genauso anzupassen und aufrechtzuerhalten wie in einem gut beleuchteten Bereich.

Die Roboterhand ist genau das – eine Hand – also haben wir noch einen langen Weg vor uns, bis wir humanoide Roboter sehen, die ähnliche Techniken anwenden, um zu „fühlen“, was sie halten. Sobald wir diesem Punkt jedoch näherkommen, werden wir möglicherweise leistungsfähigere Helferroboter sehen, die Objekte besser greifen, halten und deren Position anpassen können als ihre heutigen Vorgänger.