Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Roboter unterrichtet sich, wie man Leute kleidet
{{{sourceTextContent.subTitle}}}
Mehr als 1 Million Amerikaner fordern tägliche körperliche Unterstützung, angekleidet wegen der Verletzung, der Krankheit und des fortgeschrittenen Alters zu erhalten. Roboter konnten möglicherweise helfen, aber Stoff und der menschliche Körper sind komplex.
{{{sourceTextContent.description}}}
Um zu helfen diesen Bedarf, schiebt ein Roboter bei Georgia Institute der Technologie anzusprechen erfolgreich Krankenhauskleider auf den Armen der Leute. Die Maschine benutzt nicht seine Augen, während sie den Stoff zieht. Stattdessen beruht sie auf den Kräften, die sie glaubt, während sie das Kleid auf die Hand einer Person, um den Ellbogen und auf die Schulter führt.
Die Maschine, ein PR2, unterrichtete sich an einem Tag, indem sie fast 11.000 simulierte Beispiele eines Roboters analysierte, der ein Kleid auf einen menschlichen Arm setzt. Einige jener Versuche waren fehlerlos. Andere waren großartige Ausfälle-d simulierter Roboter zutrafen gefährliche Kräfte auf den Arm, als der Stoff auf der der Hand oder dem Ellbogen Person fangen würde.
Von diesen Beispielen lernte das neurale Netz PR2, die Kräfte zu schätzen, die am Menschen aufgewendet wurden. Auf eine Weise ließen die Simulationen den Roboter lernen, was es glaubt wie, um die menschliche empfangende Unterstützung zu sein.
„Leute lernen neue Fähigkeiten unter Verwendung des Versuches und des Fehlers. Wir gaben dem PR2 die gleiche Gelegenheit,“ sagte Zackory Erickson, die Führung Georgia Tech Ph. D.-Student auf dem Forschungsteam. „Tausenden Versuche auf einem Menschen zu tun würde ganz zu schweigen von unmöglich langwierigem gefährlich gewesen sein. Aber an gerade einem Tag, unter Verwendung der Simulationen, lernte der Roboter, eine welche Person möglicherweise sich physikalisch beim Erhalten angekleidet fühlt. “ Der Roboter lernte auch, die Konsequenzen der Bewegung des Kleides auf unterschiedliche Arten vorauszusagen. Etwas Bewegungen stellten das Kleid straff her und stark zogen gegen den Körper der Person. Andere Bewegungen schoben das Kleid glatt entlang den Arm der Person. Der Robotergebrauch diese Vorhersagen, Bewegungen vorzuwählen, die bequem den Arm kleiden.
Nach Erfolg in der Simulation, versuchte das PR2, Leute zu kleiden. Teilnehmer saßen vor dem Roboter und aufgepasst, während er ein Kleid hielt und es auf ihre Arme schob. Eher als Vision, verwendete der Roboter seinen Tastsinn, die Aufgabe durchzuführen, die basierte auf, was er über Kräfte während der Simulationen lernte.
„Der Schlüssel ist, dass der Roboter immer voran denkt,“ sagte Charlie Kemp, einen außerordentlichen Professor in Wallace H. Coulter Department der biomedizinischen Technik bei Georgia Tech und Emory University und das Führungsmitglied des lehrkörpers. „Er bittet sich dass, ‚, wenn ich das Kleid auf diese Weise ziehe, er mehr oder weniger verursacht auf der Person‘ s-Arm zwingt? Was würde geschehen, wenn ich diese Weise stattdessen gehe? ‚“
Die Forscher unterschieden sich das TIMING des Roboters und ließen es ein Fünftel an eine Sekunde in die Zukunft beim Strategizing an seinen nächsten Schritt soviel wie denken. Kleiner als das den Roboter verursacht, zum häufig auszufallen.
„Können mehr Roboter über uns verstehen, mehr sie fähig, uns zu helfen sind,“ sagte Kemp. „, indem die Vorhersage der körperlichen Auswirkungen ihrer Aktionen, Roboter, kann Unterstützung gewähren, die sicherer effektiver ist, bequemer und.“
Der Roboter setzt z.Z. das Kleid auf einen Arm. Der Gesamtprozess dauert ungefähr 10 Sekunden. Das Team sagt, dass eine Person völlig zu kleiden etwas ist, das viele Schritte weg von dieser Arbeit ist.
Ph.D.-Student Henry Clever und Professoren Karen Liu und Greg Turk auch beigetragen zur Forschung. Ihr Papier, tiefes haptisches Modell Predictive Control für Roboter-Unterstützen Behandlung, wird 21. bis 25. Mai in Australien während der Internationalen Konferenz auf Robotik und Automatisierung (ICRA) dargestellt. Die Arbeit ist ein Teil einer größeren Bemühung auf der Roboter-unterstützten Behandlung, die durch die National Science Foundation (NSF) finanziert wird und durch Liu, die geführt ist.