05.12.2017 – Kategorie: Branchen, IT, Technik

Deep Learning: Roboter schauen in die Zukunft

berkeley

Forscher der University of California, Berkeley, haben ein Verfahren entwickelt, mit dem sich Roboter in zukünftige Tätigkeiten besser hineinversetzen können. Roboter können damit Handlungen mit Objekten präfigurieren, die sie noch nie zuvor gesehen haben, allein aufbauend auf zuvor wahrgenommenen Interaktionsmustern.

Forscher der University of California, Berkeley, haben ein Verfahren entwickelt, mit dem sich Roboter in zukünftige Tätigkeiten besser hineinversetzen können. Roboter können damit Handlungen mit Objekten präfigurieren, die sie noch nie zuvor gesehen haben, allein aufbauend auf zuvor wahrgenommenen Interaktionsmustern.

Zukünftig soll das neue Verfahren auch selbstfahrenden Autos dazu verhelfen, das Geschehen auf der Straße zu antizipieren, und dazu beitragen, intelligentere robotische Assistenten für den Haushalt zu entwickeln. Der Prototyp zielt aber erst einmal darauf, einfache händische Fähigkeiten gänzlich aus selbständigem Spiel heraus zu lernen.

Mit der Technologie namens Visual Foresight können Roboter vorhersagen, was ihre Kameras sehen werden, wenn sie eine bestimmte Abfolge von Bewegungen ausführen. Diese robotische Vorstellungsgabe ist derzeit noch recht einfach ausgeprägt, und die Vorhersagen reichen nur wenige Sekunden in die Zukunft. Doch sie genügt dem Roboter, um herauszubekommen, wie er Gegenstände auf einem Tisch ohne störende Hindernisse bewegt. Entscheidend ist, dass der Roboter diese Aufgaben ohne jede menschliche Hilfe erlernt, und ohne vorheriges Wissen über Physik, die Umgebung oder die Art der Objekte. Die visuelle Vorstellungskraft entsteht von Grund auf durch unbeaufsichtigtes und unbeobachtetes Erkunden, indem der Roboter mit den Objekten auf dem Tisch spielt. Nach dieser Spielphase generiert er ein prädiktives Modell der Welt, und kann dieses Modell verwenden, um neue, ihm unbekannte Objekte zu manipulieren.

Wir können uns vorstellen, wie unsere Aktionen Gegenstände in unserer Umgebung bewegen, sagt Sergey Levine, Assistant Professor in Berkeley’s Department of Electrical Engineeing and Computer Sciences, dessen Forschungslabor die Technologie entwickelt hat. Und genauso könne auch ein Roboter präfigurieren, wie sich unterschiedliches Verhalten auf die Umwelt auswirke. Das könne intelligentes Planen hochgradig flexibler Fähigkeiten in lebensechten Situationen ermöglichen.

Das Entwicklerteam demonstriert die Visual-Foresight-Technologie an der Neural Information Processing Systems-Konferenz in Long Beach am 5. Dezember. Den Kern des Systems bildet ein Deep-Learning-Verfahren basierend auf einem rekurrenten neuronalen Netz für Video-Vorhersage oder Dynamic Neural Advection (DNA). DNA-basierte Modelle können aufgrund der Aktionen des Roboters voraussagen, wie sich Pixel in einem Bild von einem Frame zum nächsten bewegen. Die neuesten Verbesserungen für die Art von Modellen und verbesserte Planungskenntnisse haben der Robotersteuerung auf der Grundlage der Videovorhersage dazu verholfen, zunehmend komplexer Aufgaben auszuführen, etwa Spielzeug um Hindernisse herum zu schieben oder mehrere Gegenstände umzustellen.

Chelsea Finn, Doktorandin und Erfinderin des ursprünglichen DNA-Modells erklärt, dass Roboter ihre Fähigkeiten mit einer Aufsichtsperson erlernt haben, die ihnen Hilfestellung und Feedback biete. Nun aber gewinnen Roboter die Fähigkeit, Objekte zu manipulieren, von selbst. Mit dem Verfahren verschiebt ein Roboter Objekte auf einem Tisch und nutzt dann das eingelernte Vorhersagemodell für die Wahl von Bewegungen, die ein Objekt an den gewünschten Ort verfrachten. Der Roboter nutzt die Bilddaten der Kamera, um Hindernisse zu umgehen und Objekte um diese herum zu führen.

Weil sich die Steuerung mithilfe der Video-Vorhersage nur auf automatisch vom Roboter erfasste Beobachtungen verlässt, etwa über Kamerabilder, erweist sich die Methode als allgemein und vielseitig anwendbar. Im Gegensatz zu herkömmlichen Verfahren, für die es oft eine manuelle Kennzeichnung von tausenden Bildern braucht, lassen sich Video-Vorhersagemodelle nur mit unkommentierten Videomaterial aufbauen, das der Roboter weitgehend selbständig einsammelt.

Levine fasst zusammen: „Kinder können ihre Welt durch den Umgang mit Spielzeug erkunden, indem sie es umherbewegen, danach greifen usw. Mit unserer Arbeit wollen wir einen Roboter in die Lage versetzen, dasselbe zu tun: durch selbständiges Handeln erfahren, wie die Welt funktioniert. Die Fähigkeiten dieses Roboters halten sich noch in Grenzen, aber sie wurden gänzlich automatisch erworben. Sie erlauben es ihm, Handlungen mit Objekten zu präfigurieren, die er noch nie zuvor gesehen hat, allein aufbauend auf vorher wahrgenommenen Interaktionsmustern.“

Bild: Still aus dem Video.


Teilen Sie die Meldung „Deep Learning: Roboter schauen in die Zukunft“ mit Ihren Kontakten:


Scroll to Top