Rocket Labs

R1 // Von Roadmaps und Einkäufen für einen Droiden

Wir bauen einen Droiden! In unserem Artikel http://www.poprocket.com/liftoff-fuer-pop-rocket-labs hatten wir den Hintergrund für unsere Motivation beschrieben. Aber wie geht man dabei vor und was brauchen wir dazu eigentlich alles?

Wir brauchen eine Roadmap und Material.

Halten wir nochmal grob fest, was der Robot ‚R1‚ alles können soll: „Ein Droide der sich wirklich autonom bewegt, der durch den Einsatz von Augmented Reality sein virtuelles Wesen zeigt und auf uns Menschen reagiert, und der auch Videobotschaften in guter Qualität in den Raum projiziert. Das sind unsere ersten Zielsetzungen. Weitere Features werden sich im Laufe der Entwicklung dazugesellen.“

Außer unseren schönen Büroräumen und unseren Notebooks, haben wir noch nichts vor Ort, um eine Werkstatt für Mixed Reality zu betreiben.

Was brauchen wir alles? Richard und Jan haben eine Shopping-Liste erstellt:

Robot/Raspberry Platform:

  • Robot Chassis 6 Wheeler (https://www.piborg.org/diddyborg/rededition)
  • Raspberry Pi 2
  • Start-Set für Raspberry Elektronik
  • Raspberry-Pi-GPIO-Stecker/ Raspberry-Pi-GPIO-Kabel
  • Raspberry Pi Camera Module
  • USB Bluetooth
  • USB Wifi Module
  • SD Card
  • 3 x 8er Pack (24) AA Recharge-Batteries

Werkzeug/Material für’s Pop Rocket Lab:

  • Lötstation (feine und ’normale‘ Lötspitzen)
  • Multimeter
  • Abisolierzange
  • Feine + ’normale‘ Schraubenzieher (+/-/Torx)
  • Pinzetten (gerade und gebogen)
  • Seitenschneider (’normal‘ und ‚klein‘)
  • Kleine (Greif-)Zangen (gerade und gebogen)
  • Ordentliches Messer
  • Kleine, feine Feilen (‚Nadelfeilen‘)
  • Lupe
  • stabile Schere
  • Steckschlüssel- und Bitsatz
  • 5.5mm Schrauber
  • Lötzinn
  • Kabel (verschiedene Durchmesser, Farben)
  • Isolierband
  • Werkzeugkoffer
  • Werkbank
  • 2x GoPro 3 (für die Fortschrittsdokumentation)

Eine Menge Material. Die teils kleinteilige Sammlung kann sich durchaus sehen lassen:  

Alles klar, das Material ist nun vorhanden! Und wie gehen wir nun weiter vor? Was wollen wir alles erreichen?

Folgende, teils parallelisierte Roadmap ist dabei vorläufig und wird von uns im Laufe der Entwicklung angepasst und erweitert:

STEP 1 // Roboterplattform fernsteuerbar
Ziel: Fernsteuerbare Roboterplattform als Basis für weitere Entwicklungen

  • Hardware-Basis zusammensetzen
  • Roboter steuerbar via Web-Interface
  • Roboter steuerbar über Controller (PS3 Controller)

Update: Check, haben wir schon erledigt! Siehe Videobeleg:

 

STEP 2 // Client-Server Infrastruktur für Logik-Module

Ziel: Auf der Roboterplattform findet nur die Sammlung von Sensordaten und Ansteuerung der Hardware statt. Auswertung und Handlungslogik wird über einen externes zentrales Serversystem geleistet.

  • Client-API zur Steuerung der Roboter-Einheit
  • Übermittlung der Sensordaten und weiterer Informationen (z.B. Kamerabilder) an den Logik-Server
  • Serverseitige Logikverarbeitung
  • Übermittlung der Handlungsbefehle an die Roboter-Einheit

 

STEP 3 // Vom Roboter zum Droiden: Erste AR-Visualisierung

Ziel: Gestaltung, Umsetzung und Darstellung eines digitalen Charakters, der die Roboter-Basis-Plattform durch AR-Technologie erweitert und als Droiden „zum Leben“ erweckt

  • Entwicklung einer AR-App zur Darstellung des Characters
  • Evaluierung des für den Roboter geeignetsten Tracker-Systems
  • Characterdesign des Droiden
  • 3D-Umsetzung des Droiden
  • Erste Animationen: Idle (stehend)

 

STEP 4 // Verbindung AR und Roboterplattform

Ziel: Der AR-Character soll sich entsprechend der Bewegung der Roboterplattform bewegen/verhalten

  • zusätzliche Animationen: Beschleunigen, Bremsen, Idle (stehend), Idle (fahrend), Drehung links, Drehung rechts
  • Anbindung der App an die Serverlogik -> Handlungsbefehle an die Plattform gehen auch an die App, d.h. wenn die Plattform beschleunigt, wird auch die entsprechende Animation angezeigt

 

STEP 5 // Reaktiver AR-Charakter

Ziel: Über die App kann man mit dem Character interagieren

  • zusätzliche Animationen und Emotionen: Freude, Trauer, Anschauen etc.
  • Interaktion I: über einen Button kann man den Droiden rufen -> er schaut direkt in die Kamera
  • Interaktion II: nachdem man ihn gerufen hat, kann man den Droiden über einen Button belohnen -> er freut sich

 

STEP 6 // AR Synchronized World

Ziel: Schaut man mit verschiedenen App-Installation auf den Roboter sehen alle User die gleiche 3D-Visualisierung des Droiden

  • Beispiel: User A ruft den Droiden und belohnt ihn, so dass dieser sich freut. User B kann diese Szene beobachten und sieht dass der Droide User A zunächst anschaut (wurde gerufen) und sich anschließend freut (wurde belohnt)
  • Situationslogiken: Plausible Handhabung von konkurrierenden Interaktionen -> was passiert wenn der Roboter von mehreren Nutzern gerufen wird?

 

STEP 7 // Real World Projektion und Kommunikation

Ziel: Der Droide kann dem User eingehende Nachrichten übermitteln und in den Raum projizieren

  • Beispiel: Der User erhält eine Videonachricht von einem Freund. Der Droide erkennt den User und fährt in dessen Nähe. Im Anschluss projiziert er mit einem eingebauten Mini-Beamer die Videonachricht in den Raum

 

Step 8+ // TBD

Weitere Schritte gilt es noch zu definieren, bspw. die autonome Bewegung. Der vorläufige Scope ist bis hierhin schon gut gefüllt.

Es gibt viel zu tun. Und es wird ein Projekt, welches uns sicher das ganze Jahr über begleiten wird.

Wir haben derweil mit den Visualisierungen des Droiden begonnen und berichten hierzu im nächsten Artikel. Danke für’s Zuhören 🙂