HeliHuBot – Planung und Umsetzung

HeliHuBot ist mein privates Hobby-Projekt, bei dem gerne jeder mitmachen kann. Die einzige Voraussetzung dafür ist Interesse. Ideen und Mitarbeit bei der Umsetzung ist erwünscht. Zur Zeit verwende ich keine Projektmanagement Software und auch kein Version Control System, da sich aktuell der Aufwand nicht dafür steht, allerdings bin ich für jeden Vorschlag offen. Momentan kann nur über den Kommentarbereich kommuniziert werden, aber wenn jemand aktiv mitwirken möchte, richte ich ihm/ihr gerne einen Account hier ein.

Helibot Umsetzung

(die erste Ziffer bezieht sich auf die jeweilige Phase):

Ziel des Projekts: Es soll eine interessante Freizeitbeschäftigung bieten.

Das Gerüst und die Verkleidung des Blechtrottels (das war natürlich als Kosewort gemeint) soll in erster Linie, wie könnte es anders sein aus Blech und Alu bestehen und die groben Teile werden: Kopf, Hals, Torso, Arme und Beine.
Dabei werde ich mich von oben nach unten vorarbeiten und als erstes, sozusagen eine Art Mentalo (wahrsagender Kopf) bauen. Der Hals wird die Kopfbewegung ermöglichen und die Leitungen zum Inhalt des Torsos aufnehmen, wo der Zentralrechner und die Powerstation angesiedelt werden wird.

Die 4 Phasen bis HeliHuBot 1.0 – Artikelübersicht zur Planung und Umsetzung, Ressourcen, Teilziele, Skizzen, Material, und Software

Phase 1

Kopf:
.) Sensorik, Input: Stereoskopisches Sehen mittels 2 Cams, stereo Hören mittels 2 Micros, 1 Lautsprecher, 2 Gleichgewichts- und Beschleunigungssensoren, 3 Temperatursensoren und 3 Drucksensoren – 1 Raspberry Pi, USV
.) Motorik bzw. Output: Reflexantworten mittels erweitertem AIML
Hals:
Hauptsächlich bestehend aus einem Rohr für die Leitungen und einem Kugelgelenk mit Arduino für die Kopfbewegung.
Torso :
Chassis (case, tower) mit vorerst nur Stromversorgung, USV, Powerstation
Phase 1 im Detail mit Links zu den jeweiligen Artikel:
Installation von Raspian und OpenCV am Rasperry und S-USV
Installation von Raspbian und OpenCV auf Raspberry Pi 3; Teil 1
Sensorik –
stereokopes Sehen mittels 2 Pixy-Cams,
stereo Hören mittels 2 Micros,
1 Lautsprecher,
2 Gleichgewichts- und Beschleunigungssensoren,
3 Temperatursensoren und 3 Drucksensoren –
Reflexantworten mittels erweitertem AIML

Phase 2

Einführung von ML (Machine Learninig) bzw. DL (Deep Learning; subfield of ML) und KI (künstliche Intelligenz; AI – Artificial Intelligence), eines Bewertungssystems, Assoziationen über WordNet, Koordination mit Augen- und Kopfbewegug, Kurzzeitgedächtnus und Langzeitgedächtnis, Ereignisprotokolle – 1 NanoPC im Kopf

Phase 3

OpenStack Cloud mit 5 NanoPCs für deep learning und KI im Torso
1 Raspberry und Arduinos für 2 Greifarme

Phase 4

1 Raspberry und Arduinos für 2 Beine – gezielte Fortbewegung

Jede Phase beeinflusst die vorherigen Phasen.

Weitere Weblinks finden sich in den jeweiligen Artikel:
Raspbian
Raspberry Pi 3

Notizen zu Open Source, Linux, Informatik, Physiologie, Dadaichmuss, Umfragen, Satire, außergewöhnlichen Begebenheiten, Weltgeschehen, Lifestyle, Tai Chi …