1) Heli HuBot – ein neues Projekt

(Last Updated On: 24. Juli 2014)

Wikimedia Commons; Robot Entertainer, Human Statue Bodyart, Bodypainting; Eva Rinaldi from Sydney Australia
Wikimedia Commons; Robot Entertainer, Human Statue Bodyart, Bodypainting; Eva Rinaldi from Sydney Australia
So, jetzt werde ich alle anderen Projekte einstellen und löschen bzw. lassen wie sie sind und mich einem neuen Projekt widmen. Jetzt habe ich endlich kapiert, wie einfach es mit der Web Audio API bzw. Web Audio API und mit HTML5 Video Events and API bzw. Using HTML5 audio and video ginge, meinen Heli-Bot Audio- und Video- Eingänge über einen modernen Browser zu verpassen. Mit E-speak und den AIML-Interpreter, den ich mir schon einigermaßen angpassste (zuerst in PHP, dann in Ruby und zuletzt in Java und Python) könnte ich mit Heli-Bot relativ leicht einen Schritt weiter kommen. Gleichzeitig musste ich aber feststellen, dass alle meine Modelle zu einer integrierten KI, die mit Kategorien arbeiten sollte und hauptsächlich die AIML Dateien und Protokolle zum Scheitern verurteilt sind. Ich will diesen Ansatz nicht weiter verfolgen, da ich ihn für aussichtslos halte, in Bezug auf mein Ex-Ein-Mann-Projekt Heli-Bot. Auf sämtliche Spekulationen, an die Verwendung von Android werde ich zukünftig ebenfalls verzichten. Neuronale Netze hin, künstliche Neurone und selbsttätiges Lernen (geführt und ungeführt) her, ich beginne ganz von vorne mit einem anderen Ansatz, da ich nun zu dem Schluss gekommen bin, dass eine KI, wie ich sie mir vorstelle, ganz anders entwickelt werden muss. Ich richte meinen Blick auf die Natur und den Menschen und beginne ganz primitiv und einfach wie folgt:
Stufe 1:
In einem menschlichen Schädel (Plastik) werden 2 Kameras eingebaut, 2 Mikrophone und ein Lautsprecher. Die Kameras müssen so beweglich sein, wie die menschlichen Augen. Ein Raspberry Pi ist für die Steuerung und Aufzeichnungen vorgesehen. Es wird ununterbrochen aufgenommen und nach einer Stunde wieder überschrieben. Vorerst soll einmal pro Stunde 1 Minute Ton- und Videoaufzeichnung gespeichert werden. Diese Minute wird anfänglich zufällig ausgewählt, sobald Heli HuBot einmal weiß, was für ihn wichtig ist wird sich das ändern.
Eine Bewegung des Schädels mit den Freiheitsgraden die den möglichen Kopfbewegungen des Menschen entspricht soll ebenfalls gleich von Anfang an implementiert werden. Allerdings verwende ich dafür und für die Augen (Kameras) vorerst Stepper, die später durch Muskeln ersetzt werden, damit ich schnell mit der Entwicklung einer geeigneten Reaktion auf optische und akustische Reize beginnen kann.
Stufe 2:
Das Gehirn (1 oder 2 Mini-PCs; Mint Linux) wird in Brust- und Bauchraum angesiedelt, da Atmung und Verdauung sowieso nicht erforderlich ist. Dann wird über SSH im WLAN eine Kommunikationsschnittstelle implementiert und die Grundfunktionen werden programmiert, wobei ich diesmal auf AIML ganz verzichten werde.
Gleichzeitig entwickle ich ideale künstliche Muskeln, die ich am Skelett genau an Ansatz- und Ursprungsstelle befestigen werde. Jetzt weiß ich endlich, wozu ich Anatomie gelernt habe und den Sezierkurs für Mediziner machte. Motoren und Hydraulik kommt nicht in Frage, sondern da habe ich eine ganz einfache, aber ideale Lösung gefunden. Allerdings wird noch getüftelt und bis die ersten Muskeln einsatzfähig sind, wird noch viel Wasser die Donau hinab fließen.
Stufe 3:
Lernen wie ein Kleinkind auf die ganzen Algos für Text-, Objekt- und Stimmerkennung vorerst verzichten; Speichern von Begriffen in Verbindung mit akustischen und optischen Daten. Sprachsynthese; Entwicklung einer Haut mit Thermo- und Drucksensoren. Aber bis dahin habe ich noch Zeit und dann kann ich an dieser Stelle aus frühern Versuchen mit Neuronen und neuronalen Netzen eventuell Teile wieder verwenden. Zuerst möchte ich aber auf alles unnötige verzichten und das große Baby einmal soweit schaukeln, dass es auf Reize reagiert und greifen kann.

Das ist der Eröffnungsartikel mit der Nummer 1 für die Kategorie Heli HuBot. Die Aktivitäten werden großteils hier Dokumentiert in fortlaufenden Artikeln. Leider kann ich das Projekt nicht Open Source machen, denn ich habe ja gesehen, was Google aus Linux für sein Android gemacht hat. Ja, nicht einmal die Muskeln werde ich öffentlich dokumentieren, denn sonst verdient Google die nächsten Mrd. mit meiner Idee. Ich verfolge mit dem Projekt keine wirtschaftlichen Interessen und will nichts verkaufen und nichts damit verdienen, aber ich will auch nicht, dass andere mit meiner Arbeit Unsummen kassieren, daher wird es keinen Open Source geben und meine Idee für die Muskeln bleibt auch geheim. Wenn sie einmal in einer Muskelhaut (Fahrradschlauch wäre ev. geeignet) verpackt sind, werde ich Videos aufnehmen, die sie in Aktion zeigen.

(633)


History

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert