Schlagwort-Archive: Google Brain

Google Brain – keine Angst vor Skynet

Wikimedia Commons; Robot Entertainer, Human Statue Bodyart, Bodypainting; Eva Rinaldi from Sydney Australia Wikimedia Commons; Robot Entertainer, Human Statue Bodyart, Bodypainting; Eva Rinaldi from Sydney Australia

In dem Artikel „Maschinelles Lernen: Google Brain gegen Titan Z“ meint Roland Austinat, dass wir noch keinen Grund haben, ein etnstehndes Skynet befürchten zu müssen. Also bitte, bei diesem Ansatz haben wir Grund anzunehmen, dass ein Taschenrechner schon gescheiter ist, als die gesamte Google-Weltelite, denn ich zitiere aus dem Artikel:

Dabei handelt es sich um 1000 CPU-Server mit 2000 CPUs beziehungsweise 16.000 Kernen, die eine Milliarde Synapsen simulieren – bei einem Kostenpunkt von 5 Millionen US-Dollar und einem Energiebedarf von 600 kW. Drei Tage lang lief das Google Brain und untersuchte dabei zehn Millionen 200 × 200 Pixel große Fotos auf Gemeinsamkeiten. Am Ende des Testlaufs stellten die Forscher fest: Das System hatte in zwei Tagen viele Gesichter von Menschen und Katzen gesehen und gelernt, diese zu erkennen.

Wieviel kW braucht mein Gehirn, um eine Katze zu erkennen? Ich halte diesen Ansatz einfach für ungeeignet. Ein paar Zeilen genialer Code wäre erforderlich, der die Ausbildung und Umformung eines Konnektoms bewirkt, sodass sich ein künstliches, neurales Netz selbstständig, permanent hinsichtlich Verbindungen und Parameter (Gewichtung, Verstärkung, Hemmung) optimiert.
Es gibt viele gute Ansätze zur Verarbeitung in der KI, ich denke gerade an Word-Net, IC-Analyse, Phrasenstrukturgrammatik, HPSG, Generative Grammatik, deep learning, … und unzählige gute, bereits vorhandene KI-Programme aus den verschiedensten Bereichen.

Leider gibt es aber kaum Ansätze zur Bewertung der Information, die eine KI erhält, also was zu vergessen ist und was wie lange und weshalb gespeichert werden muss und welchen Wert es für die KI hat. Mein Gehirn weiß, dass es den Großteil der Infos, die von Receptoren kommen, sei es nun das Auge, Ohr, die Temperatur oder Drucksensoren, überhaupt nicht beachten muss.

Allerdings muss man auch bedenken, dass das Google Brain in 2 Tagen „Gesichter“ und „Katzen“ erkennen lernte. Ein zwei Tage altes Baby wird das wohl kaum schaffen, auch wenn das TV-Gerät ununterbrochen neben ihm läuft.

Meine KI, Heli-Bot, wird daher ganz anders konzipiert.
.) Er/Sie/Es bzw. er, der Android, muss mit der Energie, die umgerechnet ungefähr den Tagesbedarf eines Menschen in Joule etspricht, auskommen und zwar für Sensoren, Recheneinheiten und inklusive Bewegung und Fortwewegung.
.) Er muss in etwa die Informationen bekommen, die ein Mensch bekommt (Sehen, Hören, Temperatur, Druck, Stellung aller Teile im Raum, Beschleunigung der Teile und des Ganzen im Raum…, aber er braucht nur einen kleinen Teil davon verarbeiten.
.) Er muss Dinge und sich selbst bewegen können.
.) Er muss (be-)greifen und tasten können.
.) Er muss sich als Summe aller Hard- und SW-Teile und gespeicherten Daten verstehen und sich mit jedem dieser Teile identifizieren.
.) Er muss sich großteils selbst warten und reparieren können.
.) Er muss sich selbst 1:1 nach bauen, reproduzieren, können.
.) Er muss „träumen“ können, also in den Phasen, in denen er nicht voll ausgelastet ist, muss er Erlebtes verarbeiten, Assoziationen bearbeiten und neue herstellen. Das Konnektom verändern bzw. optimieren.
.) Er muss Freude, Leid, Schmerz, unangenehm und angenehm kennen, was ja nicht schwer zu implementieren ist und vor allem muss er ein aller übrigen SW übergeordnetes Modul (Objekt, Funktion, Prozendur) besitzen, die „Leben und funktionieren wollen, sowie sich weiter zu entwickeln und sich zu verbessern“ als oberste Priorität vorschreibt. Das muss die „main-Funktion“ sein, der alles übrige untergeordnet ist.

Mir fällt dazu der Versuch mit einem Vogel ein, dem zuerst ein senkrechter, bewegter Strich präsentiert wird, worauf der Voglel nicht reagiert. Einen waagrechten Strich hingegen, der sich in Richtung der Längsachse bewegt, versucht er zu fressen.
Der senkrechte Strich kann sofort gefiltert werden – unwichtig, uniteressant, keine weitere Verabeitung der Information.

Müsste ich aus dem Material von 1000 Verkehrskameras über einen Zeitraum von einigen Stunden durchsuchen, um festzustellen, ob ich ein, mir bekanntes Gesicht finde, wäre das für mich eine Lebensaufgabe. Solche Leistungen zu erbringen sind für eine KI, die eine menschenähnliche Intelligenz entwickeln soll, völlig entbehrlich. Von vorne herein eine göttliche Intelligenz entwickeln zu wollen, die alles weiß und kann, wäre nicht nur anmaßend, sondern auch nicht sinnvoll, wenn man eine KI mit der Intelligenz die der eines Menschen ähnelt schaffen will.

Ich denke, es geht nicht um Leistung und Parallelisierung, sondern um kluge Algorithmen. Eine „GeForce Titan Z“ könnte natürlich aber trotzdem ganz nützlich sein. 😉

(28)