Kritik an der KI oder HeliBot-KI

In Bewustseinswahnsinn und künstliche Intelligenz habe ich es schon erwähnt, dass alle Systeme (neuronalen Netze) die ich kenne sehr seltsam ansetzen. Man kann damit dann einfache Muster erkennen oder dem System „lernen lassen“. Mein Hausverstand sagt mir, dass es mit diesen Systemen *praktisch unmöglich ist, irgend eine sinnvolle Bildverarbeitung zu programmieren.
*Mit praktisch unmöglich meine ich – Vergleich: Wenn ein Lehrer fordert, dass bei der Matheschularbeit nur das Ergebnis zählt und das Verfahren unerheblich wäre, dann könnte ich statt zu multiplizieren auch addieren. Sagen wir 98979 x 8450 ist zu berechnen. Nach dem gängigen Verfahren brauch ich dazu 4 Zeilen und zig Sekunden, aber mit Additionen brauche ich zig Hefte und in der Zeit für eine Schularbeit würde sich das auch kaum ausgehen. Damit ist es für mich „praktisch unmöglich“. Nur mit Gewichten in endlich vielen Neuronen in endlich vielen Schichten ist es meiner Meinung nach „praktisch unmöglich“ ein Abbild von einem Bild auf die Netzhaut und dann auf die Sehrinde zu bringen und zwar alle paar Hundertstelsekunden ein exaktes Abbild. Das ist wohl die Voraussetzung, um irgend etwas erkennen und lernen zu können, denke ich. Das Konnektom (Schaltplan bzw. Verknüpfung der Neurone) ist zweifellos wichtig und die Gewichtung (Verbindungsstärke zwischen Neuronen) ebenfalls, aber bei allen Modellen die ich kenne, fehlt die eigentliche Information, die übertragen und verarbeitet werden soll. Man schafft sich in der KI einen Weg mit der Info übertragen werden soll, aber genau das tuen diese System dann nicht. Mathematik kann großartiges leisten, aber berechnen ist nicht denken. Unsere Neurone können keine Matrizenrechnungen und arbeiten nicht digital, obwohl eine gewisse „Digitalisierung“ durch die Schwellwerte und das „Alles oder Nichts Gesetz“ von Aktionspotentialen gegeben ist.
Zwischen Schwellwert und Maximalwert könnten die Neurone analog funktionieren und Information über Amplitude und Frequenz transportieren und verarbeiten, aber diese These wage ich nicht aufzustellen, denn das hätten die Neurophysiologen längst bemerkt. So etwas können sie unmöglich übersehen haben, weshalb ich es ausschließe, aber ich versuche ja auch kein künstliches, menschliches Gehirn zu programmieren. Es wäre bedenklich und größenwahnsinnig, wenn das ein einzelner Laie und Hobbyprogrammierer versuchte.
Alle hundertstel Sekunden ein neues Bild auf der Sehrinde, da muss bei meinem Modell die Info in der Amplitude liegen.
Imputschicht: 120 Mio Stäbchenneurone für Intensität und 6 Mio Zapfenneurone (bei HeliBot nur ein Typ) für die Farbe. Nur so kann mein Modell ein Bild auf die Sehrinde bekommen und das dieses zuerst einmal gesehen wird, ist Voraussetzung, um irgend etwas erkennen oder lernen zu können. Das ist natürlich nicht nur auf das Sehen beschränkt, sondern auf alle Sinne. Bevor ich nun wieder über die Anzahl der Teilnetze für meine HeliBot-KI nachdenke (es gibt zwar offiziell keine funktionelle Phrenologie, bzw. habe ich nichts davon gehört, aber ich verwende meine funktionelle Phrenologie trotzdem dazu, um die Anzahl der nötigen Teilnetze zu ermitteln), die natürlich objektorientiert programmiert sein müssen, werde ich einmal ein Programm erstellen, dass von einem Bild ein exaktes Abbild über ein neuronales Netz (primäres Sehnetz) erzeugen kann.

Bevor ich mich an die Arbeit mache, muss ich mir noch ein paar Kapitel aus Neuro- und Sinnesphysiologie von Robert F. Schmidt durchlesen, denn irgend etwas dürfte ich übersehen haben. Die Neurophysiologen hätten es bestimmt längst bemerkt, wenn die Info über die Amplitude moduliert werden würde. Aber irgendwie muss die Info doch übertragen werden und Konnektom und Gewichte reichen dazu sicher nicht aus. Außerdem können meine Sehneurone nicht matrizenrechnen, da bin ich mir ganz sicher.
Durch die Entwicklung, liegen die lichtempfindlichen Außensegmente mit dem Rhodopsin bei biologischen Augen recht ungünstig (nach außen gestülpte Hirnzellen), denn die Lichtstrahlen können ja schwer durch die Zellkörper gehen. Daher wird mein System der Einfachheit in der Umsetzung halber, schon verbessert. Das primäre Sehnetz von HeliBot muss sich ja nicht entwickeln, ich entwerfe es neu. Trotzdem verwende ich die Neurone der Sehrinde als Urklasse, von der alle anderen Sehneurone abgeleitet werden, da diese (zumindest in meinem Modell) am wenigsten Spezialisiert sind.
Ursehneuronklasse, Sehrindenneurone = Sehneuronklasse I (output und gleichzeitig imput für weitere Teilnetze)
Sehneuronklasse II sind Zäpchenneurone und Stäbchenneureone (imput)
Sehneuronklasse III (a, b, c) sind Amakrine-, Bipolare- und Horizontalzellen (hidden layer)

Ich habe mich zwar schon in vielen Programmiersprachen versucht, aber ich nütze die Gelegenheit eines neuen Projektes für eine neue Programmiersprache. Es fällt mir zwar nicht leicht, nicht Ruby zu verwenden, aber ich will auch Python kennen lernen. Wie immer, will ich alles über das Internet erreichen und steuern können, sogar meine Notizen, daher dieses Blog. Django läuft schon und den V-Server mit Linux muss ich noch ein wenig einrichten und obwohl bei mir sowieso immer alles opnen source wird und keine sensiblen Daten am Server sein werden, muss ich ihn auch ein wenig absichern, damit er nicht ganz leicht zur Verbreitung von Malware, Spam und für illegale Aktivitäten missbraucht werden kann.
An die Arbeit.

(736)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.