Replacement Migration – muss ich jetzt umziehen, oder schaffen wir die UNO ab?


Ja, ich habe wieder einmal Zeitung gelesen, was ein vernünftiger Mensch heute eigentlich nicht mehr tun sollte und schon erfuhr ich vom neuen Schreckgespenst, der von der UNO geplanten Ersetzungs-Migration. Ich las einige Artikel, checkte die Stimmung auf FB und erörterte, was unsere Regierung und die Parteien dazu sagen.
Ich überlegte sogar, ob ich mir den Vertrag und die Punkte, mit denen unsere Regierung nicht einverstanden ist genauer ansehen soll, doch dann erinnerte ich mich daran, dass Papier geduldig ist. Wenn man sich die UN und ihre Ziele ansieht, merkt mann, dass es sogar sehr, sehr geduldig ist, bzw., dass man fast jeden Schwachsinn zu Papier bringen kann. Seit 1945 bemühen sich angeblich 193 Mitgliedsstaaten um folgende Ziele.
Charta der Vereinten Nationen und Statut des Internationalen Gerichtshofs

Schmökern Sie ruhig darin und bei jedem Satz erinnern Sie sich bitte daran, dass sich 193 Mitgliedsstaaten seit 1945 um die Umsetzung bemühen. Man bekommt fast bei jedem Satz einen Knopf im Kopf, so realitätsfern ist dieses Gewäsch. Was haben die 193 Staaten zusammen bewirkt? Nach dieser Charta dürfte es doch längst kein Militär mehr auf der Welt geben, aber das Gegenteil ist der Fall. Das Militärbudget wird weltweit ständig erhöht! Wofür? Für den großen Weltfrieden?
Aber es geht noch surrealer. Wer es nicht glaubt, der liest
Allgemeine Erklärung der Menschenrechte
Charta der Vereinten Nationen und Statut des Internationalen Gerichtshofs

Was soll man dazu noch sagen, wenn man bedenkt, dass sich 193 Mitgliedsstaaten seit 1945 darum bemüht ist, dies umzusetzen?
Auf http://www.un.org/ finden Sie weitere Stories, die jeden Science-Fiction übertreffen. Ja, wirklich spannend, aber mit der Realität hat das alles kaum etwas zu tun.

Ich würde von einem UN-Vertrag nur dann etwas halten, wenn alle Mitgliedsstaaten ihre Militärs der UN übergäben, das Militärbudget reduzieren und an die UN überweisen, damit diese für Sicherheit und den Weltfrieden sorgen kann.
Aber derzeit sind meiner Meinung nach UN-Verträge reine Papierverschwendung.

UN-Verträge sind wertlos

View Results

Loading ... Loading ...

Diverse Weblinks, was so durch’s Netz geistert:
https://www.kleinezeitung.at/politik/innenpolitik/5522121/17-abgelehnte-Punkte_So-begruendet-Oesterreich-das-Nein-zum?xtor=CS1-15&fbclid=IwAR1jVvEbRIRr5HaoliGCWwrFqNs1-AF6rObjuIj9xtQKD1xry93mI8Dk2n4
https://www.ohchr.org/EN/UDHR/Pages/Language.aspx?LangID=ger
http://dag.un.org/handle/11176/387336
https://diepresse.com/home/ausland/aussenpolitik/5522097/UNMigrationspakt_Das-sind-die-17-Punkte-die-Oesterreich-ablehnt
https://www.freiewelt.net/reportage/replacement-migration-wie-uno-und-think-tanks-europas-bevoelkerung-austauschen-wollen-10069318/

(26)

Maschinelles Lernen mit Python 2b

zurück zu HeliHuBot Planung und Umsetzung


Training ML-Lernalgorithmen für die Klassifizierung

Mit Schwerpunkten auf:

  • Benutzung von pandas, NumPy und matplotlib zum Einlesen, Verarbeitung und Visialisierung
  • Implementierung linear classification Algos in Python

Schema Perceptron:

Achtung – Halt – Stop!
Einerseits ist es schade, dass ich meine Notizen zu „Maschinelles Lernen mit Python“ nun einstellen werde, aber anderseits erspart es mir viel Zeit und Aufwand. Ich wollte gerade das Schema oben besprechen und mir den ersten Python-Code notieren, als ich auf scikit stieß. Da meine Notizen sicher nicht übersichtlicher und besser werden können, erspare ich mir weitere Artikel zu diesen Thema.

Auf SciPy findet man den Einstieg für die hier, zur Verwendung geplanten Module. Auf UC Irvine Machine Learning Repository! findet man über 450 Datensätze und eine ausgezeichnete Beschreibung zu allen Bereichen findet sich auf scikit.

Weblinks und weitere Quellen:
SciPy
UC Irvine Machine Learning Repository!
Iris flower data set

Python und Docs, sowie Tutorial
Python unter Linux: Erste Schritte
PyPy
Künstliche Intelligenz von Stuart Russell und Peter Norvig; ISBN 978-3-86894-098-5
Python Machine Learning von Sebastian Raschka; ISBN 978-1-78355-513-0
Neuronale Netze von Günter Daniel Rey und Karl F. Wender; ISBN 978-3-456-54881-5

(35)

Maschinelles Lernen mit Python 2a

zurück zu HeliHuBot Planung und Umsetzung


Training ML-Lernalgorithmen für die Klassifizierung

Mit Schwerpunkten auf:

  • kurze Vorstellung eines Perceptrons und adaptive linearer Neuronen
  • erster Einblick in ML-Algorithmen

Vom Neuron zum Perzeptron

Ein biologisches Neuron (Nervenzelle) ist schematisch im folgenden grob umrissen:

Wer sich für Details interessiert, findet welche im Kapitel I, meiner Physiologie für Biologen und Mediziner. Besonders 1) Das Ruhemembranpotential, 2) Entstehung und Fortleitung eines Aktionspotentials und 5) Synapsen kann ich als Einstieg empfehlen.

Hier werden wir nicht auf neurophysiologische Details oder auf die Vernetzung (Konnektom) eingehen, sondern wir brauchen an dieser Stelle eigentlich nur zu wissen, dass an den Dendriten Synapsen von anderen Axonenden zu finden sind (stellt den Input dar), die hemmen oder erregen können und somit das Ruhemembranpotential (RM) der Membran (Umgibt den Körper der Nervenzelle) beeinflusst. Das RM summiert sich auf und nur wenn eine bestimmte Schwelle erreicht wird (Alles oder Nichts Prinzip), entsteht ein Aktionspotential am Axonhügel (dort wo das Axon vom Körper abgeht) und breitet sich über das Axon zu den Enden aus, wo sich wieder Synapsen befinden, welche auf die nächsten Dentriten hemmend oder erregend wirken können (unser Output).

Natürlich kann ich an dieser Stelle nicht umhin, W.S. McCulloch und W. Pitts, sowie Frank Rosenblatt zu erwähnen, die Pionierarbeit auf dem Gebiet der KI leisteten, sodass 1958 das Perzeptron, das erste, sehr vereinfachte neuronales Netz, basierend auf dem McCulloch-Pitts neuron, vorgestellt werden konnte. Mit den Perzepron-Regeln konnte Rosenblatt eine Algo entwickeln, der automatisch die optimalen Gewichungskoeffizienten lernte, die dann mit den Input-Features verknüpft entschieden, ob ein Neuron feuerte (die Schwelle erreicht wurde), oder nicht. Im Kontext von supervised learning und der Klassifikation bedeutet das, dass der Algo benutzt werden konnte, um eine Zuordnung zu einer Klasse zu erreichen.
Formal können wir dieses Problem als binäre Klassifikationsaufgabe darstellen, wobei wir zur Vereinfachung unsere beiden Klassen als 1 und -1 bezeichnen. Dann können wir eine Aktivierungsfunktion definieren \theta(z), welche eine lineare Kombination bestimmter Eingabewerte \vec{x} und eines entsprechenden Gewichtsvektors \vec{w} erfordert, wobei z der sogenannte net input ist z = (w1x1 + …. + wmxm):

\vec{w} =  \begin{bmatrix} w\textsubscript{1}	\\ \vdots	 \\ w\textsubscript{m}	 \end{bmatrix} , \vec{x} =  \begin{bmatrix} x\textsubscript{1}	\\ \vdots	 \\ x\textsubscript{m}	 \end{bmatrix}
Wenn die Aktivierung eines bestimmten Beispiels x(i), also die Ausgabe von \theta(z), größer ist als ein definierter Schwellenwert \phi, sagen wir Klasse 1 oder andernfalls Klasse -1 voraus.

\phi(z) = \biggl\{  \frac{1 if z \geq \theta}{-1 sonst}
Was die Notation betrifft, greife ich hier inkonsequent auf die grundlegende und oft übliche, kurze Schreibweise zurück, wie sie hier zu finden ist

Bemerkenswert ist hier, dass somit statt \sum\nolimits_{j=0}^m einfach xjwj = wTx geschrieben werden kann.

Die folgende Skizze zeigt, wie der Net-Input einen binären Output ergibt und wie die Aktivierugsfunktion benutzt werden kann, um zwischen zwei linear unterscheidbaren Klassen zu unterscheiden.

Wie oben schon angemerkt, ist die Tatsache, dass ein Neuron ab einen bestimmten Schwellwert feuert im MCP-Neuron einfach umgesetzt. Rosenblatt’s Initialisierungsregel für das Perzeptron ist daher einfach zu umschreiben:
1.) Initialisiere die Gewichtung mit 0 oder kleinen zufälligen Zahlen
2.) für jedes Training, Beispiel x(i) sind die folgenden Schritte durchzuführen
a.) berechene den Ourtput-Wert ŷ
b.) aktualisiere die Gewichtung
Der Output-Wert ist hier das vorausgesagte Class-Label mittels besprochener Heaviside step function und der gleichzeitigen Aktualisierung der Gewichtung des Gewichtungsvektor wi also wi := wi + \Deltawi
\Deltawi mit dem wi aktualisiert wird, wird mit der Perceptron Lernregel berechnet \Deltawi = \eta (y(i) – (ŷ(i))xj(i)
In dieser Lernregel ist \eta die Lernrate (zwischen 0,0 und 1,0)
yi ist das Klass-Label und
ŷi ist das vorausgesagte Klass-Label.
Es müssen alle Gewichtungen aktualisiert werden, bevor ŷi neu berechnet wird.
\Deltaw0 = \eta (y(i) – (output(i))
\Deltaw1 = \eta (y(i) – (output(i))x1(i)
\Deltaw2 = \eta (y(i) – (output(i))x2(i) ….
Wenn das Klass-Label richtig vorausgesagt wird, bleibt die Gewichtung unverändert.

Weblinks:
https://www.cs.cmu.edu/~zkolter/course/linalg/linalg_notes.pdf von Linear Algebra Review
Weitere Quellen
Künstliche Intelligenz von Stuart Russell und Peter Norvig; ISBN 978-3-86894-098-5
Python Machine Learning von Sebastian Raschka; ISBN 978-1-78355-513-0
Neuronale Netze von Günter Daniel Rey und Karl F. Wender; ISBN 978-3-456-54881-5

(71)

Schöne Formeln mit LaTeX bzw. QuickLaTeX in WP

Aktualisierung:
Da das Modul „Schöne Mathematik“ im Jetpack-Plugin sehr schnell an seine Grenzen stieß, habe ich es unter http://yourjetpack.blog/wp-admin/admin.php?page=jetpack_modules deaktiviert und statt dessen QuickLaTeX installiert.
Test:

ergibt:

Rendered by QuickLaTeX.com


Da ich Mathe-Formeln in meine nächsten Artikel einbauen möchte, suchte ich nach einem WP-Plugin, dass mich LaTeX verwenden lässt. Zu meinem Erstaunen stellte ich fest, dass ich bereits Jetpack installiert hatte und dies die Verwendung von LaTeX ermöglicht und die Packages amsmath, amsfonts, und amssymb ebenfalls schon installiert sind. Siehe dazu Beautiful Math with LaTeX.
Mein Versuch mit dem Beispiel von Jetpack ergibt tatsächlich i\hbar\frac{\partial}{\partial t}\left|\Psi(t)\right>=H\left|\Psi(t)\right>

Also sorgt Jetpack schon dafür, dass ich schöne Formeln in meinen Artikeln verwenden kann. Ach so, ein kleines Problem könnte noch auftreten, denn man muss natürlich LaTeX können. 😉
Aber das ist kein Problem, suchen Sie nach „LaTeX Tutorial“ und schon ist das Problem fast gelöst, denn jetzt brauchen Sie nur noch eines durchgehen.
Manchen mag ja schon das LaTeX Cheat Sheet genügen

andere hingegen werden ein ausführliches Tutorial bevorzugen, wie Getting to Grips with LaTeX oder Getting started with TeX, LaTeX, and friends
Für Perfektionist ist TeX Live eine Option als Einstieg, denn das ist de facto der Standard unter den LaTeX-Distributionen und wird für alle gängigen Betriebssysteme angeboten. Es beinhaltet alle TeX bezogenen Programme, Makropakete, Schriften und auch Sprachsupport für viele unterschiedliche Sprachen.
Auch auf LaTeX@TU Graz kann man sich schlau machen, oder wer nur schnell kurze Infos benötigt findet einige wichtige auf LaTeX Wiki.

Weitere Weblinks:

TeX Live
Kile – an Integrated LaTeX Editing Environment
Das Handbuch zu Kile
Xfig
User’s Guide for the amsmath Package
amsmath
Mathematischer Satz mit dem Paket amsmath
LaTeX

Darüber hinaus gibt es natürlich auch Tutorials auf YouTube.

(42)

Maschinelles Lernen mit Python 1

zurück zu HeliHuBot Planung und Umsetzung


Bevor wir uns den ausgewählten Python-Modulen zuwenden ein kurzer Überblick über die kommenden Inhalte, also die Lernmethoden. Ich werde kurz auf supervised, unsupervised und reinforcement learning und wichtige Grundbegriffe eingehen, bevor ich die Installation der Python packages beschreibe.

Supervised learning

Mittels supervised learning gelangt man zu predictions für neue Daten, indem man ein Model mit labeled training data trainiert.

Siehe dazu auch Supervised vs Unsupervised Learning
Beim supervised learning sind vor allem die Classification (um class labels vorauszusagen) und die Regression hervorzuheben.
Maschinelles Lernen mit Python 1 weiterlesen

(42)

Notizen zu Open Source, Linux, Informatik, Physiologie, Dadaichmuss, Umfragen, Satire, außergewöhnlichen Begebenheiten, Weltgeschehen, Lifestyle, Tai Chi …