Künstliche neuronale Netze

Links sehen wir ein einfaches künstliches neuronales Netz, das in der Lage ist, unser XOR-Problem zu lösen. Es besteht aus drei Schichten:

  • Eingabeschicht mit zwei binären Eingängen Action (ja/nein) und Comedy (ja/nein)

  • Versteckte Schicht in der Mitte (engl. Hidden Layer)

  • Ausgabeschicht zur Klassifizierung Like oder Dislike

Die Verbindungen zu den Hidden Layers wurden so gewichtet, dass die Neuronen in der versteckten Schicht nur aktiv sind, wenn eines der beiden Eingabeneuronen aktiviert wird. Die Gewichte zum Ausgabeneuron sind beide positiv und die Schwelle ist so tief eingestellt, dass das Ausgabeneuron aktiviert wird, sobald eines der beiden versteckten Neuronen feuert.

Die blauen und orangen Linien unseres KNN sowie die Schwellenwerte, die hier ausgeblendet sind, ergeben zusammen 9 trainierbare Parameter. Heutige KNN, die für automatische Fahrzeugsteuerung, Gesichtserkennung oder Sprachübersetzung eingesetzt werden, sind jedoch etwas "tiefer" und komplexer aufgebaut. Mit der Tiefe wird angegeben, aus wie vielen Schichten ein KNN besteht. Ein aktuell für Aufregung sorgendes Beispiel ist Googles neues Sprachmodell mit 540 Milliarden Parametern. Das Modell zeigt eindrücklich, weshalb in den letzten Jahren derart dramatische Fortschritte in Bereichen gemacht werden konnten, die bis vor kurzem als dem Menschen vorbehalten galten (zum Beispiel das Erklären von Witzen). Die Gründe sind:

  • immer grössere Datenmengen,

  • die mit immer leistungsfähigeren Maschinen verarbeitet werden können.

Einen tieferen Einblick in künstliche Neuronale Netze gibt der entsprechende Wikipedia-Eintrag. Soll es etwas interaktiver sein, kann ich den Online-Kurs von brilliant.org empfehlen.