Neuronale Netze

Vorschau

Ein neuronales Netz besteht aus einer mehrschichtigen Ansammlung von Neuronen mit gewichteten Verbindungen, die wie folgt organisiert sind:

  • Eine Eingabeschicht (input layer) besteht aus Neuronen, die numerische Merkmalsvektoren darstellen. Jedes Input Neuron repräsentiert ein Merkmal. Diese Merkmale können z.B. die Messwerte eines Analysenberichts sein.
  • Eine oder mehrere verdeckte Schichten (hidden layer) sind für die Weiterverarbeitung der Eingabeschicht zuständig. Erst wenn mehr als eine verdeckte Schicht vorhanden ist, spricht man von tiefen neuronalen Netzen (deep neural networks). In diesen Schichten werden z.B. Filteroperationen auf Ergebnisebene durchgeführt.
  • Eine Ausgabeschicht (output layer) repräsentiert die Zielwerte, d.h. die gefundenen Klassen bei Klassifikationsaufgaben oder Clusteringaufgaben oder eine Reihenfolge von Wahrscheinlichkeiten bei Auswertungsaufgaben.

Die einfachste Version eines künstlichen neuronalen Netzes bildet das Multilayer Perceptron.

Es wird zwischen zwei Arten von Netzen unterschieden:

  • vorwärtsgekoppelte Netze (feedforward neural networks) – Sie zeichnen sich durch unidirektionale Verbindungen aus, vom Input nach Output. Ein vorwärts gekoppeltes Netzwerk stellt einen gerichteten azyklischen Graphen dar. Das bedeutet aus einem ausgehenden Neuron gibt es keine Verbindung zurück zu diesem Neuron oder zu einer vorherigen Schicht. Diese Netze sind besonders zur Klassifizierung geeignet.
  • rückgekoppelte Netze (feedback neural networks bzw. recurrent neural networks) – Bei rückgekoppelten Netwerken gibt es hingegen eine Rückkopplung von Neuronen zu ihren unmittelbaren Vorgängern (direkte Rückkopplung) oder eine Rückkopplung zu anderen vorhergehenden Schichten (indirekte Rückkopplung). Diese Netze sind vor allem für die Verarbeitung von Problemen geeignet, bei denen temporale Aspekte oder Sequenzen zu berücksichtigen sind, z.B. Aktienkurse.
Zurück zu: Machine Learning Diagnostik > 020 Grundlagen