Vernetzung von Neuronen
Das 100-Schritte-Paradoxon hat gelehrt, daß die Stärke
des menschlichen Gehirns in der parallelen Verarbeitung von Information
begründet ist. Das soeben vorgestellte Neuronenmodell ist sehr
einfach gestaltet, aber selbst viel kompliziertere Modelle führen
zu keiner wesentlich höheren Leistungsfähigkeit. Die eigentlichen
Kapazitäten und die Flexibilität neuronaler Netze kommen
erst durch die Vernetzung der einzelnen Recheneinheiten, der künstlichen
Neuronen zustande.
Viele Arten der Vernetzung von Neuronen wurden untersucht. In den
folgenden Abschnitten werden einige Netzwerkmodelle und -architekturen
vorgestellt. Am häufigsten sind Schichtenmodelle, an dessen
Netzwerkarchitektur die Funktion eines neuronalen Netzes daher erläutert
werden soll.
In einem Schichtenmodell werden die Neuronen in Gruppen, den Schichten,
zusammengefaßt. Die Neuronen einer Schicht haben untereinander
keine Verbindung, sondern nur Kontakt zu den Neuronen der darüber-
und der darunterliegenden Schicht. In einem Einschichtennetzwerk
gehören alle Neuronen einer einzigen Schicht an. Jedes Neuron
j erhält Zugang zu allen Eingabedaten X (x1
, x2, ... xi, ... xm) und erzeugt daraus einen
für dieses Neuron spezifischen Ausgabewert outj.

Neuronales Netz mit den Eingabeeinheiten (Quadrate) und einer Schicht aktiver Neuronen (Kreise).
In der Abbildung sind oben die Eingabeeinheiten gezeichnet. Die
Eingabeeinheiten dienen nur dazu, die einzelnen Eingabedaten auf
sämtliche Neuronen der darunterliegenden Schicht zu verteilen.
Sie führen keine der typischen Rechenoperationen der Neuronen
aus. Zum Unterschied von Neuronen, die in den folgenden Abbildungen
von Netzen durch Kreise symbolisiert sind, werden Eingabeeinheiten
durch Quadrate dargestellt.
In den Neuronen kommen unterschiedliche Werte an, da jede Verbindung
einer Eingabeeinheit i zu einem Neuron j ein ganz spezifisches
Gewicht wji hat, das einer bestimmten
Synapsenstärke entspricht. Die Größe der Gewichte
muß in einem Lernprozeß
ermittelt werden.
Der Ausgabewert eines Neurons, outj, wird durch folgende
Gleichungen bestimmt. Der Index j läuft dabei über
alle n Neuronen, der Index i über alle m
Eingabewerte.


In einem Einschichtennetzwerk sind die Ausgabesignale outj der einzelnen Neuronen bereits die Ausgangswerte des neuronalen Netzes.
Die beiden Gleichungen legen eine formalere Repräsentation eines Neurons und eines neuronalen Netzes nahe: Die Eingangsdaten können als Vektor X (x1, x2, ... xi , ... xm) aufgefaßt werden, der durch die Matrix der Gewichte, W, mit den Einzelelementen wji und die Übertragungsfunktion in den Vektor der Ausgabewerte, Out (out1, out2, ... outj, ... outn), umgewandelt wird.

Matrizendarstellung eines Einschichtennetzwerks, das die Eingabedaten X mit Hilfe der Gewichte wji in die Ausgabedaten Out umwandelt.
Jedes Neuron entspricht einer Spalte in der Matrix der Abbildung. In dieser Matrizendarstellung ist ebenfalls deutlich zu sehen, daß jeder Eingabewert in jedes Neuron geschickt wird. Aus der Matrizenrepräsentation eines neuronalen Netzes ist auch die algorithmische Realisierung eines Schichtenmodells deutlich abzulesen.
Eine einzige Schicht aus Neuronen heißt auch Perzeptronmodell. Damit hat man noch wenig Flexibilität für die Umwandlung der Eingabedaten in Ausgabewerte. Diese Begrenzungen des Perzeptronmodells können durch Hintereinanderschalten mehrerer Schichten überwunden werden.
© Prof. Dr. J. Gasteiger, Dr. Th. Engel, CCC Univ. Erlangen, Thu Apr 15 06:31:58 2004 GMT
BMBF-Leitprojekt Vernetztes Studium - Chemie
|