Kapitelanfang Vorige Seite Nächste Seite Nächstes Kapitel
VERN Home navigation
 
Chemoinformatik
Einführung in die Chemoinformatik
Repräsentation chemischer Strukturen
Repräsentation chemischer Reaktionen
Datentypen/Datenformate
Datenbanken/Datenquellen
Struktur-Suchmethoden
Berechnung physikalischer und chemischer Daten
Descriptoren für chemische Verbindungen
Methoden zur Datenanalyse
Einführung
Maschinelles Lernen
Lernverfahren
Entscheidungsbäume
Chemometrie
Multivariate Statistikmethoden
Korrelation
MLRA
PCA
PCR
PLS
MDS
Neuronale Netze
Einführung
Biologische Neuronen
Künstliche Neuronen
Künstliches Neuronenmodell
  Vernetzung von Neuronen
Mehrschichtenmodell
Lernverfahren NN
Hopfield-Modell
Hopfield-Modell: Beispiel
Kohonen-Netze
Kohonen-Netz: Lernen
Backpropagation Netzwerke
Counterpropagation Netzwerke
Fuzzy Logic
Genetische Algarithmen
Data Mining-Methoden in der Chemie
Weitere Data Mining-Methoden
Literatur
Anwendungen
Struktur-Eigenschafts-Beziehung
Strukturaufklärung
Synthesplanung

Startseite

Vernetzung von Neuronen

Das 100-Schritte-Paradoxon hat gelehrt, daß die Stärke des menschlichen Gehirns in der parallelen Verarbeitung von Information begründet ist. Das soeben vorgestellte Neuronenmodell ist sehr einfach gestaltet, aber selbst viel kompliziertere Modelle führen zu keiner wesentlich höheren Leistungsfähigkeit. Die eigentlichen Kapazitäten und die Flexibilität neuronaler Netze kommen erst durch die Vernetzung der einzelnen Recheneinheiten, der künstlichen Neuronen zustande.
Viele Arten der Vernetzung von Neuronen wurden untersucht. In den folgenden Abschnitten werden einige Netzwerkmodelle und -architekturen vorgestellt. Am häufigsten sind Schichtenmodelle, an dessen Netzwerkarchitektur die Funktion eines neuronalen Netzes daher erläutert werden soll.
In einem Schichtenmodell werden die Neuronen in Gruppen, den Schichten, zusammengefaßt. Die Neuronen einer Schicht haben untereinander keine Verbindung, sondern nur Kontakt zu den Neuronen der darüber- und der darunterliegenden Schicht. In einem Einschichtennetzwerk gehören alle Neuronen einer einzigen Schicht an. Jedes Neuron j erhält Zugang zu allen Eingabedaten X (x1 , x2, ... xi, ... xm) und erzeugt daraus einen für dieses Neuron spezifischen Ausgabewert outj.

einfaches Neuronales Netz

Neuronales Netz mit den Eingabeeinheiten (Quadrate) und einer Schicht aktiver Neuronen (Kreise).

In der Abbildung sind oben die Eingabeeinheiten gezeichnet. Die Eingabeeinheiten dienen nur dazu, die einzelnen Eingabedaten auf sämtliche Neuronen der darunterliegenden Schicht zu verteilen. Sie führen keine der typischen Rechenoperationen der Neuronen aus. Zum Unterschied von Neuronen, die in den folgenden Abbildungen von Netzen durch Kreise symbolisiert sind, werden Eingabeeinheiten durch Quadrate dargestellt.
In den Neuronen kommen unterschiedliche Werte an, da jede Verbindung einer Eingabeeinheit i zu einem Neuron j ein ganz spezifisches Gewicht wji hat, das einer bestimmten Synapsenstärke entspricht. Die Größe der Gewichte muß in einem Lernprozeß ermittelt werden.
Der Ausgabewert eines Neurons, outj, wird durch folgende Gleichungen bestimmt. Der Index j läuft dabei über alle n Neuronen, der Index i über alle m Eingabewerte.

In einem Einschichtennetzwerk sind die Ausgabesignale outj der einzelnen Neuronen bereits die Ausgangswerte des neuronalen Netzes.
Die beiden Gleichungen legen eine formalere Repräsentation eines Neurons und eines neuronalen Netzes nahe: Die Eingangsdaten können als Vektor X (x1, x2, ... xi , ... xm) aufgefaßt werden, der durch die Matrix der Gewichte, W, mit den Einzelelementen wji und die Übertragungsfunktion in den Vektor der Ausgabewerte, Out (out1, out2, ... outj, ... outn), umgewandelt wird.

Matrizendarstellung eines Einschichtennetzwerks

Matrizendarstellung eines Einschichtennetzwerks, das die Eingabedaten X mit Hilfe der Gewichte wji in die Ausgabedaten Out umwandelt.

Jedes Neuron entspricht einer Spalte in der Matrix der Abbildung. In dieser Matrizendarstellung ist ebenfalls deutlich zu sehen, daß jeder Eingabewert in jedes Neuron geschickt wird. Aus der Matrizenrepräsentation eines neuronalen Netzes ist auch die algorithmische Realisierung eines Schichtenmodells deutlich abzulesen.
Eine einzige Schicht aus Neuronen heißt auch Perzeptronmodell. Damit hat man noch wenig Flexibilität für die Umwandlung der Eingabedaten in Ausgabewerte. Diese Begrenzungen des Perzeptronmodells können durch Hintereinanderschalten mehrerer Schichten überwunden werden.


© Prof. Dr. J. Gasteiger, Dr. Th. Engel, CCC Univ. Erlangen, Thu Apr 15 06:31:58 2004 GMT
navigation BMBF-Leitprojekt Vernetztes Studium - Chemie