Previous PageNext Page

3. Geschichtliches

Obwohl erst in den letzten Jahren das Interesse an neuronalen Netzen enorm zugenommen hat, können sie bereits auf fast fünfzig Jahre Entwicklung zurückblicken [4].
Bereits in den vierziger Jahren entwickelten McCulloch und Pitts [5][6] ein Neuronenmodell als logisches Schwellwertelement mit zwei möglichen Zuständen. Die Frage, wie neuronale Netze lernen, mußten sie offen lassen; dazu machte dann Hebb 1949 einen Vorschlag [7]. Seine Lernregel besagt, daß sich die Synapsenstärke eines Neurons proportional zur Aktivität vor und hinter der Synapse ändert.
Rosenblatt [8] organisierte einige von Neuronen in einer Weise, die im wesentlichen einem Einschichtennetzwerk (Abb. 7) entspricht, und nannte diese Anordnung ein Perzeptron.
Die ursprüngliche Begeisterung für die Entwicklung von Modellen der Informationsverarbeitung biologischer Nervensysteme begann in den sechziger Jahren aus mehreren Gründen zu schwinden. Die Ergebnisse bei der Lösung echter Probleme durch die damaligen Netzwerke waren nicht sehr ermutigend, und mit dem Aufkommen der Computer verlagerte sich das Interesse mehr auf die Entwicklung direkt programmierter Problemlösungsmethoden. Das dafür gewählte Schlagwort "Künstliche Intelligenz" (Artificial Intelligence) unterstreicht nur zu deutlich, welcher Anspruch erhoben wurde, obwohl von Anfang an klar war, daß die gewählte Vorgehensweise sehr wenig mit der Informationsverarbeitung im menschlichen Gehirn zu tun hatte.
Es ist daher nicht verwunderlich, daß die Erforschung neuronaler Netze einen schweren Schlag gerade von einem der Hauptvertreter der "künstlichen Intelligenz", Marvin Minsky, erhielt. Minsky publizierte 1969 zusammen mit Papert [9] eine sehr scharfe, aber wohl berechtigte Kritik an den damaligen Netzwerkmodellen. Sie zeigten in ihrer theoretischen Studie, daß Perzeptronen - zumindest wie sie damals entwickelt waren - nur sehr begrenzte Möglichkeiten bieten. Darüber hinaus spekulierten sie, daß eine Ausdehnung der Architektur von Perzeptronen auf mehrere Schichten keine wesentlich besseren Ergebnisse bringen würde. Diese Kritik einer so einflußreichen Persönlichkeit wie M. Minsky hatte auch zur Folge, daß kaum noch Forschungsgelder für die Modellierung biologischer Nervensysteme zu erhalten waren.
In den folgenden Jahren wurde daher nur wenig an Modellen für neuronale Netze gearbeitet; dennoch gab es auch in dieser Zeit einige wichtige Fortschritte. Erwähnt seien die Arbeiten von Albus [10], Amari [11], Grossberg [12], Kohonen [13], von der Malsburg [14] sowie Widrow und Hoff [15].
Ein entscheidender neuer Anstoß kam dann 1982 durch den Physiker Hopfield [16], der zeigen konnte, daß bestimmte Netzwerkmodelle aus binären Neuronen formal Spinsystemen entsprechen und mit den dort entwickelten Methoden behandelt werden können.
Den ganz großen Aufschwung in der Anwendung neuronaler Netze leiteten dann Rumelhart, Hinton und Williams durch die Publikation des "Backpropagation"-Algorithmus zum Lernen in Mehrschichtenmodellen ein [17][18]. Wenn auch der Backpropagation-Algorithmus schon früher vorgeschlagen worden war [19], so ist es doch das Verdienst der Forschungsgruppe über "Parallel Distributed Systems" [20], ihn in das Blickfeld der Öffentlichkeit gerückt zu haben.
Trotz aller Erfolge bei der Entwicklung von Modellen zur neuronalen Informationsverarbeitung muß klar erkannt werden, daß wir noch weit entfernt von einem Verständnis der Arbeitsweise des menschlichen Gehirns sind. Die Leistungen künstlicher neuronaler Netze sind im Vergleich zu denen ihres biologischen Vorbilds immer noch als sehr rudimentär zu bezeichnen. Dennoch haben bereits die bisherigen Modelle neuronaler Netze neue Wege zur Verarbeitung von Information aufgezeigt. Den sich dadurch eröffnenden Möglichkeiten, insbesondere im Bereich der Chemie-Information, wollen wir uns in diesem Beitrag bevorzugt widmen.

Previous PageNext Page


Johann.Gasteiger@chemie.uni-erlangen.de