2 Künstliche neuronale Netze




Seit der Vorstellung der ersten Modelle künstlicher neuronaler Netzwerke durch McCulloch und Pitts[8] im Jahre 1943 hat sich dieses Forschungsgebiet rasch entwickelt, so daß heute eine Vielzahl von Algorithmen zur Bearbeitung unterschiedlichster Problemstellungen zur Verfügung steht. Neuronale Netze wurden ausgehend von physiologischen Betrachtungen mit dem Ziel entwickelt, anhand mathematischer Modellvorstellungen Abläufe im biologischen System „Gehirn“ zu studieren. Um mit Hilfe der künstlichen neuronalen Netze die Informationsverarbeitung in ihren biologischen Vorbildern nachahmen zu können, wurden zunächst wesentliche Charakteristika der biologischen Nervenzellen untersucht und auf abstrakte mathematische Modelle übertragen.

Das Kernstück eines biologischen Nervensystems bildet die Nervenzelle. Mit einer Schaltzeit in der Größenordnung von Millisekunden arbeitet ein einzelnes Neuron vergleichsweise langsam. Dennoch ist die Leistungsfähigkeit des menschlichen Gehirns bei der Lösung komplexer Problemstellungen unerreicht. Der Schlüssel hierfür liegt in der massiven und hierarchischen Vernetzung der Nervenzellen zu einem System, in dem eingehende Informationen parallel verarbeitet werden können. Dieses Konzept prägt das Bild der in der Literatur beschriebenen Verfahren künstlicher neuronaler Netze. Für die individuellen Nervenzellen werden abstrakte mathematische Modelle formuliert, die zu einem informationsverarbeitenden Netzwerk zusammengeschaltet werden. Ein solches theoretisches Gebilde zeichnet sich dadurch aus, durch Lernen verschiedene Aufgaben übernehmen zu können. Dazu wird ein neuronales Netz nicht explizit für eine bestimmte Problemstellung programmiert, sondern es paßt sich durch sukzessives Betrachten von Lernbeispielen einer gestellten Aufgabe an. So kann ein neuronales Netz beispielsweise darin unterrichtet werden, Objekte nach ihrer Zugehörigkeit zu verschiedenen Klassen zu unterscheiden. Dieses typische Beispiel fällt in das Aufgabengebiet der Mustererkennung. Wie Bishop[9] herausstellt, weisen die Konzepte der Mustererkennung und der neuronalen Netze eine Vielzahl von Analogien auf, so daß die künstlichen neuronalen Netze als eine Erweiterung der konventionellen Methoden der statistischen Mustererkennung angesehen werden können. Im Zusammenhang mit künstlichen neuronalen Netzwerken wird der Vorgang des Lernens auch als Training bezeichnet.

Die verschiedenen Modelle der künstlichen neuronalen Netze können als Verfahren des überwachten (engl.: supervised learning) und des nicht-überwachten Lernens (engl.: unsupervised learning) unterschieden werden. Für die Methoden des überwachten Lernens müssen zu jedem Muster eines zu erlerndenden Datensatzes sowohl die Eingabewerte, die in das neuronale Netz eingespeist werden, als auch die optimalen Ausgabewerte, die vom neuronalen Netz erwartet werden, bekannt sein. Nach jeder Eingabe eines Musters wird die Ausgabe des Netzes berechnet. Je nach Abweichung der Ausgabe vom bekannten Optimum werden die Variablen der Neuronen korrigiert. Durch wiederholte Präsentation der Eingabemuster und Vergleich der Ausgabe mit dem korrekten Ausgabewert soll das Netzwerk die Fähigkeit zur Generalisierung erhalten. Das trainierte Netz kann sein erlerntes Wissen auf Eingabemuster übertragen, für die keine Ausgabe bekannt ist, und so eine Vorhersage des Ausgabewertes machen. Ein typisches Beispiel für überwachte Lernverfahren sind die Backpropagation-Netze.[10] Dagegen wird nicht-überwachtes Lernen. dann notwendig, wenn die Voraussetzung für die Anwendung überwachter Lernverfahren nicht gegeben sind, weil z.B. zu den Eingabemustern keine Ausgabewerte existieren. Der Lernalgorithmus muß in diesem Fall die Gewichte der Neuronen, die sogenannten Gewichte, ohne Überwachung eines Fehlerwertes anpassen. Das Lernen wird hier mit dem Ziel, ähnliche Eingabemuster im Datensatz als ähnlich zu erkennen, selbstorganisierend vollzogen. Der bekannteste Vertreter dieser Klasse sind Kohonens topologieerhaltende Karten, die im Rahmen dieser Arbeit eingesetzt wurden. Sie werden im nächsten Abschnitt ausführlich beschrieben.

Umfassende Einführungen in das Gebiet der neuronalen Netze geben, neben vielen anderen Autoren, z.B. Rojas[11] und Zell[12], der sich auch mit der praktischen Simulation neuronaler Netze auf verschiedenen Rechnerarchitekturen befaßt. Zupan und Gasteiger[13] geben zahlreiche Beispiele für Anwendungen in der Chemie.





[8]McCulloch, W. S.; Pitts, W. A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics 1943, 5, 115-133.

[9]Bishop, C. M. Neural Networks for Pattern Recognition. Oxford University Press: Oxford, 1995.

[10]Rumelhart, D. E.; Hinton, G. E.; Williams, R. S. Learning representations by back-propagating errors. Nature 1986, 323, 533-536.

[11]Rojas, R. Theorie der neuronalen Netze - Eine systematische Einführung. Springer-Verlag: Berlin, 1993.

[12]Zell, A. Simulation Neuronaler Netze. Addison-Wesley: Bonn, 1994.

[13]Zupan, J.; Gasteiger, J. Neural Networks in Chemistry and Drug Design. Wiley-VCH Verlag GmbH: Weinheim, 1999.





Konvertiert vom Dissertationen Online Team im CCC der Univ. Erlangen
dissertationen@ccc.chemie.uni-erlangen.de Yoobay.NET Count