Sollten Sie im linken Frame kein Video sehen, dann haben sie wahrscheinlich noch nicht den Real Player installiert. Unter www.real.com finden Sie den kostenlosen Real-Player Basic (etwas herumsuchen !).

Von der Vorlesung gibt es auch das Audio MP3 File " TNN_II.mp3 " zum Herunterladen. Ein neues Service - nun müssen Sie nur mehr die CD selber machen.


Das Perzeptron

Dieses Modell löste unter den damaligen Gehirnforschern großen Enthusiasmus aus. Endlich schien ein Modell vorhanden zu sein, das nicht nur bestimmte Reize lernen und wiedererkennen konnte, sondern auch von den ursprünglichen Eingabedaten leicht abweichende Reize richtig zuordnen konnte.


Abbildung: Die Eingabeschicht wird von den vorverarbeitenden Einheiten "betrachtet", diese vorverarbeitenden Einheiten untersuchen den kleinen Teilbereich, den sie sehen und schicken dann ein Signal an das Ausgabeneuron weiter.

Ein Perzeptron besteht in der Regel aus einer endlichen gitterartigen Eingabeschicht, die in einzelne Zellen unterteilt ist. Weiters gibt es eine Vielzahl vorverarbeitender Einheiten, die nur einen Teilausschnitt des Gitters beobachten können. Sie werden gewöhnlich als lokale Detektoren bezeichnet. Diese Detektoren sind nicht vergleichbar mit den formalen Neuronen aus dem vorigen Kapitel. Sie werden zwischen der Eingabeschicht und der Neuronenschicht eingefügt. Diese ersten Schritte der Bild-Vorverarbeitung werden oft als low-level oder early vision bezeichnet. Es findet auf dieser Ebene noch keine eigentliche Erkennung statt. Die Abbildung von der Eingabeschicht zur Vorverarbeitungsschicht wird mit j bezeichnet. Diese vorverarbeitenden Einheiten schicken dann ihre Daten an die eigentliche Neuronenschicht. Dort wird dann eine Entscheidung über das "gesehene" Objekt getroffen.

Jedes dieser vorverarbeitenden Einheiten untersucht eine bestimmte Teilmenge der Eingabeschicht und teilt das Ergebnis den Neuronen, kompetenteren Entscheidungsträgern mit. In diesem Fall beschränken wir uns nur auf ein Neuron in der Neuronenschicht. Jede vorverarbeitende Einheit führt einen Vergleich von intern gespeicherten Werten (Mustern) mit der zu beobachtenden Teilmenge durch. Sobald eines der gespeicherten Muster ident ist mit dem zu untersuchenden Bereich, dann sendet diese Einheiten ein Signal an ein formales Neuron. Sonst verhält es sich still. Das Neuron multipliziert jedes erhaltene Signal mit einer Zahl (Gewichtung) und bildet schließlich die Summe über alle so erhaltenen Zahlen. Wenn die Summe einen gewissen Schwellwert übersteigt, antwortet das finale Neuron mit 1, sonst mit 0 - aktiv oder nicht-aktiv.

Abbildung: Eine Netzhaut mit den lokalen Einheiten, die ein 4*4 Feld untersuchen. Rechts sind die Indizien, die für ein Vorliegen einer Treppe sprechen.

Betrachten wir in der obigen Abbildung eine Eingabeschicht und die dazugehörigen Indizien, die auf eine Treppe hinweisen. Wesentlich ist, daß die 4*4 Felder die beobachtet werden, in alle Richtungen überlappen. Wenn eine Treppe vorliegt, egal wie diese Treppe vorliegt (ob höher oder niedriger gelegen) dann werden alle lokale Einheiten ansprechen. Wenn nur ein kleiner Bereich nicht-treppenartig ist, die zwei Quadrate mit dem Schachbrettmuster, dann werden ein paar lokale Einheiten kein Signal weiterleiten.

Für die Mustererkennung kann man entweder die Indizien die für beziehungsweise die Indizien die gegen das Vorliegen von Rechtecken sprechen in den vorverarbeitenden Einheiten abspeichern.

Zu jedem 2*2-Quadrat im Eingabebereich wird eine Einheit positioniert. Weiteres werden dann die Muster, die für das Vorliegen von Rechtecken sprechen, in alle diese vorverarbeitenden Einheiten übertragen (intern gespeicherte Werte). Schließlich erhalten alle Gewichte des eigentlichen Neurons den Wert +1 und der Schwellwert wird auf d, die Anzahl aller vorverarbeitenden Einheiten gesetzt.

Wenn also alle Einheiten einen positiven Vergleich zwischen den intern gespeicherten Repräsentationen und dem zu beobachtenden Bereich durchführen, schicken sie alle ein Signal zum beurteilenden Neuron, die daraus folgende Summe ist T und das Neuron setzt den internen Wert auf "1". Das Perzeptron hat erkannt, daß nur voneinander getrennte Rechtecke in der gitterartigen Eingabeschicht vorliegen. Stimmt mindestens ein zu beobachtender Teilbereich nicht mit den internen Werten überein, dann bleibt mindestens eine Einheit stumm und die Schwelle T wird nicht erreicht. Folglich bleibt das Neuron im Zustand "0".

Für eine 2*2 Teilmenge auf einer n´n Matrix gilt:

Da es (n-1)2 lokale Einheiten gibt lautet der Schwellwert: T=(n-1)2-1

Wenn alle lokalen Einheiten ein Indiz entdeckt haben, daß für die Rechtecke spricht, dann wird als Summe (n-1)2 herauskommen; also (n-1)2 > T = (n-1)2 - 1.

Wenn nur eine einzige lokale Einheit kein positives Signal weiterleitet, dann gilt:
(n-1)2 -1 > T Þ falsche Aussage. L Also sind Nicht-Rechtecke vorhanden.

Mit diesen Perzeptronen konnten tolle Dinge durchgeführt werde. Man glaubte, daß man das Rätsel Gehirn gelöst hatte. Ein Neuron wurde nach dem Vorbild der Natur nachgebildet und es konnte "scheinbar" komplizierte Strukturen erkennen. Doch dann kamen die Neurowissenschafter Papert und Minsky. Sie zeigten mit einem einfachen und eindrucksvollen Beweis, daß einfache Perzeptrone nicht in der Lage sind komplizierte Dinge zu erkennen. Betrachten wir ein Perzeptron, das erkennen soll, ob eine Figur zusammenhängend ist oder nicht. Trennen wir die Eingabeschicht in drei Bereiche, den Linken L, den Mittleren A und den Rechten R.

Abbildung: Die Eingabeschicht wird in drei lokale Bereiche unterteilt L - A - R und es werden dem Perzeptron 4 unterschiedliche Graphiken -zusammenhängende B/C und nicht-zusammenhängende A/D präsentiert.

Indirekt angenommen, das Perzeptron erkennt die erste Graphik (A) als durchgehende Linie, dann wäre es schon gescheitert. Also muss der Schwellwert kleiner als 3 - da es drei Teilbereiche gibt - sein. Bei der zweiten Graphik (B) müssen alle drei Bereiche den Schwellwert erreichen. Praktisch ist aber nur der linke Bereich unterschiedlich zur Graphik A. Dasselbe gilt natürlich auch für Graphik C - nur ist diesmal der rechte Bereich unterschiedlich zur Graphik A - aber auch hier muss wieder der Schwellwert erreicht werden. Bekommt das Perzeptron die Graphik D vorgesetzt, dann kommen der linke Bereich von Graphik B und der rechte Bereich von Graphik C zum Tragen - daraus setzt sich die Graphik D zusammen. Damit würde der Schwellwert überschritten und auch Graphik D würde aus einer zusammenhängenden Figur bestehen, was falsch ist:

Damit wäre gezeigt, daß ein Perzeptron gewisse Muster nicht erkennen kann. Dies führte zu einer schlimmen Krise innerhalb der theoretischen Neurowissenschaften. Viele Wissenschafter suchten sich andere Arbeitsgebiete. Der Glaube an eine naturwissenschaftliche Erklärung des Gehirns war erschüttert.

Aber versuchen Sie doch selbst einmal mit einem raschen Blick zu erkennen, welche der nachfolgenden Graphiken zusammenhängend sind. Mit einem sehr kurzen Blick werden Sie es wahrscheinlich nicht schaffen. Erkennen ist ein sehr komplexes Verhalten - dabei sind viele Neuronen beteiligt - nicht nur ein einziges, wie beim Perzeptron.


Abbildung: Welcher dieser Graphiken wurde durchgehen gezeichnet, und welche nicht. Mit einem raschen Blick ist dies nur schwer zu erkennen. Wenn man aber mit den Augen den Linien entlangfährt, dann ist es kein großes Problem -aber Perzeptrone besitzen keine gerichtete Aufmerksamkeit.

Erst einige Jahre später erkannte man, daß sich mit mehreren Neuronen praktisch alle mathematischen beziehungsweise formalisierbaren Probleme lösen lassen. Dafür gibt es auch einen Beweis.

 


Interessante Links:

Leider gibt es keine interessanten Links zu dieser Vorlesung !

 


Interessante Applets:

Leider gibt es keine interessanten Applets zu dieser Vorlesung !

 


Fragen die man nach der Vorlesung beantworten können sollte:

Welche Aufgaben kann ein Neuron durchführen ?

Was wird berechnet, wenn einem Neuron ein Muster präsentiert wird ?

Was versteht man unter einem Perzeptron ?

Was kann ein feed-forward-Netz, was ein Perzeptron nicht kann ?

Was ist ein Zustandsraum ?