Sollten Sie im linken Frame kein Video sehen, dann haben sie wahrscheinlich noch nicht den Real Player installiert. Unter www.real.com finden Sie den kostenlosen Real-Player Basic (etwas herumsuchen !).

Von der Vorlesung gibt es auch das Audio MP3 File " ??????? " zum Herunterladen. Ein neues Service - nun müssen Sie nur mehr die CD selber machen.


Im Prinzip gibt es zwei entgegengesetzte Mechanismen: die Kooperation und die Konkurrenz. Zum einen sollen die benachbarten Ganglienzellen der Retina (beziehungsweise des Corpus geniculatum laterale) auf benachbarte Gebiete in das primäre sensorische Sehzentrum projizieren (Kooperation) und zum anderen sollen von beiden Retinahälften die identen Gebiete innerviert werden (Konkurrenz). Durch die synchronen Aktivitätsmuster in der Retina wird der Mechanismus der Kooperation verwirklicht. Andererseits kommt es durch die abwechselnde Aktivität der beiden Augen im Zielgebiet zu einer Konkurrenz um den Nervenwachstumsfaktor.


Abbildung 1.12: Querschnitte durch die Rinde des Sehzentrums. Die Säulen werden jetzt zu flächigen Gebieten. Die schwarzen Zielgebiete stammen von dem einen Auge, während die weißen Zielgebiete vom anderen Auge stammen.

Die durch die Prägung entstehenden Gebiete bleiben ein Leben lang erhalten. Allerdings ist es möglich, daß sich durch Training diese Gebiete - vor allem in der inneren Struktur - noch etwas verändern können. Dafür ist es aber notwendig, daß ausreichend Neuronen zur Verfügung stehen, das heißt, wenn sich die Gebiete nicht korrekt entwickeln konnten und die Neuronen abgestorben sind, dann kann auch das beste Training nicht weiterhelfen.


Abbildung 1.13: Die sensorischen Felder, die mit den Fingerspitzen korrespondieren.


Ein Affe wurde trainiert eine Aufgabe durchzuführen, bei der er häufig die Spitzen des zweiten und dritten, gelegentlich auch des vierten, Fingers einsetzen musste. Durch das Training vergrößerten sich die jeweiligen Gebiete des somatosensorischen Areals. Die Abbildung 1.13 stellt die Repräsentation der Fingerspitzen vor Trainingsbeginn (Abb. 1.13oben) im Vergleich zur Phase nach der starker Stimulation (Abb. 1.13unten) dar.


Wie man leicht in Abbildung 1.14 erkennen kann, verändert sich die Größe der Neuronen, die Zahl der Synapsen und die Verästelung der Dendriten über einen größeren Zeitraum.

Abbildung 1.14: Die Entwicklung der Großhirnrinde (Broca-Areal) auf zellulärem Niveau zum Zeitpunkt der Geburt (A), nach einem Monat (B), nach 3 Monaten (C), nach 6 Monaten (D), nach 15 Monaten (E), und nach 24 Monaten (F).


Abbildung 1.15: Das Synapsenwachstum im visuellen Cortex, beziehungsweise im Stirnlappen und der Myelinisierungsgrad der Axone in verschiedenen Gebieten der Großhirnrinde (oben). Die weißen Gebiete werden als erstes myelinisiert.

Die Entwicklung des menschlichen Gehirns ist erst nach der Pubertät abgeschlossen. Manche Gebiete werden erst sehr spät in das Netzwerk Gehirn integriert. Zum Beispiel der Hippocampus. Diese Struktur ist für unser deklaratives Lernen verantwortlich. Die meisten Menschen erinnern sich praktisch kaum an erlebte Fakten vor dem 3. Lebensjahr - der Hippocampus wird erst zu diesem Zeitpunkt "angeschlossen".

So kann der Zustand der Myelinisierung (Abbildung 1.16) der Axone über den Entwicklungsstand der einzelnen Rindenareale Auskunft geben. Die dunklen Areale werden früh, die hellgrauen später und die weißen sehr spät (bis in die Pubertät hinein) myelinisiert. Auch das Synapsenwachstum (Abbildung 1.15) ändert sich und ist erst nach 20 Jahren abgeschlossen. Trotzdem können zu einem späteren Zeitpunkt immer noch Synapsen wachsen, beziehungsweise modifiziert werden.

 

Selbstorganisierende Karten

2.0 Selbstorganisierende Karten

Zur Entwicklung des Nervensystems gibt es noch einige interessante Fragen. Die Retina der beiden Augen ist jeweils eine runde Fläche. Die Neuronen der halben Retinafläche projizieren auf den primären visuellen Cortex, der eher rechteckig ist. Für den somatosensorischen Cortex wird dieser Sachverhalt schon etwas komplizierter. Die Oberfläche des menschlichen Körpers - die Haut - ist ein zweidimensionales Gebilde in einer dreidimensionalen Welt. Wie wird ein solches - zumal komplexes - Gebilde auf ein zweidimensionales rechteckige Gebiet projiziert, wobei die Nachbarschaft erhalten bleiben soll.

Um diese Frage zu klären, können wir den Kohonen-Algorithmus benutzen. Dieser Netzwerkstyp wurde erstmals von Christoph von der Malsburg vorgestellt. Aber erst rund 15 Jahre später konnte Teuvo Kohonen durch einige von ihm vorgeschlagene Vereinfachungen dem Algorithmus zum Durchbruch verhelfen. Der Algorithmus zeichnet sich dadurch aus, daß er ohne Lehrervorgaben auskommt und ziemlich stark versucht die Biologie zu implementieren. Das Verfahren kann lernen, ohne daß ein externen Input notwendig ist. Mit ihm können einige Fragen zur Entwicklung des Nervensystems geklärt werden.

Christoph von der Malsburg ging von drei weitgehend akzeptierten Grundannahmen aus:

(1) Die Verbindungsstellen zwischen den Neuronen verändern ihre Wirksamkeit aufgrund beider Verbindungspartner. Diese Regel, die bereits Donald O. Hebb bereits 1949 vorgeschlagen hat, bildet die Basis für die Lernfähigkeit biologischer Netze.

(2) Neuronale Aktivität breitet sich nicht nur in die nächstfolgende Schicht, sondern auch innerhalb der eigenen Schicht ein kleines Stück seitwärts aus.

(3) Kortikale Neuronen und ihre Verbindungsstellen konkurrieren miteinander. Neuronen mit stärkerer Erregung unterdrücken die schwächeren. Im Extremfall unterdrückt das Neuron mit der maximalen Erregung alle anderen Neuronen.

Auf ähnlichen Überlegungen basieren zahlreiche neuere Modelle. Ein wesentlicher Vorteil dieses Netzwerktyps ist, daß die Struktur der Karte allein durch Präsentation von Beispielreizen entsteht, ohne daß ein Lehrer Auskunft über den bisherigen Erfolg des Lernens geben müsste. Eine Karte besteht aus N Neuronen, die sich durch eine wohldefinierte Nachbarschaft (ein-, zwei- oder mehrdimensional) auszeichnen. Das heißt, jedes Neuron hat eine bestimmte Anzahl von Nachbarn, die beim Lernen beeinflusst werden. Bei einem zweidimensionalen Netz besitzt jedes Neuron typischerweise vier Nachbarneuronen.


Abbildung 2.0: Die Darstellung von zwei selbstorganisierenden Karten. Die 1. Schicht dient der Eingabe, während in der 2. Schicht die eigentliche Verarbeitung stattfindet. Die Dimensionen der einzelnen Schichten können unterschiedlich ausfallen.

Die zweite Schicht ist die relevante Schicht in der aktive Erkennungsprozesse ablaufen. Die erste Schicht stellt nur die Eingabeschicht dar. Jedes Neuron der Eingabeschicht projiziert auf jedes Neuron der 2. Schicht (verarbeitenden Schicht). Jedes Neuron der verarbeitenden Schicht steht - nur im vereinfachenden Sinn - für eine spezielle Eigenschaft. Natürlich ist es möglich, daß die Zahl der Neuronen der Eingabeschicht unterschiedlich zur Anzahl der Neuronen in der 2. Schicht ist.

Jedes Neuron der Eingabeschicht (1. Schicht) besitzt einen Wert xk mit k=1,...,p. Die nachbarschaftliche Beziehung in der Eingabeschicht ist egal. Damit ist ein Eingabevektor definiert. Betrachten wir eine zweidimensionale verarbeitende Schicht. Wesentlich ist die nachbarschaftliche Beziehung der Neuronen der 2. Schicht. Jedes Neuron hat vier Nachbarn. Ein Neuron ist somit durch seine Position i, j mit i=1,...,n (Anzahl der Spalten) und j=1,...,m (Anzahl der Reihen) definiert. Jedes Neuron verfügt über interne Werte - wkij mit k=1,...,p , die als Gewichte bezeichnet werden. Damit ist ein Gewichtsvektor definiert.

Der Eingabevektor und die jeweiligen Gewichtsvektoren besitzen einen Abstand. Der Kehrwert des Abstandes entspricht der Aktivität des i,j-ten Neurons. Die Aktivität wird folgendermaßen bestimmt:

Wenn also der Abstand minimal ist, dann ist die Aktivität am größten. Aus praktischen Gründen verwendet man nicht den Kehrwert, sondern den direkten Abstand - man muß dann nur berücksichtigen, daß das Neuron mit dem geringsten internen Zustand die maximale Aktivierung besitzt.

Am Anfang sind die Skalare der Gewichtsvektoren i=1,...n und j=1,...m absolut zufällig mit Werten zwischen 0 und 1 belegt, das heißt mit k=1,...,p. Das Prinzip das hier angewandt wird heißt "the winner takes ist all". Es kann nur ein Neuron bei dem die jeweiligen Gewichte zum Eingabevektor den geringsten Abstand besitzen.

Abbildung 2.2: Die Äquivalenz des Eingaberaums und des Gewichtsraums.

Betrachten wir wieder ein einfaches Beispiel - das Gewichtsproblem. Die Eingabeschicht besteht aus zwei Neuronen, dem Neuron für das Körpergewicht und einem Neuron für die Körpergröße. Jedes Neuron der 2. Schicht bekommt beide Informationen aus der 1.Schicht - das Körpergewicht und die Körpergröße. Umgekehrt stellen die Gewichte der Neuronen der 2. Schicht auch eine Position im Gewichtsraum dar (im 2-dimensionalen Raum kann man sich das leicht vorstellen). Die Position des Neurons im Gewichtsraum entspricht der Position im Eingangsraum. Eine Person mit dem Idealgewicht würde dem Neuron - dargestellt durch einen Kreis mit Punkt - im Gewichtsraum darstellen. Wie durch den Beweis von Papert und Minsky bekannt ist, kann ein Neuron die Eingabe nicht in drei Gebiete unterteilen. Es werden mehr Neuronen benötigt.

Abbildung 2.3: Unterschiedliche Nachbarschaften mit einer unterschiedlichen Anzahl von Neuronen.


Die Neuronen der verarbeitenden Schicht können auf die unterschiedlichste Weise angeordnet werden. So ist es möglich, daß die Neuronen aufgefädelt sind, wie auf einer Perlenschnur. Jedes Neuron hat nur zwei Nachbarn (eindimensionale Topologie). Andererseits können die Neuronen auch auf einem Gitter liegen, wobei die Neuronen 4 Nachbarn haben - mit Ausnahme der Neuronen am Rand. Die Zahl der Neuronen, die man verwendet, hängt stark vom Problem ab.

Natürlich sind auch andere Strukturen und Topologien möglich - der Phantasie sei keine Grenzen gesetzt. Aus praktischen Grenzen verwendet man fast nur ein- oder zwei-dimensionale Netze. Nur für ganz wenige Anwendungen sind drei-dimensionale Netze notwendig und sinnvoll (Rechenzeit).

Damit stellt sich die Frage, wie die Neuronen zu ihren internen Werten - den Gewichten - kommen. Für unser Beispiel wäre es leicht möglich die Gewichte anzugeben, ohne daß man viel rechnen muss. Aber in der Regel ist dies nicht so einfach, da der Eingabevektor ziemlich hochdimensional sein kann. Damit ist es nicht mehr möglich, den Eingaberaum aufzuzeichnen. Normalerweise bleiben die Neuronen der zweiten Schicht wie auf einer Perlenkette oder auf eine Netz angeordnet. Es gibt nur sehr wenige Anwendungen, bei denen es Sinn macht, eine höherdimensionale Nachbarschaft zu definieren. Betrachten wir also wieder unser Gewichtsproblem mit 3 Neuronen, die auf einer Perlenkette aufgefädelt sind.

Abbildung 2.4: Die Darstellung von 3 verbundenen Neuronen, die sich durch ein Eingabemuster verändern.


Am Anfang werden die Gewichte der Neuronen der 2. Schicht zufällig gewählt (linke obere Abbildung). Dann wird den Neuronen ein Beispielreiz (graues Kreuz) präsentiert und der Abstand zwischen den 3 Neuronen und dem Beispielreiz bestimmt (rechte obere Abbildung). Das Neuron mit dem geringsten Abstand (Neuron 1) ist der Gewinner. Seine Position - sprich seine Position im Gewichtsraum - wandert nun ein Stück in Richtung des Beispielreizes. Der nächste Nachbar - egal wie weit er weg ist - wandert auch etwas in Richtung des Beispielreizes. Das Neuron mit dem kleinsten Abstand (the winner), ändert seine internen Werte - die Gewichte folgendermaßen:

Der Lernparameter g wird so eingestellt, daß die Gewichtsänderung nicht zu heftig ausfällt - also kleiner als 1 ist - und nicht zu klein ist, damit das Lernen nicht zulange dauert. Also sollte für g gelten: 0.2 < g < 0.4. Natürlich ist dieser Wert nur ein Richtwerte - er kann von Problem zu Problem verschieden sein. Für die unmittelbaren Nachbarn ergibt sich

Da sich die unmittelbaren Nachbarn etwas weniger verändern sollen, wird ein zusätzlicher Lernparameter a eingeführt. Für ihn gilt das selbe wie für g. Man sollte aber nicht vergessen, daß die beiden Lernparameter a und g multipliziert werden. Damit kann a sogar etwas größer als g ausfallen. Da wir eine Kette von Neuronen vorliegen haben, gibt es nur einen Ordnungsparameter i für die Neuronen. Wenn ein Netz von Neuronen gegeben wäre, das heißt jedes Neuron hätte vier Nachbarn, dann wäre die Änderung der Gewichte für die Nachbarn durch folgende Formel gegeben:

Nun werden dem Netzwerk viele Reize der Reihe nach präsentiert. Dadurch kommt es zu einer Veränderung der Gewichte. Wenn die Reize geklustert sind, dann werden sich die Neuronen nach dem Schwerpunkt der Kluster ausrichten. Im optimalen Fall gibt es dann für jeden Kluster (auch Gebiet oder Gruppe) ein Neuron. Wenn die Daten eher kontinuierlich verteilt sind - so wie in diesem kleinen Beispiel - dann übernimmt für jeden Bereich (entspricht benachbarten Klusters) ein Neuron die Verantwortung, wobei die Grenze natürlich willkürlich gezogen wurde. Wenn die Nachbarschaften etwas komplizierter ausfallen, kann es notwendig sein, daß für ein Bereich mehrere Neuronen notwendig sind. Wenn der Algorithmus die Beispielreize verarbeitet hat, dann sind die Neuronen, oder besser gesagt, die Gewichte der Neuronen, wie in der Abbildung 2.6 links unten, verteilt. Neuron 1 ist für die Untergewichtigen, Neuron 2 für die Normalgewichtigen und Neuron 3 für die Übergewichtigen verantwortlich. Wenn die Neuronen aber am Anfang anders gelegen wären, siehe dazu die Abbildung 2.6 rechts unten, würde das Ergebnis etwas anders aussehen. Die Neuronen wären zwar genauso verteilt, aber die Enden wären vertauscht. Das heißt Neuron 1 würde den Bereich von Neuron 3 abdecken und umgekehrt. Das kann natürlich von vornherein nicht bekannt sein. Aus diesem Grund muss noch festgestellt werden, was das Netz gelernt hat. Für jeden wesentlichen Bereich gibt es einen (hoffentlich) typischen Beispielreiz. Für jeden Beispielreiz pro Bereich gibt es - wenn man alles richtig gemacht hat - ein Neuron, das am aktivsten ist. Diese Zuordnung muss extern durchgeführt werden. Das Gehirn löst dies auf eine eigene sehr interessante Weise, wie man im Kapitel über das Arbeitsgedächtnis lesen kann. Wenn ein Neuron für zwei Bereiche anspricht, dann sind entweder zuwenig Neuronen für das Problem vorhanden, oder das Netz hatte zu wenig Zeit zu lernen.

Der Unterschied zwischen dem von der Malsburg- und dem Kohonen-Algorithmus besteht in der Veränderung der Gewichte der Nachbarn. Bei von der Malsburg wurden alle Gewichte der Neuronen verändert. Der Gewinner - das Neuron mit der höchsten Aktivität - wurde am meisten verändert. Der Lernparameter g wurde durch eine Gaußkurve ersetzt, wodurch alle anderen Gewichte der Neuronen - auch die sehr weit entfernten - verändert wurden. Aber ab einem bestimmten Abstand ist die Änderung so gering, daß die Gewichtsänderung nicht mehr ins Gewicht fällt. Dadurch, daß Kohonen nur die nächsten - manchmal auch die übernächsten Neuronen - bei der Gewichtsänderung berücksichtigte, konnte er gewaltig an Rechenkapazität sparen und interessante Anwendungen realisieren. Eine interessante Innovation besteht in der Verwendung der Sombrerofunktion - beziehungsweise der diskreten Sombrerofunktion. Die übernächsten Nachbarn werden nicht zum Testreiz hingezogen, sondern sie werden sogar etwas weggedrängt. Dies führt zu einer rascheren Ausbreitung der Gewichte über dem Zielraum.

Der Kohonen-Algorithmus beschreibt selbstorganisierende Eigenschaftskarten. Ähnliches wird auf Ähnliches abgebildet. Dies ist praktisch ident mit den sensiblen Phasen bei der Entwicklung des Nervensystems. Die betreffenden Regionen werden mit nachbarschaftserhaltenden Informationen gefüttert und nach einiger Zeit sprechen nur mehr die richtigen Neuronen darauf an. Genauso wie beim Kohonen-Algorithmus sprechen auch benachbarte Neuronen auf ähnliche Reize an. Der Algorithmus versucht "nur" Ähnlichkeiten wiederzuerkennen.

Betrachten wir den somatosensorischen Cortex. Dieses Gebiet ist von oben betrachtet ziemlich rechteckig und die Neuronen sind in diesem Areal relativ gleichmäßig verteilt. Wenn nun vom somatosensorischen Bereich des Thalamus die Axone in dieses Gebiet einströmen und mit den einzelnen Neuronen des somatosensorischen Cortex Kontakt aufnehmen, dann muss die Nachbarschaft erhalten bleiben, das heißt die Neuronen, die benachbart im Thalamus sind, müssen ähnlich-benachbarte Neuronen in der Rinde aktivieren. Anders formuliert, für jedes Gebiet das der Thalamus innerviert, ist ein Neuron - beziehungsweise eine kleine Neuronengruppe - verantwortlich. Der Unterschied zum Kohonenalgorithmus besteht nun darin, daß die Neuronen im Gehirn ihren inneren Zustand - die Gewichte - nicht verändern können. Dies gilt nur für dieses spezielle Problem. Die Neuronen können natürlich über die synaptische Plastizität die Gewichte verändern. Aber, für das Problem der Entwicklung des Nervensystems ist die tatsächliche Position des Neurons wichtig. Beim Kohonenalgorithmus wird die Position des Neurons über den abstrakten Gewichtsraum angezeigt. Das heißt jedes Neuron hat 2 Eingänge und 2 Gewichte. Über die Gewichte wird eine abstrakte Position definiert. Diese Position hat nichts über die tatsächliche physikalische Position der Neuronen zu tun. Trotzdem kann der Kohonenalgorithmus helfen, das Gehirn zu erforschen.

So gibt es im Gehirn sehr wohl nachbarschaftsverletzende Abbildungen. Wenn das Zielgebiet sehr stark von einem Quadrat abweicht und es ein sehr langgezogenes Rechteck wird, dann kommt es zu Einschnürungen.

Diese Einschnürungen sind das Resultat des Algorithmus, da er versucht das Zielgebiet optimal zu überspannen. Dies gelingt ihm auch, aber leider kommt es zu Unstetigkeiten. Ein kleiner Schritt im Eingangsraum (das Rechteck) über die Falte (Pfeile) führt zu einem großen Sprung über viele Neuronen im Zielraum der Neuronen (Punkte). Um dies zu vermeiden müssten weniger Neuronen beteiligt sein.

Abbildung 2.8: Die rechte Retinahälfte, die ein Gehirn sieht. Im primären visuellen System (links) werden Teile des gesehenen Gehirns stark gestaucht beziehungsweise verkleinert. Wichtig ist, daß der zentrale Bereich stark vergrößert wird.

Bei der visuellen Wahrnehmung kommt es zu einer Dehnung und Stauchung. In der Graphik oben ist die rechte Retinahälfte dargestellt und in Segmente unterteilt. Dieses Bild wird dann in den visuellen Cortex der linken Hirnhälfte projiziert (linke Graphik). Manche Bereiche werden stark vergrößert, wie zum Beispiel das zentrale Gesichtsfeld. Umgekehrt werden Bereiche im peripheren Sehfeld verkleinert, das heißt es gibt weniger Neuronen, die die visuellen Reize verarbeiten können. Die Verzerrungen sind bei Primaten logarithmisch. Im primären visuellen Cortex kommt es noch nicht zu Unstetigkeiten in der Abbildung.


Abbildung 2.9: Über die Retina wird ein Strichmännchen wahrgenommen. Dieses Strichmännchen wird im Areal 17 leicht deformiert und im Areal 18 so stark deformiert, daß Sprünge in der Abbildung auftreten.

Eine simulierte Katze sieht ein Strichmännchen in der rechten Hälfte ihres Gesichtsfeldes (linke Graphik). Die Zielgebiete in ihrem Cortex sind Ellipsen mit zunehmenden Verhältnis der Halbachsen, was den wesentlichen Eigenschaften der Areale A17-A19 einer echten Katze entspricht. In dem wenig gekrümmten Areal (mittlere Graphik 2.9) tritt noch keine Felddiskontinuität auf - wir haben ein Seitenverhältnis von 1:2, wohl aber in Rindenareal 18, das ein Seitenverhältnis von 1:20 besitzt (rechte Graphik 2.9). In dem stark gekrümmten Zielgebiet ist die Falte sehr tief und das Strichmännchen ist gänzlich zweigeteilt (abgesehen vom Stock). Deshalb ist der Rumpf des Strichmännchens aufgerissen - es ist nicht möglich den Rumpf kontinuierlich durchzuzeichnen. Karten können so verzerrt sein, daß Nachbarschaften verletzt werden können. In neurophysiologischen Experimenten wurden Karten im visuellen System vermessen. Bewegt sich ein Reiz kontinuierlich durch das Gesichtsfeld, dann verläuft die dadurch hervorgerufene Erregungsspur ebenfalls auf einer ununterbrochenen Linie durch die Areale V2 und V3 (gehören zum Sehzentrum). Wenn der Reiz jedoch den äußeren Teil der horizontalen Bildhalbierenden kreuzt, läuft die Erregungsspur zunächst am Rand des Areals, macht dann wenn der horizontale Meridian erreicht ist, am Rand einen Sprung und läuft an einer anderen Stelle wieder in das Areal hinein (Felddiskontinuität).

Bisher wurden nur Netze betrachtet, die eine geringe Eingabevektorlänge besessen haben - in der Regel nur 2 unterschiedliche Eingaben (x-y oder Körpergewicht-Körpergröße). Die Kohonennetzwerke zeigen ihre Stärke aber auch bei extrem hochdimensionalen Eingängen. Wenn zum Beispiel ein Bild mit 25´25 Pixel analysiert werden sollte, dann besitzt der Eingabevektor 625 Elemente - es liegt ein 625-dimensionaler Raum vor. Dass man diesen Raum nicht einfach aufzeichnen kann, beziehungsweise, daß man ihn sich nicht vorstellen kann, versteht sich von selbst. Aber Bilder welche ähnliche Merkmale aufweisen, sind in diesem Raum benachbart - oder anders ausgedrückt - sie bilden einen Cluster. Mit einem solchen Netz ist es relativ einfach solche Cluster zu finden.

Dennoch verwendet man ein Netz aus Neuronen mit einer zweidimensionalen Nachbarschaft. In der Regel reicht dies aus, um höherdimensionale Räume zu untersuchen. Man sieht, das ähnliche Reize (durch Zahlen, beziehungsweise durch Graustufen dargestellt) gemeinsame Gebiete formen. Es gibt Bereiche die mehrmals vorhanden sind. das heißt, es gibt zwei unabhängige nicht benachbarte Gebiete, die in der Interpretation die selbe Bedeutung haben, wie zum Beispiel die 5 in der Abbildung 2.10. Natürlich liegt es beim Betrachter, wie viele Cluster man haben möchte. Theoretisch wäre es möglich die Eingabe mit dem Netz aus Graphik in 96 unterschiedliche Bereiche zu unterteilen, da 12´8 Neuronen vorhanden sind. Aus praktischen Gründen liegt aber die Zahl der Muster meistens deutlich darunter, da die Gebiete meistens nicht linear nebeneinander liegen - aber wenn man Muster hat, die linear nebeneinander liegen, dann benötigt man kein technisches Netzwerk.


Aufbau des Gehirns

Das menschliche Gehirn kann funktionell, anatomisch und zytologisch in verschiedene Gebiete unterteilt werden. Für die Modellierung ist es wichtig, diese einzelnen Gebiete zu kennen. Leider kennen wir nicht von allen Gebieten den exakten Aufbau, aber meist wissen wir, wofür ein Gebiet zuständig ist. Diese Information erhielt man oftmals durch Erkrankungen des Gehirns. Tumore, Hirnhautentzündungen und Schlaganfälle führen zu typischen Zerstörungen des Gehirns. Leider sind diese Zerstörungen meist nicht punktuell, sondern flächenhaft. Deshalb muss man sehr vorsichtig mit diesen Daten umgehen.


3.0 Die Teile des Gehirns

Das Gehirn untergliedert sich in fünf große Bereiche:

· das verlängerte Rückenmark (Myelencephalon)
· das Hinterhirn auch Rautenhirn (Metencephalon oder Rhombencephalon)
· das Mittelhirn (Mesencephalon)
· das Zwischenhirn (Diencephalon)
· das Endhirn (Telencephalon)

Das Myelencephalon oder auch das verlängerte Rückenmark hat die Aufgabe Signale vom Gehirn zum Körper und umgekehrt weiterzuleiten.

Das Metencephalon (Hinterhirn) kann man wieder in zwei Bereiche unterscheiden. Ein Bereich ist die Pons (Brücke). Der andere Bereich ist das Kleinhirn (Cerebellum). Das Kleinhirn besitzt eine stark gefaltete Rinde. Die Aufgabe des Kleinhirn besteht in der Kontrolle des sensomotorischen Systems. Wenn das Kleinhirn ausfällt, dann ist die präzise Bewegungskoordination und die motorische Anpassung eingeschränkt.

Abbildung 3.1: Das Gehirn lässt sich in verschieden Bereiche unterscheiden. In der Darstellung sind auch die 4 Gehirnventrikel im Querschnitt gut erkennbar.

Das Mesencephalon (Mittelhirn) lässt sich wieder in mehrere funktionelle Einheiten unterscheiden. Zum einen gibt es das Tectum, das zwei paarige Ausbeulungen besitzt. Das hintere Paar - Colliculus inferior dienen der Hörverarbeitung, das vordere Paar - Colliculus superior - unterstützt die Sehverarbeitung. Durch diese beiden Kerne wird die Seh- und Hörinformation unabhängig von anderen Arealen verwaltet. Im Tectum werden keine komplexen Muster verarbeitet, es wird nur eine grobe Abschätzung über die Umwelt getroffen. Damit kann rasch auf mögliche Umweltbedrohungen reagiert werden - manchmal werden dann aber auch harmlose Umweltreize als gefährlich eingestuft, da das System nur mit sehr einfachen Mustern umgehen kann.
Der zweite große Bereich des Mittelhirns ist das Tegmentum. Teile der Formatio Reticularis ziehen durch das Tegmentum, das auch noch über mehrere Kerne verfügt: Die Substantia grisea centralis, die Substantia nigra und der Nucleus ruber. Die Substantia grisea centralis scheint eine wesentliche Rolle bei der Übermittlung schmerzreduzierender Wirkungen von Opiaten zu spielen. Für die Steuerung von motorischen teilrhythmischen Bewegungen ist die Substantia nigra zuständig. Auch der Nucleus ruber hat Einfluss auf das sensormotorische System.

Das Diencephalon (Zwischenhirn) umfasst zwei Strukturen, zum einen den Thalamus, zum anderen Hypothalamus. Der Thalamus umfasst verschiedene Kerne. Viele dieser Kerne dienen als Schaltstelle für sensorischen Input. Die vorverarbeiteten Signale werden dann in die Großhirnrinde weitergeleitet. Der Thalamus besitzt aber auch noch einige unspezifische Kerne, die der Modulation der Synchronisation in der Großhirnrinde dienen. Über diese Kerne werden auch verschiedene Rindenareale miteinander verschaltet.
Der Hypothalamus enthält eine Vielzahl von Kernen, die der Steuerung motivationaler Zustände dienen. Über diese Kerne kann die Hypophyse zur Hormonfreisetzung angeregt werden. Über die Hypophyse kann der Hormonspiegel im Blut geregelt werden, umgekehrt kann aber auch der Hormonspiegel die Hypophyse und die damit verbundenen Gehirnstrukturen beeinflussen. Die Funktion der Mamillarkörper - zwei Kerne des Hypothalamus - ist bisher heute leider noch nicht geklärt.

Als besonders wesentlich ist die Formatio Reticularis zu erwähnen. Dieser Bereich fasst ungefähr 100 Kerne vom verlängerten Rückenmark bis zum Mittelhirn zusammen. Die Formatio Reticularis wird auch manchmal als aufsteigendes reticuläres Aktivierungssystem bezeichnet (ARAS). Diese Kerne scheinen für die Steuerung der Aufmerksamkeit, des Schlafes und Herz- Kreislaufreflexe zuständig zu sein. Die genaue Funktion vieler Kerne ist bis heute noch nicht geklärt - wenn allerdings einzelne Kerne beschädigt werden, dann kann dies zu beträchtlichen Schädigungen (Autismus) führen.

 


Abbildung 3.2: Eine dreidimensionale Darstellung verschiedener Bereiche des Gehirns.

Das Telencephalon oder auch Endhirn stellt den größten Bereich des Gehirns dar. Die Großhirnrinde oder auch der Neokortex dient der Speicherung und Verarbeitung aller einlangenden Informationen (siehe Kapitel Großhirnrinde). Die unterschiedlichen Bereiche der Großhirnrinde sind durch Faserverbindungen miteinander verbunden. Diese Verbindungen stellen den größten Teil des Volumens des menschlichen Gehirns dar. Ein Teil der Großhirnrinde ist der Hippocampus, der sich allerdings wesentlich von der übrigen Rinde unterscheidet. Die Hippocampusformation ist anders aufgebaut, als die Großhirnrinde, und sie dient ausschließlich der Gedächtniskonsolidierung.



Links: Leider stehen die Links nicht zur Vefügung.



Applet: Leider stehen keine Applets zur Verfügung.


Fragen: Diese Fragen sollten nach der Vorlesung beantwortet werden können,

Was ist der Unterschied zwischen einer Kohonen-Map und einer Malsburg-Map ?

Welche Grundannahmen setzte Christoph von der Malsburg voraus?

Wie funktioniert eine Kohonen-Map?

Warum ist eine Kohonen-Map unbiologisch?

Was passiert, wenn das Seitenverhältnis einer Karte zu groß wird?

Aus welchen großen Bereichen besteht das Gehirn?

Welche Aufgaben (grob) haben die unterschiedlichen Bereiche des Gehirns?