Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.11.1985

Neuro-Kybernetik und Künstliche Intelligenz

Jahrzehntelange Bemühungen in der Forschung auf dem Gebiet der Künstlichen Intelligenz (Kl) haben zu eindrucksvollen Resultaten geführt, aber dennoch bleibt der knapp drei Pfund schwere "Prozessor menschliches Gehirn" bis auf den heutigen Tag unerreicht. Was also liegt näher, als das Gehirn selbst zum Vorbild neuer Denkwerkzeuge zu machen. Die vergleichsweise Trägheit seiner Schaltelemente kompensiert das Gehirn wirkungsvoll durch seinen hochgradig parallelen Aufbau. Ein einzelnes Neuron kann mit mehreren tausend anderen Neuronen verbunden sein. In Netzwerken mit einer derartig hohen Verschaltungsdichte können extrem komplexe Phänomene ablaufen, die man erst ansatzweise zu verstehen beginnt. Drei Studien von Joachim Buhmann, Helge Ritter und Robert Divko, die in der Arbeitsgruppe "Neuro-Kybernetik'' von Professor Klaus Schulten am Physik-Department der TU-München durchgeführt wurden, sollen zeigen, wie die Kluft zwischen den Computerwissenschaften einerseits und der Neurobiologie andererseits überwunden werden kann und wie bekannte Organisationsprinzipien neuronaler Systeme in selbstorganisierenden Algorithmen nachgebildet werden können.

Um ihre Leistungen zu erreichen, benötigen die heutigen Kl-Programme trotz superschneller Computer ansehnliche Rechenzeiten von mehreren Stunden, während der Mensch die gleiche Aufgabe in wenigen Sekunden löst. Bedenkt man, daß die "Schaltelemente" des Gehirns, die Neuronen, asynchron und nur mit Taktfrequenzen im 100-Hertz-Bereich arbeiten und daher etwa bei der Wahrnehmung eines Bildeindrucks nur einige Dutzend Takte ablaufen, so wird deutlich, welch enormes Know-how sich durch die Erforschung der Arbeitsprinzipien unseres Gehirns freilegen läßt. Von der Neurobiologie und der Kybernetik neuronaler Systeme sind in Zukunft wichtige Anstöße zu erwarten, die die Konzeption und Architektur von Computern mit Künstlicher Intelligenz beeinflussen werden.

Assoziatives Nervennetzwerk

Eine der eindrucksvollsten Leistungen des menschlichen Gehirns ist die Fähigkeit, zu assoziieren und verwandte Begriffe zu verbinden. Wer unbekannte Analogien erkennt und Lösungen aus einem fremden Arbeitsgebiet auf seine Probleme anwendet, gilt als kreativ und bei herausragendem Erfolg als genial.

Viele Versuche wurden in den letzten 20 Jahren unternommen, um solche "intelligenten" Fähigkeiten des Menschen mit Computerprogrammen nachzubilden. Daß wir den existierenden AI-Programmen immer noch meilenweit überlegen sind deutet an, wie mächtig die Organisationsstrukturen in unserem Gehirn sind. Im Unterschied zu konventionellen Computern fällt bei der Analyse der Organisationsprinzipien im Gehirn die parallele Verarbeitung der Information und die variable Verschaltung der einzelnen Neuronen auf. Am Beispiel eines Nervennetzwerkes aus 1000 Nervenzellen soll demonstriert werden, welche Ordnungsprinzipien dem Netzwerk ermöglichen, komplexe Aufgaben der Mustererkennung und der Musterassoziation zu lösen. Das neuronale Netz zeigt unerwartete Fähigkeiten, die hinter dem einfachen Verhalten eines einzelnen Modellneurons wohl kaum vermutet werden. Diese kybernetische Sichtweise, die das Gesamtsystem "neuronales Netzwerk" mit den Wechselwirkungen der Neuronen betrachtet und das Verhalten der einzelnen Neuronen nicht überbewertet, findet auch in der Neurobiologie bei Anatomen und Physiologen immer mehr Zuspruch.

Das Netzwerk, das wir analysieren wollen, besteht aus 1000 Nervenzellen, die alle miteinander über Leitungen, sogenannte Synapsen, verbunden sind. Über diese Leitungen können die Nervenzellen gegenseitig Informationen austauschen. Der innere Zustand eines Neurons wird durch das Zellpotential charakterisiert. Im einfachsten Modell unterscheiden wir zwei Bereiche des Zellpotentials, den sensitiven und den aktiven Zustand. Im aktiven Zustand feuert die Zelle einen Potentialpuls und erregt damit die Neuronen, die über Synapsen mit ihr verbunden sind. Befindet sich das Neuron dagegen im sensitiven Zustand, summiert es die verschiedenen postsynaptischen Potentiale der Neuronen auf, die gefeuert haben und über Synapsen den Potentialpuls zur sensitiven Zelle leiten. Übersteigt die Gesamterregung Zelle ein Schwellpotential, feuert die erregte Zelle. Andernfalls verharrt sie im sensitiven Zustand und summiert die Erregung weiterer einlaufender Pulse auf. Das postsynaptische Potential verschwindet nach wenigen Millisekunden wieder. Um einen Potentialpuls auszulösen und das Neuron zum Feuern zu bringen, müssen genügend verbundene Neuronen nahezu gleichzeitig postsynaptische Potentiale in der sensitiven Zelle aufbauen. Dieses Wechselspiel aus Erregung und Summation von Pulsen einerseits, und der Unterdrückung von Potentialen unterhalb der Schwelle andererseits, bestimmt die "Maschinensprache" unseres Modellnetzwerkes und auch, soweit wir unser Gehirn heute verstehen, unserer Nervennetzwerke im Großhirn. Die Dynamik des Nervennetzwerkes läuft auf einer internen Zeitskala von Millisekunden ab, das heißt, eine Zustandsänderung des formalen Neurons entspricht dem Ablauf von wenigen Millisekunden. Diese Taktfrequenz von 100 bis 200 Hertz wird auch in Nervennetzwerken von höheren Tieren gemessen. Die Simulation selber dauert natürlich sehr viel länger, da auf seriellen Computern größere Nervennetzwerke nicht in "realtime" simuliert werden können.

Neben den Neuronen, die ihren Zustand zeitlich ändern können, wachsen oder schrumpfen die Synapsenstärken. Die Verbindungsleitungen zwischen den Neuronen, den Prozessoren in unserem Netzwerk werden stärker oder schwächer und entsprechend erregt oder inhibiert das aktive Neuron seinen Partner. Die Synapsenstärken werden nach den folgenden Regeln geändert, die auf den Psychologen Hebb zurückgehen: "Neuronen, die oft gleichzeitig aktiv sind und feuern, verbinden sich durch starke, exzitatorische Synapsen. Feuern dagegen zwei Neuronen selten gemeinsam, so werden ihre Verbindungssynapsen abgebaut". Durch die Veränderung der Synapsenstärken wird die Synchronizität gemessen, mit der die Zellen aktiv werden. Bei gleichzeitigen Feuern verstärken die Neuronen ihre Verbindungssynapsen und werden sich dann auch gegenseitig erregen. Dadurch wird eine weitere Gleichzeitigkeit in den Pulsen gefördert. Fehlt jedoch die Gleichzeitigkeit in der Zellaktivität, verschwinden die erregenden Synapsen und gegenseitige Hemmung tritt ein.

Diese einfachen Regeln fördern die Kooperation zwischen Neuronen, die auf Grund ihres Aktivitätszustandes zusammengehören. Kooperierende Neuronen treten in Konkurrenz zu Neuronengruppen, mit denen sie selten zusammen feuern und mit denen sie deshalb nichts zu tun haben. Auch aus anderen Gebieten der Physik und Biologie, wie zum Beispiel der Hydrodynamik, der nichtlinearen Optik, der Populationsbiologie oder der Morphogenese, kennt man Phänomene, bei denen komplexe Strukturen durch das Wechselspiel von Kooperation und Konkurrenz wachsen. Nach allem, was die Neurobiologie heute weiß, scheint das Gehirn seine innere Struktur auch mit Hilfe dieses Tricks aufzubauen.

Parallele Assoziation eines Musters

In der Simulation unseres Modellnetzwerkes lernt das neuronale Netz 0,3 Sekunden lang das Muster "brain", siehe Seite 66 das von einer Rezeptorschicht auf das Netzwerk projiziert wird. Dabei verändert das neuronale Netz seine innere Synapsenstruktur gemäß den Hebb'schen Regeln. Die vom Muster angeregten Zellen, die das Wort "brain" repräsentieren, feuern gleichzeitig und schalten sich deshalb exzitatorisch zusammen. Die Hintergrundzellen werden nicht stimuliert, erreichen deshalb nicht das Schwellpotential und werden im Verlauf der Lernphase von den Musterzellen immer stärker inhibiert.

Nach der Lernphase testen wir, ob das Muster erfolgreich abgespeichert ist und ob das Netzwerk fehlende Teile assoziieren kann. Die Reaktion des Netzwerkes ist zu sehen, wenn es mit dem Muster "brain" erregt wird. Bei t= 323.75 sind die Neuronen, die das fehlende "i" repräsentieren, im Ruhezustand und werden erst nach und nach während der nächsten 1,5 Millisekunden erregt. Alle Neuronen, die mit einer kursiv und fett gedruckten Null (0) dargestellt sind, haben gefeuert. Die Zahlen verschlüsseln das Zellenpotential, wenn es über dem Ruhepotential liegt. Zum Beispiel bedeutet eine 8, daß das Zellpotential 80 Prozent des Schwellpotential erreicht hat. Aktive Neuronen, die das Schwellpotential überschritten haben und gerade feuern, sind mit einem Stern (*) gekennzeichnet. Zellpotentiale, die unterhalb des Ruhepotentials liegen, sind nicht dargestellt (Leerzeichen). Diese Potentiale gehören zu inhibierten Neuronen.

Sehr gut ist während dieser drei Zeitschritte die Dynamik zu erkennen, die hinter den assoziativen Fähigkeiten des Netzwerkes steckt. Durch das Feuern der Zellen in den Buchstaben "a" und "n" werden die Zellen im ,.i" erregt und erreichen mit einer kurzen Zeitverzögerung von 1,5 Millisekunden das Schwellpotential. Das Netzwerk hat das Wort "brain" im Fragment , "bra n" erkannt und den fehlenden Buchstaben "i" ergänzt.

Wo steckt aber die Information über das gelernte Muster nach der Lernphase? Das Muster wird während der Lernphase nichtlokal in der Synapsenstruktur gespeichert. Im Gegensatz zu herkömmlichen Computern kann bei dieser nichtlokalen Speicherung keine genaue Adresse angegeben werden, wo die Information zu finden ist. Jede Synapse trägt einen kleinen Teil zur Speicherung des gesamten Musters bei, obwohl sie selbst nur ein Bit codieren kann und das Muster aus etwa 1000 Pixels besteht. Diese Art der Speicherung gleicht der holographischen Wiedergabe von Bildern und wurde oft mit dem Prinzip der Holographie verglichen.

Durch die nichtlokale Form der Speicherung kann das Netzwerk Teile ergänzen, die zwar fehlen, eigentlich aber zum Muster gehören. Ein weiterer Nutzen der nichtlokalen Speicherung wird sichtbar, wenn zufällig ausgewählte Synapsen nach der Lernphase zerstört werden. Bei konventionellen Von-Neumann-Maschinen führt der Verlust von gespeicherter Information meist sehr schnell zum Abbruch eines Programmes. Aufwendige Korrekturcodes sind notwendig, um einzelne falsche Bits auszubessern. Unser Netzwerk kann dagegen auch beim Ausfall von zehn Prozent aller Synapsen noch mit hoher Wahrscheinlichkeit das vollständige Muster erkennen und den fehlenden Buchstaben "i" einfügen, der von 20 Zellen dargestellt wird. Erst bei Zerstörungsraten von 30 Prozent und mehr wird das fehlende "i" nur noch zur Hälfte ergänzt, wie Bild 1 zeigt. Die Dreiecke markieren Mittelwerte aus Simulationsrechnungen, während die durchgezogene Kurve mit einer theoretischen Abschätzung gewonnen wurde. Zusätzlich zur fehlerhaften Assoziation benötigt das Netzwerk auch länger, um den Buchstaben "i" zu ergänzen, wenn mehr als

ein Drittel der Synapsen zerstört wurde. An Patienten mit Gehirnverletzungen beobachtete man ähnliche Krankheitsbilder. Sie weisen oft ein geschwächtes und langsameres Erinnerungsvermögen auf, lassen aber keinen speziellen Gedächtnisverlust erkennen.

Die Dynamik des Zellpotentials und der Synapsen läßt neben der parallelen Assoziation, bei der fehlende Teile eines Musters ergänzt oder unterdrückt werden, auch serielle Assoziation zu, wenn die Synapsenregeln verallgemeinert werden. Unter serieller Assoziation versteht man die Fähigkeit, zeitliche Folgen von Mustern fortzusetzen, wenn die Musterserie abbricht. Unser akustisches Gedächtnis wendet dieses Prinzip der Assoziation oft an. Bekannte Melodien können wir oft ohne Schwierigkeiten vollenden, wenn die Tonfolge plötzlich aussetzt.

Läßt man in unserem Netzwerk auch Synapsen zu, die ein Signal nicht sofort an das verbundene Neuron weitergeben, sondern es um eine vorgegebene Zeitdifferenz verzögern, so kann das Netzwerk auch Musterfolgen lernen. Diese Verzögerungssynapsen verstärken sich nicht bei synchroner Aktivität der Neuronen, sondern wenn die Zellen in einem bestimmten Zeitabstand aufeinander feuern. Durch diese Synapsen werden Regelmäßigkeiten in der zeitlichen Abfolge von neuronalen Pulsen gelernt. Stimmt der Zeitabstand zwischen den Aktivitäten der beiden Neuronen nicht oder feuert gar nur ein Neuron, so schwächt sich die Verzögerungssynapse ab.

Bild 2 zeigt eine Simulation in der die Musterfolge "1.2. . 3... 4.. 5" gelernt wurde. Die erste Spalte stellt das Muster dar, das von den Rezeptoren auf das Netzwerk projiziert wird. In der zweiten Spalte sehen wir die Antwort des Netzwerkes auf diesen Reiz. Wird dem Netzwerk nach der Lernphase ein Teil der Musterfolge, "..2 . . 3", gezeigt, erkennt das neuronale Netz dieses Fragment und ergänzt den Rest der Folge ".... 4 .. 58" wie Bild 3.

Die physiologischen Vorgänge in einer Nervenzelle werden durch das dargestellte Modell stark vereinfacht, die wesentlichen Elemente der neuronalen Informationsverarbeitung sind aber in dieser Karikatur eines Neurons enthalten. Interessant für Theoretiker wird das Modell wegen seiner Einfachheit, die es gestattet, viele tausend solcher Modellneuronen in Simulationsrechnungen zusammenzuschalten .

Solche Simulationsrechnungen geben einen ungefähren Eindruck, welche Möglichkeiten in alternativen Architekturen für Computer stecken. Heute noch scheinen diese Prinzipien, die die Natur im Laufe der Evolution entwickelt hat, realitätsfern und utopisch. Die rasante Entwicklung von Computerbausteinen, die für parallele Architekturen mit großer Flexibilität geeignet sind (systolic-array-chips, Transputer, zelluläre Automaten), deutet aber darauf hin, daß die Computerwissenschaften in nicht zu ferner Zukunft von der Biologie und der Informationsverarbeitung in höheren Organismen lernen können.

Selbstorganisierende Abbildungen

Eng verknüpft mit der hochgradigen Plastizität seiner Verbindungsstruktur ist die Fähigkeit des Gehirns, seine "Programme" allein unter dem steuernden Einfluß seiner

Sinneswahrnehmungen selbst zu organisieren und nur ein anfängliches Minimum an genetisch festgelegter "Grundsoftware" zu verwenden. Die Verschaltungsstruktur der verschiedenen neuronalen Netzwerke mit den Rezeptoren in den Sinnesorganen organisiert sich während der Wachstumsphase dynamisch und ohne detaillierten Schaltplan für jede einzelne Synapse.

Von einem Einblick in die Prinzipien, die diesem selbstorganisierten Prozeß zugrunde liegen, ist man noch weit entfernt. Die gewaltige Bedeutung, die diese Organisationsprinzipien für die Softwareentwicklung eines Tages haben können, wird heute nur teilweise erkannt. Man kennt bisher nur die allerersten Stufen der neuronalen Entwicklung, bei der die Synapsenstruktur aufgebaut wird. Dabei spielt der räumliche Aufbau des Gehirns eine wesentliche Rolle. Es besteht in weiten Teilen aus einer nur wenige Millimeter starken Gewebeschicht, der Hirnrinde, die in komplizierter Weise gefaltet ist und unser Großhirn bildet. Diese Schicht ist der Hauptträger der Prozessorleistung unseres Gehirns. Entsprechend der Vielzahl von Aufgabenkomplexen, die unser Gehirn erfüllt, lassen sich in dieser Schicht zahlreiche Felder abgrenzen, die auf je ein Aufgabengebiet spezialisiert sind, wie zum Beispiel das Sehen, das Hören, das Sprachverständnis oder das Bewußtsein.

Viele dieser Aufgaben bestehen in der Verarbeitung der zahlreichen Sinnesinformationen unserer Wahrnehmungsorgane. Hierfür ist es erforderlich, daß deren Signale in geordneter Weise auf das zuständige Rindenfeld im Großhirn abgebildet werden. So müssen zum Beispiel die Bildsignale von der Netzhaut über den optischen Nerv derart zur Sehrinde geleitet werden, daß Signale von benachbarten Bildpunkten wieder benachbarte Punkte der Sehrinde erregen. Ein anderes Beispiel bietet der Tastsinn. Tastreize benachbarter Hautstellen werden wieder benachbarten Punkten des somatosensorischen Rindenfeldes zugeführt. Auf diese Weise entsteht eine Abbildung der gesamten Körperoberfläche auf diesem Rindenfeld, wobei "feinfühlige" Bereiche, wie etwa Lippen oder der Hand- und Fingerbereich im Vergleich zu weniger feinfühligen Regionen, wie etwa dem Rücken, vergrößert abgebildet werden. Viele dieser Abbildungen sind nicht punktweise genetisch festgelegt, sondern entwickeln sich nach heutiger Vorstellung unter dem Einfluß der Sinnesreize in den ersten Lebensmonaten und bleiben das ganze Leben hindurch plastisch. Sie sind somit der erste Schritt, um adaptiv eine für unser Gehirn geeignete Datenstruktur unserer Sinnesinformation zu erzeugen.

Ein besonders einfacher Algorithmus, der zur Entstehung derartiger Abbildungen führt, geht auf den finnischen Physiker Kohonen zurück. Als Beispiel diene hier die Abbildung einer Handfläche auf ein quadratisches (Modell-)Rindenfeld, das aus 30 x 30 Neuronen besteht. Jedes Modellneuron ist für einen kleinen Bedellneuron ist für einen kleinen Bereich der in Bild 4 und 6 gezeigten solchen Bereich nennt man auch "rezeptives Feld" des Neurons. Benachbarte rezeptive Felder überlappen sich, und ein Tastreiz an einem Punkt der Handfläche erregt alle Neuronen, deren rezeptive Felder den gereizten Punkt enthalten. Anfänglich sind die rezeptiven Felder der Neuronen in völlig ungeordneter

Weise über die Handfläche verteilt, und einige Neuronen besitzen überhaupt kein rezeptives Feld. Diese Anfangssituation ist in den Bildern 4 und 5 dargestellt. Bild 4 zeigt die Handfläche zusammen mit einer Einteilung in fünf Gebiete D, L, M, R und T. Bild 5 zeigt das 30x30-Feld der Neuronen und stellt einen Ausschnitt aus dem somatosensorischen Rindenfeld dar.

Jedes Neuron mit einem rezeptiven Feld in einem der Gebiete D, L, M, R oder T von Bild 4 ist durch den entsprechenden Buchstaben markiert. Die Punkte stehen für Neuronen ohne rezeptives Feld in der Handfläche. Der Algorithmus arbeitet nun wie folgt: Wird ein Punkt der Handfläche gereizt, so wird dasjenige Neuron N ermittelt, dessen rezeptives Feldzentrum dem Reizort am nächsten liegt. Es werden sodann die rezeptiven Felder aller Nachbarneuronen dieses Neurons N (einschließlich N selbst) in Richtung auf den Reizort hin verschoben. Dabei wird der Grad der Verschiebung so gewählt, daß der Abstand des rezeptiven Feldzentrums zum Reizort um einen Bruchteil abnimmt, der für Neuron N selbst maximal ist und der um so kleiner wird, je weiter ein Neuron von N entfernt ist. Ein Reiz führt somit lokal zu einer Verbesserung der Anordnung der rezeptiven Felder.

Simuliert man den geschilderten Algorithmus, beginnend mit der in Bild 5 gezeigten Situation und einer zufällig gewählten Folge von Reizorten auf der Handfläche aus Abb. 4, so ergibt sich nach 20 000 Iterationen der in Bild 6 dargestellte Zustand: Die rezeptiven Felder haben sich nun so angeordnet, daß die einzelnen Regionen der Hand durch zusammenhängende und ebenso wie in der Handfläche zueinander gelagerte Bereiche des Rindenfeldes repräsentiert werden. Dabei ist die Anzahl der Neuronen mit rezeptiven Feldern in einem vorgegebenen Gebiet der Handfläche um so größer, je häufiger dieses Gebiet gereizt wird. Die Anordnung der rezeptiven Felder erfolgt daher automatisch "bedarfsorientiert": Dort, wo viele Reize herkommen, liegen zahlreiche rezeptive Felder eng beisammen und gestatten eine höhere taktile Auflösung als in Gebieten niedrigerer Reizdichte. Diese Eigenschaft bringt die Fähigkeit zur Reorganisation nach Veränderungen, wie etwa Änderungen in der "Kalibrierung" der Sensoren oder sogar Verletzungen, mit sich. Wird zum Beispiel der mittlere Finger M "amputiert" und erhält in der weiteren Simulation keine Reize mehr, so werden anfangs alle Neuronen, die zuvor rezeptive Felder in M besaßen (M's in Bild 6) nunmehr "taub" (Bild 7). Dies ändert sich jedoch im weiteren Verlauf der Simulation. Die ehemals "tauben" Gebiete werden von den Nachbarregionen nach und nach "erobert", bis sich nach 50 000 weiteren Iterationen die Abbildung den neuen Gegebenheiten angepaßt hat und fast alle Neuronen für einen der verbleibenden Finger (D, L, R) oder den Handteller (T) sensitiv sind (Bild 8) Dieses Verhalten beobachtet man auch in Tierexperimenten.

Das dritte und letzte Beispiel, das die sinnvolle Anwendung von neuronalen Algorithmen demonstrieren soll, betrifft ein Problem des Computer-Sehens. Bei vielen technischen Anwendungen in der Fertigungs- und Robotertechnik spielt die automatische Auswertung von Bilddaten mit Hilfe von Mustererkennungsalgorithmen eine große Rolle. Die Algorithmen, die die gelieferten Bilder analysieren, sollen eine möglichst konsistente Beschreibung der Umwelt liefern. Die wesentlichen Merkmale des Bildes müssen erkannt

werden. Details der gelieferten Bilder, die zum Beispiel von einer Fernsehkamera stammen können, dürfen die fortlaufende Analyse der Bilddaten nicht aufhalten. Kleine Fehler in den Bilddaten, die vom Rauschen im Übertragungskanal oder von sonstigen Fehlerquellen stammen; sollen genausowenig die Interpretation der im Bild enthaltenen Information beeinflussen wie wechselnde Beleuchtungsverhältnisse. Mathematisch ist diese Aufgabe schwierig zu lösen, da bei der Projektion der dreidimensionalen Wirklichkeit auf ein zweidimensionales Bild zwangsläufig Information verlorengeht, die der Computer bei seiner Bildinterpretation wieder ergänzen soll.

Ein Teilproblem des Fragenkomplexes Computer-Sehen ist das Stereo-Sehen: die Rekonstruktion des räumlichen Eindrucks aus zwei Bildern, die aus leicht unterschiedlichen Blickrichtungen aufgenommen wurden. Der optische Rindenbereich im menschlichen Gehirn vergleicht Punkt für Punkt die beiden Bilder, die von den Augen aufgenommen werden, und vermittelt uns dadurch das Gefühl der räumlichen Tiefe. Wie dieser Vergleich genau vor sich geht, untersuchte B. Julesz Anfang der 60er Jahre mit seinen Zufallsmustern. Das in Bild 9 konstruierte Julesz-Pattern entsteht dadurch, daß das gewürfelte Pixelbild links kopiert wird und ein Bildausschnitt in der Mitte der Kopie um mehrere Pixels nach links verschoben wird. Betrachten wir die beiden Bilder in einem Stereoskop und bringen die beiden Bilder, das Original und die Kopie mit dem verschobenen Innenteil, zur Deckung, so interpretiert unser Gehirn die beiden Bilder als eine Fläche mit darüber schwebendem Quadrat. Julesz wählte ein Pixelmuster bei diesem psychologischen Experiment, damit das Gehirn keine anderen Anhaltspunkte für den räumlichen Tiefeneindruck bekommt außer der Verschiebung des Mittelteils.

Unser Simulationsprogramm, das die beiden Pixelmuster interpretiert und das räumliche Bild aus Bild 10 liefert, vergleicht die einzelnen Pixels im rechten mit denen im linken Muster, wobei jedes Pixel um mehrere mögliche Positionen waagrecht verschoben wird. Eine Bewertungsfunktion oder objektive Funktion entscheidet, ob die gewählte Verschiebung eines Pixels sinnvoll ist oder nicht. Findet neben dem verschobenen Pixel aus dem rechten Bild auch seine verschobenen, nächsten Nachbarn ein entsprechendes Pixel im linken Bild, liefert die objektive Funktion einen Minimalwert. Jedes Pixel, das bei einer Verschiebung nicht paßt, erhöht den Wert der Bewertungsfunktion.

Der Algorithmus startet mit einer zufällig gewählten Verteilung von Pixelverschiebungen und wählt sich pro Iterationsschritt einen Pixel aus, für den eine neue Verschiebung gewürfelt und die dazugehörige objektive Funktion berechnet wird. Liegt der neue Wert der objektiven Funktion unter dem Wert der objektiven Funktion für die alte Verschiebung, so wird die neue Verschiebung akzeptiert. Im entgegengesetzten Fall, daß die neue Verschiebung ungünstiger bewertet wird als die alte Verschiebung des Pixels, wird die neue Verschiebung des Pixels nur mit einer gewissen Wahrscheinlichkeit akzeptiert, die mit Hilfe der objektiven Funktion berechnet werden kann. Je ungünstiger die neue Verschiebung bewertet wird, desto seltener wird sie akzeptiert. Verringern wir die Wahrscheinlichkeit, daß eine ungünstigere Verschiebung des Pixels akzeptiert wird, so liefert der Algorithmus im Verlauf der Simulation die richtige Verschiebungslänge für jedes einzelne Pixel, die als Stereotiefe oder in unserem Bild als Höhe interpretiert wird.

Die Lösung, bei der alle Pixel innerhalb des mittleren Quadrats um die gleiche Strecke verschoben sind, setzt sich gegenüber anderen Lösungen durch, wie Bild 10 beweist. Die gewählte objektive Funktion begünstigt eine Interpretation des Bildes, bei der nur wenige Sprünge in der räumlichen Tiefe auftreten und die Flächen möglichst glatt sind. Ähnliche Algorithmen werden auch bei anderen Problemen des Computersehens angewendet, wie zum Beispiel bei der Erkennung von Oberflächen die unterschiedlich beleuchtet sind. Ein großer Vorteil dieser Sorte von Optimierungsalgorithmen, die in der Fachliteratur als "Monte-Carlo-Annealing" bekannt sind, liegt in ihrer parallelen Struktur, die sich leicht auf eine geeignete parallele Hardware übertragen Iäßt. Eine "Realtime"-Bildanalyse rückt damit in den Bereich des Möglichen.

Perspektiven

Die hier skizzierten Beispiele stellen aus dem breiten Spektrum der Fragen, die uns die Arbeitsweise unseres Gehirns aufgibt, nur einen schmalen Ausschnitt dar, so wie er gegenwärtig am Physikdepartment der TU München bei Professor Klaus Schulten untersucht wird. Zahlreiche wichtige weitere Fragen sind heute Gegenstand der intensiven interdisziplinären Aktivitäten von Biologen, Physikern, Computerwissenschaftlern, Mathematikern und Psychologen. Dennoch ist es bis zu einem wirklich ansatzweisen Verständnis der Gehirnfunktionen noch ein weiter Weg, ein Weg, auf dem noch zahlreiche ungeahnte Erkenntnisse und Einsichten warten, vielleicht auch die Einsicht, daß der Erforschbarkeit des menschlichen Geistes prinzipielle Grenzen gesetzt sind.

Professor Dr. Klaus Schulten, Physikdepartment der Universität München; Joachim Buhmann und Helge Ritter, die Autoren der obigen Abhaltung, sind Doktoranden von Professor Schulten.