Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.06.1990 - 

Neurocomputing - ein Thema rückt immer weiter nach vorn

Rechner üben sich immer mehr im vernetzten Denken

Mag es in der Welt der Computer jahrzehntelang auch so ausgesehen haben, als würden Rechner nur immer nach den Standard-Schemata der herkömmlichen Zuse- beziehungsweise Von-Neumann-Architektur gebaut werden, so zeigen die letzten Jahre nun: Die Informatiker können auch anders. Dies zeigen nicht nur innovative Parallelrechner, die mehr und mehr an Boden gewinnen, sondern wie vor allem auch die besondere Parallelrechner-Spezies der sogenannten Neurocomputer deutlich macht.

Bei Neurocomputern beziehungsweise neuronalen Netzen, so zeigt die Beobachtung der aktuellen Entwicklung, tut sich derzeit viel mehr und viel Interessanteres, als etwa auf vielfältig um- und umgepflügten Feldern, wie denen der RISC-Prozessoren oder auch der Zahlenfelder fressenden Supercomputer.

Eine Milliarde Verbindungsänderungen

Unlängst machte der Sony-Konzern mit der Meldung von sich reden, er habe einen speziellen Digitalrechner zur Simulation neuronaler Netze entwickelt; und der soll pro Sekunde 4,5 Millionen neuronaler - also nervenähnlicher - Verbindungen zwischen einzelnen Synapsen berechnen können. Doch nicht dieser Wert allein ist das Interessante an dieser Nachricht, zumal ja beispielsweise Neuro-Simulations-Rechner amerikanischer Machart ihn um mehr als den Faktor zwei schlagen sollen; aufhorchen läßt vielmehr, daß dieser Rechner als Parallelsystem mit 128 Mikroprozessoren des 64-Bit-RISC-Typs Intel 80860 ausgeführt ist - und daß er laut Sony als solcher schon bald aufgebohrt werden könne - nämlich auf eine Leistung von einer Milliarde Verbindungsänderungen pro Sekunde (CUPS) und mehr.

Leistungsstarke Neuro-Prozessoren

Der Sony-Konkurrent und überdies renommierte Standard-Großrechner-Produzent Hitachi trat annähernd zur gleichen Zeit mit der Präsentation eines Riesen-Chips in sogenannter "Wafer-Scale-Integration" vor die Öffentlichkeit, bei dem eine Siliziumscheibe von gut zwölf Zentimetern Durchmesser 576 "Neuronen" - also genau genommen 576 kleine, autonome und separate Prozessoren einfacher Bauart - trägt.

Diese Neuro-Prozessoren wiederum sollen, Berichten aus Japan zufolge, bei ihrer Arbeit nach einer neuartigen Multiplex-Methode mit Zeit-Teilung vorgehen, wodurch sie pro 100 real berechneten Verbindungen eine Wirkung erreichen, als wären tatsächlich 10 000 Verbindungen bearbeitet worden.

Bei diesem interessanten Netz, das übrigens in rund drei Jahren auch an externe Interessenten zur Erprobung geliefert werden soll, werden die einzelnen Signale nicht auf herkömmlich-direkte Weise in Digitalwerte umgesetzt. Denn es arbeitet auf` Basis eines Impulsdichte-Kodierverfahrens, hört man, bei dem die Daten dann als Impulsketten erscheinen, die über einfache Drähte geleitet werden.

Nicht in Gestalt konkreter Schaltungen, sondern als Simulations-Programm ist ein weiteres neuronales Netz ausgeführt, mit dem vor kurzem NEC von sich reden machte. Es handelt sich dabei seiner Zweckbestimmung nach um ein spracherkennendes System, das aber nicht nur auf einen einzigen Sprecher hin trainiert ist, sondern das die gesprochenen zehn Ziffern Null bis Neun bei beliebigen Menschen korrekt dem jeweiligen Zahlenwert zuordnen kann.

Dieses System soll eine Fehlerquote von nur noch zwei falsch verstandenen Wörtern je tausend erreichen - und damit die bisher besten Systeme dieser Art um gut das Fünffache übertreffen; denn die irren sich pro tausend etwa elfmal. Zwar braucht die Simulation derzeit pro Zahlwort noch annähernd eine Minute, doch kann man sich leicht ausrechnen, daß spätere, spezielle Silizium-Schaltungen erheblich flotter "begreifen" dürften - etwa so schnell, wie ein Mensch spricht, und damit quasi in Echtzeit.

Ein interessanter Forschungsansatz im Bereich der japanischen Computer-Neurologen betrifft Wege, neuronale Netze und den Programmierstil der Fuzzy-Logik miteinander in Einklang zu bringen. Wozu hier kurz rekapituliert sei: Fuzzy-Logik ähnelt weitgehend den Regelwerken, mit denen die bekannten Expertensysteme arbeiten; doch kennt sie nicht exakte Zahlenangaben, sondern einfach nur unscharfe Erfahrungswerte beziehungsweise -regeln.

Wo also ein strenges Regelwerk vielleicht sagen würde, zu 1 Litern Wassers mit der Temperatur t lasse man s Sekunden lang kaltes Wasser hinzufließen, sollen am Ende 40 Grad Celsius erreicht werden, kennt Fuzzy-Logik einfach nur die Regel: Ist das Bad zu heiß, laß' kaltes Wasser dazulaufen.

Ist es bei Systemen, die mit Fuzzy-Logik arbeiten, nun einerseits schwer, das Regelwerk Schritt für Schritt zu optimieren und somit bestmöglich den Gegebenheiten der realen Welt anzupassen, so können neuronale Netze andererseits durch einfaches Trainieren hinzulernen und ihre Aufgabe mithin immer besser erfüllen.

Diese wechselseitige Möglichkeit beider Techniken, einander im Einsatz zu ergänzen, ließ Forscher des Matsushita-Konzerns nun ein System entwickeln, das ein mehrlagig strukturiertes, neuronales Netz zum Optimieren vorformulierter Fuzzy-Regeln zum Steuern bestimmter Geräte benutzt.

Und Toshiba wiederum hat sich bei der Gestaltung eines neuronalen Netzes insofern auf Fuzzy-Regeln gestützt, als das Netz nun diese Art von vager Logik mitbenutzt, um für gegebene Aufgaben die optimale "Stärke" beziehungsweise das optimale "Gewicht" der Verbindungen zwischen je zwei Neuronen festzulegen.

Zum Test, ob dieser Ansatz denn auch wirklich etwas tauge, simulierten Toshibas Wissenschaftler kurzerhand die Aufzüge im Hauptgebäude des Konzerns - und stellten fest: Mit Hilfe der neuen Technik kann man die Kabinen in der Tat so steuern, daß Wartezeiten weitgehend vermieden werden. So wie schon frühe Expertensysteme konventioneller Machart sich erste Meriten nicht zuletzt auch bei Experimenten aus dem Bereich der Medizin erwarben, so kann man nun ach Kombinationen von Neuronalen Netzen und Fuzzy-Logik sich hier tummeln sehen.

Und zwar dienen sie beispielsweise zur Absicherung von Diagnosen, bei denen die Aussagen der Expertensysteme allein selbst bei Übergang auf Fuzzy-Logik-Regeln nicht ausreichen - wie etwa im Falle der Mandelentzündung: denn hier gibt gleich mehrere typische Symptome - und die Neuronen-Technik soll im konkreten Fall dann jeweils helfen, eine zunächst noch ungewisse Diagnose weiter zu stabilisieren.

Mächtiges oder beschränktes Werkzeug?

Zwar streiten Fachleute sich heute noch über die Frage, wie gut beide Techniken sich wohl

miteinander verschmelzen lassen; denn während die einen hier ein mächtiges Werkzeug

zur Behandlung sehr komplexer Aufgaben reifen sehen, halten andere es für so beschränkt, daß

man es nur auf einfache Problemstellungen anwenden könne. Doch unverdrossen suchen

Wissenschaftler des Instituts für Fuzzy-Engineering - einer Gründung des japanischen Ministeriums für Internationalen Handel und Industrie (MITI) - nach immer neuen Wegen, beide

Linien zusammenzuführen. Dabei setzt eine Gruppe beispielsweise auf eine Art von "indirekter Verschmelzung", indem in den Kognitions-Teil eines übergeordneten Expertensystems ein neuronales Netz eingefügt wird, während das Regelsystem, das dann dem Auffinden konkreter Entscheidungen beziehungsweise Empfehlungen dient, auf Fuzzy-Logik aufbauen könnte.

Diese Art von Hybridstruktur, gibt Shigenobu Kobayashi vom Tokioter Technik-Institut sich zuversichtlich, könnte vielleicht sogar der beste Ansatz auf dem Weg zu einem überlegenen, größeren Ganzen sein.

Eine kleine, aktuelle Umschau in fernöstlichen Neuro-Gefilden wäre alles andere als vollständig, würde man nicht auch den kürzlich vorgestellten Neuro-Computer der Firma Fujitsu erwähnen, der - zumindest nach Angaben seiner Schöpfer - schneller als jeder andere arbeiten soll - und zwar so schnell, daß Standard-Methoden zur Bewertung der Leistung dies gar nicht mehr erfassen könnten.

Das Projekt Sandy/8 betrifft eine Entwicklung, die in etwa zwei Jahren kommerziell verfügbar sein soll und von der ihr Mentor, Kazuo Asakawa von den Fujitsu-Laboratorien in Kawasaki meint, in vielleicht zehn Jahren werde sie zum Steuern hochgezüchteter Roboter dienen können. Es handelt sich dabei um eine Struktur, die 256 einzelne Prozessoren beziehungsweise Neuronen umfaßt und die sich durch Umprogrammieren leicht rekonfigurieren lassen soll. Sie soll jede Sekunde mehr als 580 Millionen Verbindungsänderungen neu errechnen können und damit um Längen vor der zweitplazierten Entwicklung liegen, einem System, das es "nur" auf 180 Millionen Verbindungsänderungen pro Sekunde bringen soll.

Getarnte Panzer entdecken

Neuronale Netze werden aber natürlich nicht allein nur in Japan studiert und schrittweise auf praktische Anwendungen hin gezüchtet; auch in Europa und insbesondere in den USA ist seit Jahren eine wachsende Woge an einschlägigen Aktivitäten zu beobachten. Wofür nicht zuletzt auch die Tatsache steht, daß DARPA, die Forschungsbehörde des US-Kriegsministeriums, sich mehr und mehr um Mittel für einschlägige Studien und Entwicklungen bemüht.

Die Defence Advanced Research Projects Agency soll nämlich stark an Experimenten Interesse haben, die an Hand konkreter, typischer Problemstellungen aufzeigen sollen, ob hierfür jeweils neuronale Netze oder aber herkömmliche, sequentielle Rechner die besseren Werkzeuge sind. Dabei ist etwa an Rechner gedacht, die wie ein braver Rekrut prompt auf jeden gesprochenen beziehungsweise gebrüllten Befehl hören, an Systeme, die im Gelände getarnte militärische Ziele wie etwa feindliche Panzer erkennen können, oder auch an Neuronen-Netze, die im Ozean auf die Geräusche feindlicher U-Boote lauschen.

Speziell mit der Entwicklung von Luft-Luft-, Luft-Boden- und Boden-Luft-Raketen befaßt sich innerhalb der US-Kriegsmaschinerie das Marinewaffenzentrum in China-Lake, Kalifornien. Dort hat man großes Interesse an schnellen Computern, die "intelligenten" Waffen beim raschen Auffinden ihrer Ziele helfen können, die also Muster zu erkennen vermögen - und prompt wurde dort dann auch ein Netz entwickelt, das später von Intel in Gestalt eines schnellen Chips ausgeführt wurde. Wobei dieser Chip, über den die CW bereits in groben Zügen berichtet hat, vielleicht der wahre Tempo-Rekordhalter unserer Tage sein könnte: Denn der "N64", so die Bezeichnung dieses Bausteins mit seinen 200 000 Transistoren und bis zu 8000 frei schaltbarer Verbindungen, soll pro Sekunde volle 2,5 Milliarden Verbindungsänderungen berechnen können.

An der Arbeit der US-Marine-Neurochipologen ist interessant, daß sie das neuronale Netz weder on-chip trainieren; also nicht etwa dadurch, daß sie den Chip selber solange mit Eingangs-Signalen beaufschlagen, bis er durch laufendes Ändern der Gewichte seiner internen Leitungen beispielsweise gelernt hat, die Silhouetten wichtiger feindlicher Kriegsschiffe zu erkennen. Noch, daß sie das gleiche Training off-chip durchgeführt haben; also an einem Rechner, der das entstehende Netz per Programm simuliert und von dem aus erst später die erlernte Struktur des Netzes - also wiederum die erlernten Gewichte seiner Verbindungsleitungen - auf den realen Chip übertragen werden.

Neuronale Netze lernen langsam

Im kalifornischen Marine-Forschungslabor ging man nämlich interessanterweise so vor, daß man einen Mittelweg beschritt, wie Marine-Forscher David Andes erläutert. Man entwickelte dazu ein "chip-in-theloop"-Lernsystem, bei dem der reale Chip in ein komplexes Lernsystem eingebunden ist, das sozusagen beide Ansätze des on- wie des off-chip-Lernens miteinander verbindet, und das außerdem die Möglichkeit bietet, ein Lernverfahren namens Madaline-3 mit einzubeziehen. Das ist eine Technik, die laut Andes der der sogenannten Back-Propagation äquivalent sein soll und die an der Stanford-Universität entwickelt worden ist.

Neuronale Netze werden häufig wegen der vielfach langen Lernzeiten kritisiert, die den Umgang mit ihnen in der praktischen Erprobung ja nicht gerade leichter machen. Deshalb tauchen auf dem Markt mehr und mehr Hilfsmittel wie beispielsweise spezielle Neuronale-Netze-Zusatz-Steckkarten auf, die in gewöhnliche Rechner eingefügt werden und die das Simulieren neuronaler Netze sowohl in der Trainings- als auch in der Arbeits-Phase stark beschleunigen sollen.

Ein Beispiel hierfür ist die jetzt auch in Deutschland käufliche Karte Delta II der Firma Scientific Applications International Corporation (SAIC) aus dem kalifornischen San Diego. Sie ist mit 12 MB Speicher ausgestattet, soll 22 MFlops leisten und kann laut SAIC 2,7 beziehungsweise 11 Millionen CUPS (Verbindungsänderungen pro Sekunde) leisten; je nachdem, ob man sie - bei einem dreilagigen Netz - gerade im Lernoder im Anwendungs-Modus betreibt.

Diese Karte, die knapp 58 000 Mark kosten soll und die in AT-Rechner eingebaut werden kann, soll Netze mit maximal drei Millionen Neuronen und Verbindungen bearbeiten können. Sie basiert auf einer mehrstufigen Harvard-Architektur mit Fließband-Verarbeitung (auf Deutsch: pipelining) und kann laut Hersteller Ganzzahl- sowie Gleitkomma-Arithmetik in 32- sowie 64-Bit-Formaten ausführen.

In Diskussionen über neuronale Netze ist immer wieder eine Kritik zu hören, die - ganz zu recht - auch schon in den Kindertagen der Expertensysteme geäußert wurde: Neuronale Netze ließen sich nur schwer in bestehende, erprobte Computer-Strukturen konventioneller Art einbinden, was ihren Nutzen und damit ihre Verbreitung natürlich begrenze.

Mit Blick auf diesen gewichtigen Einwand verdient nun Interesse, daß ecn neurocomputing in Ismaning bei München mit N-Net ein Entwicklungspaket für neuronale Netze anbietet, das auch eine Programmier-Schnittstelle zur Einbettung neuronaler Module in eigene C-Programme bieten soll, wie versprochen wird.

Dieses Paket stammt von der US-Firma AI Ware, paßt zu VAX-, AT- und PS/2-Rechnern und bedient sich eines sogenannten Functional-Link-Net-Modells, das Prof. Yoh-Han Pao entwickelt haben soll. Es soll auf einer Methode zur "Expansion der Eingabedaten" vor Beginn der eigentlichen Lernprozesse basieren, die zwei alternativ begehbare Wege kennt, und anschließend besonders schnelles Lernen vor allem dadurch erreichen, daß es ohne verdeckte Neuronen-Schichten auskommt.

Bei dieser Entwicklung sei es möglich, betont der Hersteller, "beaufsichtigtes und unbeaufsichtigtes Lernen" sowie überdies das Verfahren des "assoziativen Aufrufs" integriert zu kombinieren - so daß es doch eigentlich möglich sein sollte, eine Fülle verschiedener Wege ins Gelobte Land der Künstlichen Gehirnstrukturen einfach daheim am AT auszutesten.

Daß diese künstlichen Gehirnstrukturen immerhin schon in der Lage sind, Video-Aufnahmen einzelner Gesichter in dem Sinne zu erkennen, daß sie den Bildern später korrekt die Namen zuordnen können - dies demonstrierte unlängst ein Unternehmen aus Orlando in Florida an Hand einer Karte für PC-Rechner. Und das Herz dieser Karte der Firma Micro Devices wiederum war ein Chip mit der Bezeichnung MD 1210 Fuzzy Set Comparator (FSC), der neue Gesichter, Bilder und andere Muster über eine Lerntechnik in sich aufnimmt, die Micro Devices als "Feed-Forward-Back-Propagation" beschreibt.

Sprengstoff im Fluggepäck

Während ein einzelner dieser FSC-Chips nur acht ihm bekannte Muster mit einem weiteren und vorerst noch unbekannten vergleichen kann, erlaubt die Verkettung von 32 FSCs bereits die Bearbeitung von 265 Mustern, verspricht Paul Basehore als Chef des Unternehmens aus dem Dunstkreis von Disneyworld. Dabei wird jede einzelne Überprüfung - bei 20 MHz Taktfrequenz - in 250 Nanosekunden (Milliardstel Sekunden) abgeschlossen; und pro Muster werden laut Basehore 64 KBit Bild-Daten "direkt adressiert". Doch kann man auf Wunsch auch zusätzliche Schaltungen zum Dekodieren von Speicheradressen einsetzen und den Chips, die Stück für Stück nur knapp 40 Dollar kosten sollen, dann noch weit umfangreichere Bildaten zum Vergleichen vorlegen.

Mit neuronalen Netzen wird aber nicht nur immer intensiver und auf immer breiterer Front experimentiert, wie die hier diskutierten Beispiele aus einer Fülle entsprechender Studien, Entwicklungen und Produkte andeuten sollen; auch in die praktische Nutzanwendung dringen neuronale Netze immer weiter vor.

So werden sie bekanntlich benutzt, um bei Bomben-Detektoren auf Flughäfen das Spektrum von Gammastrahlen auf verräterische Muster hin zu durchsuchen, die Sprengstoff signalisieren könnten. Doch auch beim Prüfen der Qualität von Automobilgetriebe-Teilen werden neuerdings schon neuronale Netze eingesetzt; und ein kleiner Notizbuch-Rechner benutzt die Technik der künstlichen Neurostrukturen, um manuell auf ein Eingabefeld geschriebene Zeichen zu erkennen. Was konkret bedeutet, ein neuronales Netz als Herz des Druckbuchstaben-Erkennungssystems setzt nicht allein nur die einzelnen Zeichen in ASCII-Code um, sondern prüft auch gleich noch die Reihenfolge, in der die einzelnen Druckbuchstaben auf das Eingabenfeld geschrieben wurden. Und ordnet es einen konkreten Buchstaben mal dem falschen ASCII-Zeichen zu, so kann der Schreiber sein Gekritzel einfach solange verbessern, bis das Netz seiner Sache sicher ist.

Wichtige Rolle in der Nachrichtentechnik

Vor allem für die kommenden Jahre sagen Fachleute voraus, daß neuronale Netze bald auch eine wichtige Rolle im Bereich der Nachrichtentechnik spielen werden; denn dort könnten sie beispielsweise bei Videokonferenzen helfen, die Kosten zu senken. Auch sind neuartige, interaktive Dienste auf neuronaler Basis vorstellbar, findet beispielsweise die Bostoner Beratungsgesellschaft Yankee Group, und SRI International meint: Der einschlägige Markt der neuronalen Netze insgesamt werde von derzeit rund 20 Millionen Dollar schon bis 1995 auf 200 Millionen wachsen. Während er sich nach dieser Verzehnfachung dann bis zur Jahrtausendwende nochmals - und mindestens - verfünffachen dürfte.

Nach Meinung von SRI, dem früheren Stanford Research Institute, spricht vor allem das automatische Lernen für neuronale Netze; doch nicht minder interessant seien sie auch wegen der Fehlertoleranz, die ihnen von Haus aus eigen sei. Zumal diese Fehlertoleranz sich sowohl auf partielle Ausfälle der Maschinen, als auch auf partiell fehlerhafte Daten beziehe.

Heute eilen die theoretisch bekannten Anwendungsmöglichkeiten der Praxis zwar noch weit voraus, klagt SRI, denn es fehle noch an geeigneten Rechnern hoher Geschwindigkeit. Doch dies könnte sich nicht zuletzt mit Blick auf die Möglichkeit ändern, neuronale Netze auf Basis optischer oder biologischer Elementar-Strukturen zu schaffen. Also im Kleide von Techniken, die zwar heute noch wie Zukunftsmusik klingen. Die in unserer schnellebigen Zeit aber schon morgen fast wieder Schnee von gestern sein könnten.