Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.02.1989 - 

Künstliche Intelligenz - Ein weites Feld mit verschwimmenden Grenzen (Teil 17):

Neuronale Netze - etwas für Tüftler

Neuronale Netze, die so verblüffend jenem Geflecht von Schalteinheiten und Verbindungen ähneln das unser Gehirn ausmacht - Neuronale Netze also sind in den Augen vieler Zeitgenossen eine eher utopische Entwicklung für die ferne Zukunft. - Doch sind sie das wirklich?

Wer auch immer in dieser Art von Datenverarbeitungssystemen etwas weit in's Morgen Weisendes vermutet, der dürfte gewiß verblüfft sein, erfährt er, daß solche Netze schon heute in breiter Front produziert und eingesetzt werden. Denn, so erinnerte in einem Beitrag zur Electronica-Messe in München Tom Schwartz aus Mountain View, Kalifornien, in jedem 9600-Baud-Modem befinde sich doch schon längst so ein Netz. Nämlich das sogenannte Widrow-Adaptive-Filter des Stanford-Wissenschaftlers Bernard Widrow, das übrigens auch in vielen weiteren Geräten der Signaltechnik seinen Platz habe.

Dieses Filter brachte seinem Schöpfer seinerzeit einen angesehenen Preis des IEEE, des internationalen Instituts der Elektroingenieure ein, nämlich den Alexander-Graham-Bell-Preis. Und auf gleicher konzeptioneller Grundlage soll auch Widrows adaptive Antenne basieren, die gleichfalls schon weit verbreitet ist.

Mit seinem Verweis auf das Widrow-Filter unterstreicht der Neuronetz-Fachmann Schwartz seine Auffassung, bei diesen Netzen handle es sich im Grunde um eine "statistisch arbeitende Abbildungs-Technik". Und er ruft die Tatsache in Erinnerung, daß ja längst schon ein mathematisch schlüssiger Beweis für folgende Aussage vorliege:

"Neuronale Netze beliebiger Komplexität können fortlaufende Abbildungen von n-dimensionalen Räumen auf m-dimensionale erzeugen".

Mag dieser Satz hier vielleicht auch ein wenig abstrakt klingen - er sieht gleich ganz anders aus, führt man sich vor Augen, was er letztlich bedeutet. Denn "Abbildungen erzeugen" - das tut ja auch ein System, das beispielsweise Video-Bilder irgendwelcher Produkte auf die - letztlich allein interessierende - Aussage "gutes" oder eben "schlechtes" Erzeugnis abbildet. Oder ein System, das Daten komprimiert, das aus historischen Kredit-Aufzeichnungen die Wahrscheinlichkeit ableitet, mit der ein neuer Kredit brav bedient werden dürfte, oder schließlich auch eines, das aus irgendwelchen Merkmalen eines Sonar-Signals abliest, ob man hier einen Freund oder einen Gegner vor sich hat.

Ökonomisch interessant ist an neuronalen Netzen nun besonders, daß man diese und eine Fülle verwandter Aufgaben mit ihnen erledigen kann, ohne daß man sie erst mühselig, langwierig und kostspielig mit Daten füttern müßte; daß man also genau das umgehen kann, was

beispielsweise bei Expertensystemen so hinderlich ist. Denn ihre Abbildungen erzeugen diese Netze ja automatisch - ohne daß also erst ein Mensch eine algorithmisch tiefschürfende Analyse der Daten vornehmen müßte.

Nicht nur diese Automatik macht Netze in Bereichen wie etwa Steuerungsaufgaben aller Art, bei Identifizierungs- und

Erkennungsproblemen oder auch in der Analyse von Datenbeständen wirtschaftlich attraktiv; auch eine weitere Eigenschafft läßt sie gut dastehen. Nämlich die Tatsache, daß sie sich leicht auf parallele - und mithin inhärent schnelle - Rechnertopologien abbilden lassen.

Mit diesen "Fischertechnik"-Baukästen kann man völlig frei und unabhängig seine ganz eigenen Netze konzipieren, trainieren und testen und überdies, sieht man von herstellerspezifischen Begrenzungen ab, auch Hybridsysteme aus Komponenten mehrerer Architekturen

zusammenstopseln. Ferner lassen sich die Verbindungsstrukturen frei variieren, man kann das jeweilige Lern-Prinzip modifizieren oder gar selber kreieren und unter anderem auch selber die Zahl der Schichten sowie der Verarbeitungs-Einheiten, beziehungsweise Knoten, bestimmen.

Diese hochflexiblen Systeme nun, bei denen man die Eingabedaten sowie die Beispiele für das Training im allgemeinen als ASCII-Dateien einliest, können allerdings ein höchst zeitraubendes und schweißtreibendes Vergnügen werden. Denn man kann sich im Studieren und Erproben der unterschiedlichen Netz-Architekturen ohne weiteres verlieren, zumal eine ganz grundlegende Frage bis heute noch weitgehend ungeklärt ist: die nämlich, welche Netz-Architektur bei einem gegebenen Problem sowohl mit Blick auf die Entwicklungs- als auch auf die Rechenzeit die optimale ist. Und wo es sich lohnt, lieber ein schnell zu entwikkelndes als ein schnell rechnendes System zu suchen - oder aber umgekehrt.

Wie schwer hier in praxi die Qual der Wahl immer noch ist, zeigt ein Blick auf die vielen Möglichkeiten des Variierens. So arbeiten viele Netz-Architekturen beispielsweise mit mehreren Tuning-Variablen, sie

lassen Verbindungen der mannigfaltigsten Art zu und erlauben, Netze mit vielen Knoten und wenig Schichten aufzubauen, oder aber Strukturen mit wenig Knoten und vielen Schichten.

Im Dschungel der Faustregeln

Wie undurchschaubar diese Welt der simulierten Neuronen und Synapsen selbst für ausgekochte Experten heute immer noch ist, belegt eine typische Faustregel, mit der viele sich durch's Dickicht der

Alternativen zu schlagen versuchen. Sie lautet in etwa so:

- Falls das Netz zu leicht wieder vergißt, füge mehr Knoten oder mehr Schichten hinzu. Und verallgemeinert es nicht zufriedenstellend, dann entferne Knoten und/oder Lagen.

Novizen in der Welt der elektronischen Pseudo-Gehirne erliegen leicht der Versuchung, sich für jenen Netz-Bau- und

-Werkzeugkasten zu entscheiden, der praktisch alle nur Oberhaupt denkbaren Möglichkeiten umfaßt. Doch genau damit plumpsen sie prompt in eine Falle, warnt der KI-Fachmann aus Mountain View: denn auf diese Weise erwerben sie Produkte, die "für den praktischen Gebrauch viel zu komplex sind"! Sie sind nämlich nicht etwa erfreulich vielseitig, sondern bloß unerfreulich allgemein und mithin unüberschauber, mühevoll zu verstehen und für den Einsatz in der alltäglichen Umwelt nicht zu gebrauchen. Was man nicht zuletzt an der vielbändigen Bibliothek an Handbüchern ablesen kann, die einem solchen System der Klasse "eierlegende Wollmilchsau" mitgegeben werden. Und die ja allesamt irgendwann mal durchgeackert sein wollen.

Steht heute jemand vor der Aufgabe, vorsichtige erste Schritte in die ebenso fremdartige wie faszinierende Welt der neuronalen Netze zu wagen, so sollte jener sich glasklar definierte Ziele setzen und seine Erwartungen zügeln. Denn nur so kann er, meint Schwartz, und können auch die Hersteller neuronaler Netze sich jene Enttäuschungen vom Leibe halten, die Pionieren in technischem Neuland fast immer drohen.

Dort einhaken, wo's anders nicht ginge

Die verfügbaren Werkzeuge sollten voll genutzt werden, um die neue Technik kennenzulernen, doch sollte man dabei nicht überreizen. Man darf die klare Perspektive des Vorhabens nie aus den Augen verlieren und sollte sich gerade anfangs auf ein Problem beschränken, das kein riesengroßes Netz erfordert und bei dem auch die Dauer der Lernphase nicht weiter kritisch ist.

Die Problemstellung, mit der ein Neuling in diese neue Welt vordringt, sollte sich mit herkömmlichen Techniken einfach nicht behandeln lassen, empfiehlt der kalifornische Neuronen-Fachmann weiter. So könne man dann schrittweise auf den Aufbau eines gewissen Schatzes an völlig neuen Erfahrungen hoffen, der einem später das sachgerechte Anpacken weiterer Aufgaben erleichtern sollte.

Wobei insbesondere auch Erfahrung in der sinnvollen Zergliederung komplexen Aufgaben von Nutzen sein dürfte, denn dieses Zerlegen erlaube dann ein Vorgehen, bei dem die einzelnen Teile der Aufgabe am Ende mit jeweils der bestgeeigneten Technik bearbeitet werden können.

Und bei dem man dann wiederum selber weiterlernen und weiterbauen kann.

Geht man den Unterschieden zwischen der herkömmlichen algorithmischen Programmierung, der Programmierung von Expertensystemen und der Arbeit mit neuronalen Netzen auf den Grund, so sieht man: Im ersten Fall wird eine prozedurale Beschreibung der Lösung des vorliegenden Problems gefordert, im zweiten eine symbolisch korrekte und im dritten nunmehr eine - so Schwartz - "statistisch gültige Repräsentation des Problems und seiner Lösungen"; denn sie braucht man zum Erzeugen der erwähnten Abbildungen. Und, nebenbei bemerkt: Von Stufe zu Stufe wird der Schrei nach immer mehr Rechenleistung lauter und lauter. . .

Für den Neuronen-Fachmann aus Kalifornien, der in Mountain View übrigens die Firma Schwartz Associates leitet, sind neuronale Netze "der nächste logische Schritt in der Entwicklung der Computer". Und denkt man zurück an jene Frühzeit, da noch durch Umstöpseln von Drähten und das Umlegen satt klickender Kippschalter programmiert wurde, ist eines klar: Die Dinge haben doch eine verblüffend schnelle Entwicklung genommen...

Nur eine Handvoll Anwendungen

Rund eine Million Dollar hat eine Studie gekostet, mit der die US-Militär-Forschungsbehörde DARPA (defence advanced research project agency) diese schnelle Entwicklung, und dabei insbesondere das Gebiet der neuronalen Netze, unter die Lupe nahm. Dabei fanden die Experten bislang aber bloß eine Handvoll nutzbringender Anwendungen solcher Netze - wie etwa ein System zum Lesen japanischer Kanji-Schriftzeichen, ein Kreditprüf-System, eine Einheit zum Erkennen einzeln gesprochener Wörter und ein Prozeßsteuerungs-System zum Überwachen einer Glühbirnen-Fabrik.

Das erste Beispiel eines industriellen Produkts, das durch Hinzufügen einer speziellen Neuronetz-Einheit aufgewertet worden ist, stammt aus dem Bereich des maschinellen Sehens und heißt daher sinnfällig Smart Camera. Doch so wenig Beispiele voll einsetzbarer Neuro-Systeme bislang auch aufgetrieben werden können - die einschlägigen Hersteller versprechen für die Zukunft eine Fülle von Produkten, und der kalifornische Berater glaubt ihnen. Denn das lehre ihn "die frühere Erfahrung mit Expertensystemen" und ihrem Marsch durch die Institutionen der etablierten Computerei.

Eine Reihe aktueller Entwicklungen kann man unter der Rubrik

"Werkzeuge für vertikale Märkte" gruppieren. Sie dienen dem leichteren Bau von Netz-Systemen gleichartiger Funktionalität für eine fest umrissene Gruppe von Anwendungen und basieren daher alle auf Netzen gleicher elementarer Struktur und Arbeitsweise. Sie verlangen vom Käufer wenig eigenes Nachdenken bei der Auswahl und dem Entwurf seines speziellen Netzes, sondern sind im wesentlichen Turnkey-Einheiten, die sich leicht handhaben lassen sollen: man schließt sie an ein vorhandenes System an, trainiert sie und kümmert sich fortan um andere Dinge.

Viele Werkzeug-Sammlungen zum rascheren Bau neuronaler Netze lassen dem Käufer zwar Freiheit genug, die entstehenden Systeme für praktisch jede beliebige Anwendung zu trainieren. Doch alle in dieser zweiten Kategorie arbeiten nur mit jeweils einem Paradigma, also einer grundlegenden Konzeption - mehr nicht.

Diese Werkzeugkästen für Netze bewahren vor unnötiger Verwirrung und Frustration, engen aber auch die Wahlmöglichkeiten der Käufer ein. Was man von einer weiteren Gruppe von Werkzeugen gewiß nicht mehr sagen kann, denn sie lassen praktisch alles offen: es sind dies die voll flexiblen Konfigurationen.

Vom Rechen-Knecht zur intelligenten Maschine

Künstliche Intelligenz, Expertensysteme, Lernende Maschinen , Neuronale Netze, Konnektionismus - das sind nur einige der Stichworte, unter denen eines der interessantesten Gebiete der aktuellen Computer-Technik behandelt wird: jenes nämlich, das die Weiterentwicklung der früheren Rechen-Knechte zu scheinbar - intelligenten Maschinen behandelt.

Mit dem aktuellen Stand und den weiteren Tendenzen befaßt sich die COMPUTERWOCHE im Zuge einer losen Folge von Beiträgen (bisher erschienen Beiträge in CW 29, 32, 34, 37, 40, 42, 43, 44, 45, 46, 47, 50, 51, 52, 1/2 und 3) . Sie sollen eine plastische Vorstellung von Problemen geben, mit denen der wachsende Kreis der KI-Experten täglich zu kämpfen hat.