Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.03.1991 - 

Die "Unsicherheit" wird zu einer logischen Komponente

Fuzzy Control dient als Basis für eine neue Rechnergeneration

Menschliches Wissen, gleichgültig ob es von Experten organisiert, aus einem Lehrbuch oder Handbuch entnommen oder nur in der Diskussion zwischen Menschen zum Ausdruck gebracht wird, ist sehr oft in verschiedener Weise unsicher. Eine Methode, diese Unsicherheit in den Griff zu bekommen, ist die sogenannte "Fuzzy Logic". Im folgenden Beitrag klären die Autoren zunächst die theoretischen Grundlagen dieser relativ neuen Logik-Variante, die in den nächsten Jahren sowohl im Hard- als auch im Software-Umfeld für neue Entwicklungen sorgen wird.

Unsicheres Wissen stand bisher immer im Gegensatz zu deterministischen mathematischen Modellen, Algorithmen oder Datenstrukturen, wie sie in der Informatik oder anderen formalen Wissenschaften und ihren Anwendungen benutzt werden. Unter Unsicherheit sei aber zunächst das Vorhandensein nicht-dichotomer Strukturen verstanden. Dies sind also keine Entweder-oder-Strukturen, bei denen Aussagen oder Elemente nur wahr oder falsch, schwarz oder weiß, null oder eins sein können, sondern Mehr-oder-weniger-Strukturen, in denen viele Zwischenstufen oder grade zwischen den Extremwerten möglich sind.

Wissen in Form von Regeln

Zur Darstellung der verschiedenen Arten auftretender Unsicherheiten wollen wir davon ausgehen, daß das Wissen in Form von Regeln dargestellt sei und daß das Schließen mit Hilfe banaler Logik erfolge. Die Wissensbasis enthält dann zum Beispiel die Regeln "Wenn A, dann B". Falls dann für eine bestimmte Problemsituation festgestellt wird, daß "A wahr ist", dann wird daraus geschlossen, daß "B wahr ist". Hierbei werden gewöhnlich folgenden Annahmen gemacht: a) A und B sind deterministische Aussagen. b) Die in A und B enthaltenen Phänomene sind scharf definiert. c) Das in der Realität beobachtete A ist identisch mit dem in der Regel enthaltenen A. d) Die Regel ist richtig (wahr), nicht widersprüchlich zu einer anderen in der Wissensbasis enthaltenen Regel und sie enthält höchstens zwei Quantoren (den Existenz- oder den All-Quantor).

Für schlecht strukturierte Situationen sind dies allerdings sehr unrealistische Annahmen. Wären diese Annahmen gültig, bräuchte man im allgemeinen kein Expertenwissen, sondern könnte das Problem algorithmisch lösen. Beispiele von Aussagen, die nicht den obigen Annahmen entsprechend, sind: "Die Wahrscheinlichkeit, das Ziel zu treffen. ist 6. " Dies ist offensichtlich eine Aussage, die quantitative Wahrscheinlichkeiten enthält und die adäquat durch Verwendung von Kolmogoroffschen Wahrscheinlichkeitskalkülen modelliert werden können.

"Die Chancen zu gewinnen sind groß. " Hier fehlen quantitative Wahrscheinlichkeitsangaben, und es wird bereits schwierig, ein angemessenes Wahrscheinlichkeitsmodell zu finden. "Wahrscheinlich machen wir einen guten Gewinn. " Hier fehlen auch die quantitativen Wahrscheinlichkeiten. Darüber hinaus ist jedoch das Ergebnis selbst (guter Gewinn) nicht scharf definiert. Betrachten wir schließlich die Aussage "Die Erfahrung des Experten A weist überzeugend darauf hin, daß B passieren wird, während Experte C davon überzeugt ist", wird sicherlich klar, daß wahrscheinlichkeitstheoretische Kalküle hier kaum zu einem angemessenen Modell führen.

Ein im Expertensystem sehr verbreitetes Vorgehen ist, die Unsicherheit (welcher Art auch immer) der Aussagen und Regeln durch sogenannte Unsicherheitsfaktoren (Certainty Factors) auszudrücken. Die Unsicherheitsfaktoren der betroffenen Aussagen oder Regeln werden dann auf irgendeine heuristische Weise aggregiert, um einen Unsicherheitsfaktor der Endaussage zu errechnen. Der Aussagewert solcher Faktoren ist jedoch vernachlässigbar klein, da die verschiedensten Arten von Unsicherheiten zusammengefaßt werden, und da die benutzten Heuristiken weder axiomatisch noch empirisch gerechtfertigt sind. Führen zum Beispiel Aussagen zu dem Schluß "B wird passieren" mit Faktor 0, 4, so bleibt dem Benutzer des Expertensystems vollkommen verborgen, was 0, 4 ausdrückt.

Ist es eine Wahrscheinlichkeit, der Grad der vorhandenen Evidenz, der Glaubensgrad, der Grad der Widerspruchsfreiheit der Regeln, die zu diesem Schluß führten, die Verläßlichkeit der Beobachtungen oder etwas anderes?

Ein anderer - und wohl der bekannteste - Weg, Unsicherheiten zumodellieren, ist die Wahrscheinlichkeitstheorie. Sie ist allerdings in ihrer frequentistischen Ausprägung nur dann anwendbar, wenn die Ereignisse, über deren Eintreffen Aussagen gemacht werden sollen, scharf und eindeutig definiert sind, wenn das Gesetz der großen Zahl gilt (also bei Massenerscheinungen) und wenn genaue numerische Wahrscheinlichkeiten angegeben werden können. Für schlechtstrukturierte Situationen sind dies alles recht unrealistische Annahmen. Die Verwendung wahrscheinlichkeitstheoretischer Verfahren (Bayes'sche Ansätze) in Expertensystemen hat sich darüber hinaus als extrem uneffizient erwiesen.

In den letzten 20 Jahren ist eine Anzahl von Methoden entwickelt worden, die die Wahrscheinlichkeitstheorie ergänzen und die immer dann benutzt werden sollten, wenn entweder Unsicherheiten zu modellieren sind, die wegen ihres Charakters nicht mit Wahrscheinlichkeitskalkülen modelliert werden können (sogenannte lexikale oder linguistische Unsicherheiten, die man auch als Unschärfen bezeichnet), oder wenn die für wahrscheinlichkeitstheoretische Ansätze benötigten Daten(Punktwahrscheinlichkeiten) nicht vorliegen. Im ersteren Fall könnte zum Beispiel die Möglichkeitstheorie oder die Glaubenstheorie verwandt werden, im letzteren Fall die sogenannte Evidenztheorie.

Die Theorie unscharfer Mengen (Fuzzy Set Theory)

Die meisten der obengenannten Theorien können in gewisser Hinsicht als Sonderfälle der 1965 von Zadeh vorgeschlagenen Theorie der unscharfen Mengen angesehen werden. In ihr werden Mengen nicht wie in der klassischen Mengenlehre als eine Anzahl von Elementen mit mindestens einer gleichen Eigenschaft angesehen, sondern jedes Element kann einer unscharfen Menge zu verschiedenen Graden angehören. Oft werden diese Zugehörigkeitsgrade auf dem Intervall 0, 1n normiert. Die "Zugehörigkeitsfunktion" definiert also vollständig eine unscharfe Menge. Bild 1 zeigt die Zugehörigkeitsfunktion der unscharfen Menge "stabile Währungen", wobei die Stabilität als Funktion der jeweiligen Inflationsraten angesehen wird und der Zugehörigkeitsgrad mit Mikron bezeichnet wird.

Eine spezielle Form unscharfer Mengen sind die sogenannten "linguistischen Variablen". Sie dienen insbesondere dazu, linguistischausgedrücktes Wissen mit all seinen Unschärfen angemessen so in formale Sprachen zu übersetzen, daß auf der einen Seite möglichst wenig des Reichtums menschlicher Sprache verloren geht und daß auf der anderen Seite das Wissen von EDV-Anlagen verarbeitet werden kann. So konnte zum Beispiel der Begriff der Wahrheit als eine linguistische Variable betrachtet werden. Statt nun als mögliche Ausprägungen dieser Variablen nur die Werte "wahr" und "falsch" zuzulassen, definiert man eine Menge von "Termen", wie zum Beispiel "sehr falsch", "falsch", "halbwahr", "wahr" und "sehr wahr". Jeder dieser Terme wird nun über den Bereich aller möglichen Wahrheitswerte im Intervall 0, 1 als eine unscharfe Menge definiert. Bild 2 zeigt eine Möglichkeit der Definition dieser Terme.

Hiermit wird die Bedeutung jeder dieser linguistischen Ausdrücke angemessen definiert, ohne an die klassische Wahr-Falsch-Struktur gebunden zu sein. In ähnlicher Weise werden unscharfe Zahlen etc. definiert.

Um mit unscharfen Mengen arbeiten zu können, muß man verständlicherweise wenigstens die Operationen "Durchschnitt", "Vereinigung" und "Komplement" definieren. In der Logik entsprechen dem die Begriffe des "logischen Und", des "logischen Oder" und der "Verneinung", wozu weiterhin Operatoren wie "Implikation", "Äquivalenz" etc. kommen. In der Theorie der unscharfen Mengen wurde zunächst der Durchschnitt mathematisch als der auf die Zugehörigkeitsfunktionen der zu schneidenden Mengen angewandte Minimum-Operator und die Vereinigung entsprechend als der Maximum-Operator definiert. In der Zwischenzeit sind drei weitere große Familien von Operatoren entwickelt worden (die sogenannten t-Normen, die t-Konormen und die mittelnden Operatoren), die je nach den gewünschten Eigenschaften oder der zu modellierenden Situation statt "min" oder "max" gewählt werden können. Es wurde weiterhin in Aachen gezeigt, daß das "logische Und" inhaltlich nicht dem "linguistischen Und", das wir tagtäglich benutzen, entspricht. Für das "linguistische Und" wie für das "linguistische Oder" wurden darüber hinaus empirisch entsprechende mathematische Operatoren entwickelt und getestet. Diese erlauben es, linguistische Ausdrücke auch mathematisch so zukombinieren, wie dies situationsabhängig in der natürlichen Sprache geschieht.

Approximatives und plausibles Schließen

Neben vielen Portierungen der Theorie unscharfer Mengen unter anderem auf Gebiete der Mathematik, der Entscheidungsfällung und der Fuzzy Control scheint ihre Verwendung zur Modellierung menschlichen Schließens recht natürlich. Verschiedene Formen sind in der Zwischenzeit entwickelt worden:

In dualer Logik und allen davon abgeleiteten Verfahren werden die Operatoren (Und, Oder, Negatoren) gewöhnlich durch Wahrheitstafelndefiniert, deren Wahrheitswerte die Werte 1 (wahr) oder 0 (falsch) annehmen können. Außerdem werden die als wahr oder falsch zu bewertenden Komponenten (Aussagen) als scharf definiert angesehen (materielle Wahrheit). In der unscharfen Logik wird die letztere Annahme beibehalten, während die Wahrheitswerte als linguistische Variable (Wahrheit) aufgefaßt werden.

Für die folgenden Formen sei ein Schließen in Formen von Regel-Verknüpfungen unterstellt, wie es am Anfang dieses Beitrags zusammen mit den gewöhnlich gemachten Annahmen erwähnt wurde. Verwendet man für ein solches Schließen unscharfe Logik, so bedeutet dies lediglich, daß in Annahmen a) und b) Regeln beziehungsweise Fakten nicht nur wahr oder falsch sein können, sondern daß auch Zwischenwerte vorkommen können.

Im approximativem Schließen (approximate reasoning) macht man einen weiteren Schritt. Hier werden nicht nur die Wahrheitswerte als unscharfe Mengen aufgefaßt, sondern es ist auch möglich, daß die Aussagen selbst oder deren Komponenten durch unscharfe Mengen (linguistische Variable, unscharfe Quantoren wie "einige", "wenige", "meist", "oft" etc. ) dargestellt werden.

Beim plausiblen Schließen (plausible reasoning) schließlich läßt man darüber hinaus zu, daß die Komponenten in den Prämissen und Regeln nicht streng identisch sind.

Expertensysteme (ES) werden in verschiedensten Weisen definiert. Hier sollen nur einige für uns relevante Eigenschaften erwähnt werden, die vom Standpunkt der Unsicherheit her als wichtig erscheinen: a) Die jeweiligen Anwendungsgebiete von Expertensystemen sind relativ eng begrenzt, schlecht strukturiert und unsicher, das heißt, es sind entweder keine effizienten exakten Algorithmen vorhanden, um die Problemstellugen zu lösen, oder die Strukturen lassen sich nicht exakt mathematisch modellieren. b) Expertensysteme beruhen - wenigstens teilweise - auf Expertenwissen, das entweder von menschlichen Experten oder aus anderen Quellen (Lehrbücher etc. ) extrahiert worden ist. Dieses Wissen ist im Expertensystem gespeichert und wird zur Lösungsfindung benutzt. c) Ein Expertensystem hat die Fähigkeit logischen Schließens mit Hilfe des in ihm gespeicherten Wissens - in welcher Weise es auch in ihm gespeichert sei. Das Interface des Expertensystems ist so gestaltet, daß es vom Benutzer ohne Einschaltung eines menschlichen Agenten benutzt werden kann. e) Da durch den heuristischen Charakter des Systems keine Optimalitätsgarantie gegeben werden kann, verfügt das Expertensystem über ein Erklärungs- oder Rechtfertigungsmodul.

Im Gegensatz zur Fuzzy Control, der der nächste Abschnitt gewidmet ist, geht man beim ES im Prinzip davon aus, daß die beobachteten Fakten (Input) wenigstens teilweise in linguistischer Form vorliegen und daß das Ergebnis des Schließens (Diagnose, Entscheidungsvorschlag, Plan etc. ) zur besseren Verständlichkeit für den (menschlichen) Benutzer möglichst auch in linguistischer Form Angeboten werden sollte. Das Schließen selbst wird sich gewöhnlich des approximativen oder plausiblen Schließens bedienen. Es sollte allerdings darauf hingewiesen werden, daß solche ES heute noch recht selten sind.

Aus den bereits erwähnten empirischen Forschungen auf dem Gebiet der unscharfen Mengen am Lehrstuhl für Unternehmensforschung entstand das ES "ASK". Es hilft bei der Bestimmung der Kreditwürdigkeit von Antragstellern dadurch, daß es Kreditwürdigkeit als eine mehrstufige hierarchisch strukturierte linguistische Variable auffaßt. Bild 3 zeigt eine solche Hierarchie.

Die Aggregation (Verknüpfung) jeweils zweier Komponenten zu der darüberliegenden Kategorie erfolgt mit empirisch überprüfbaren Operatoren aus der Theorie der unscharfen Mengen. In ähnlicher Weise wurde ein ES "ESP" zur strategischen Planung entwickelt, das erlaubt, mehrdimensionale Portfolio-Matrizen aus vielfältigen relevanten Informationen zu bestimmen.

Es könnte der Eindruck entstehen, daß diese hierarchische Darstellung von Wissen sich grundsätzlich von der Darstellung in Form von Regeln unterscheidet. Das Gegenteil zeigt ein ES zur Steuerung von flexiblen Fertigungssystemen (FMS), das ebenfalls am Lehrstuhl für Unternehmensforschung entstand und das erheblich bessere Ergebnisse erzielt als andere Steuerungsverfahren, die damit verglichen wurden. In ihm werden lokale, weniger leistungsfähige Prioritätsregeln hierarchisch zu globalen Steuerungsregeln aggregiert, die dann zur Lösung der anliegenden Einlastungs- und Reihenfolgeprobleme benutzt wurden. Für die Maschinenbelegungsplanung zeigt Bild 4 die Kriterienhierarchie. Geht man davon aus, daß die Eignung eines Werkstückes zur Einlastung in eine Maschinen von den zwei Faktoren Bearbeitungszeit und Schlupfzeit abhängt, so könnte die Verknüpfung dieser beiden Faktoren zur globaleren Einlastungspriorität so beschrieben werden:

(1) WENN die Bearbeitungszeit kurz ist UND die Schlupfzeit nicht ausreichend ist, DANN wähle Werkstückj. (1, 0)

(2) WENN die Bearbeitungszeit kurz ist UND die Schlupfzeit ausreichend ist, DANN wähle Werkstückj. (0, 6)

(3) WENN die Bearbeitungszeit mittel ist UND die Schlupfzeit nicht ausreichend ist, DANN wähle Werkstückj. (0, 8)

(4) WENN die Bearbeitungszeit mittel ist UND die Schlupfzeit ausreichend ist, DANN wähle Werkstückj. (0, 2)

(5) WENN die Bearbeitungszeit lang ist UND die Schlupfzeit nicht ausreichend ist, DANN wähle Werkstückj. (0, 5)

(6) WENN die Bearbeitungszeit lang ist UND die Schlupfzeit ausreichend ist, DANN wähle Werkstückj. (0)Durch linguistische Variablen werden hier offensichtlich die Begriffe "kurze Bearbeitungszeit", "ausreichende Schlupfzeit" etc. definiert. Die Ziffern in Klammern bedeuten den Einsichtigkeitsgrad der entsprechenden Regel.

Die weitaus meisten realisierten Anwendungen der Fuzzy Logic bestehen zur Zeit im Bereich der technischen Steuerungen (Fuzzy Control). Vor allem in Japan werden immer neue Anwendungen realisiert, von Konsumprodukten bis zur Regelung chemischer Großprozesse. Der japanische Binnenmarkt wird von Haushaltsgeräten wie Fuzzy-Staubsaugern, Fuzzy-Mikrowellenherde und Fuzzy-Waschmaschinen geradezu überschwemmt. In diesen Produkten dient der Einsatz von Fuzzy Logic oft als Kaufanreiz, der den nationalen Stolz der Japaner über den erfolgreichen Einsatz von Fuzzy Logic in industriellen Anwendungen ausnutzt, wo Fuzzy Logic zur Steuerung von chemischen Produktionsprozessen, Hochhausaufzügen, Müllverbrennungsanlagen, Industrierobotern, U-Bahnen und selbst zur Regelung des Brauprozesses von Reiswein eingesetzt wird. Dies sind meist Prozesse, für die entweder kein mathematisches Modell existiert oder aber dieses zu komplex ist.

Zunächst mag es verwundern, daß eine Methode zur verfeinerten Nachbildung menschlichen Denkens ausgerechnet in der Regelungstechnik eingesetzt wird. Gerade diese gilt doch als Musterbeispiel der Präzision: Immer mehr Meßwerte sind dank der Fortschritte der Sensortechnik immer genauer zu erfassen.

Stabiler und fehlertoleranter

Trotzdem erwiesen sich viele Fuzzy-gesteuerte Systeme als stabiler und fehlertoleranter im Vergleich zu einem konventionell gesteuerten System. Dadurch, daß die Steuerungsstrategie in Produktionsregeln eingestellt wird, sind Fuzzy-Regelungssysteme einfacher zu erstellen und zu warten.

Doch wie kann das sein? In der theoretischen Regelungstechnik ist klar beschrieben, wie eine optimale Regelung auszulegen ist. Man stellt ein Prozeßmodell auf, beschreibt die Reaktion der Anlage auf die Steuergrößen und konstruiert hieraus die Übertragungscharakteristik des Reglers.

Solange nur einige wenige Steuer- und Meßgrößen zu berücksichtigen sind, ist dies eine praktikable Vorgehensweise. Bei den meistens größeren Prozeßregelungen ist diese Voraussetzung dagegen nicht erfüllt. Hier muß ein feinfühliger Programmierer das Wissen, das über den Prozeß und die Anlage bekannt ist, intuitiv in einen Regelungsalgorithmus umsetzen. Nicht selten entsteht dabei ein kaum noch zu übersehendes Programm, dessen Parametervielfalt eine gezielte Einstellung fast unmöglich macht.

Da die Bausteine der Fuzzy Logic bereits der Symbolik des menschlichen Denkens angenähert sind, kann ein Fuzzy-Regler schneller und übersichtlicher erstellt werden. Statt Parameter einstellen zu müssen, deren Auswirkung auf das Systemverhalten bei größeren Algorithmen kaum noch absehbar ist, bleibt bei der Veränderung von Regeln, linguistischen Variablen oder Operatoren der Bezug zum Gesamtverhalten bestehen. Daher sind Systeme, die mit Fuzzy Logic gesteuert werden, leichter zu modifizieren und zu warten. Auch die Fehlerbehebung profitiert wesentlich von der besseren Übersicht.

Bereits mit wenigen Regeln wird ein hochgradig nicht-lineares Regelverhalten erzielt. Hierauf wird die hohe Stabilität der Fuzzy-Regelungen hauptsächlich zurückgeführt. Die gute Fehlertoleranz hängt direkt mit dem Konzept der Unschärfe zusammen. Inkonventionellen Regelalgorithmen kann bereits ein kleiner Fehler zu einem völligen Versagen der Regelung führen. Da in einem auf Fuzzy Logic basierenden System sich eine geringe Änderung immer nur gering auswirkt, hat ein kleiner Fehler auch mir eine geringe Auswirkung. In Experimenten stellte man fest, daß beim Herausnehmen einiger Regeln einer Fuzzy-Steuerung das System zwar instabiler wurde, aber nichtversagte.

Nach der Enttäuschung über die schwachen Ergebnisse des zu Beginn der neunziger Jahre in Japan begonnenen "Fünfte-Computergenerationen-Projektes" ist dieser Erfolg in Japan nur allzu willkommen. Bei einer genaueren Analyse japanischer Fuzzy-Systeme erkennt man jedoch, daß hier die Konzepte und Methoden der Fuzzy Set Theory nur in einem sehr beschränkten Maße realisiert wurden. Die mangelnde Methodik wurde durch akribische Feinabstimmung ausgeglichen.

Flexibel und erweiterbar: Entwicklungswerkzeug FIT

Als am Lehrstuhl für Unternehmensforschung vor einigen Jahren die Entscheidung getroffen wurde, die Forschung auf dem Gebiet der Fuzzy Set Theory durch Anwendungen im Bereich der Fuzzy-Expertensysteme und Fuzzy Control zu ergänzen, entstand der Bedarf an einem umfassenden Werkzeug hierfür. Da alle erhältlichen Werkzeuge die Methoden der Fuzzy Set Theory nur im genannten unzureichenden Maße verwirklichen und für Erweiterungen nicht geeignet sind und da alle universitären Werkzeuge nicht für praktische Anwendungen konzipiert sind, wurde eine eigene Shell mit dem Namen FIT entwickelt (Fuzzy Intelligence Research Shell).

Diese Shell besteht aus einzelnen Modulen, die unter einer einheitlichen Oberfläche integriert sind. Hierdurch wird eine leichte Erweiterbarkeit und hohe Flexibilität gewährleistet und neue Methoden können im Rahmen von Forschungsprojekten direkt am Gesamtsystem untersucht werden. Zur Implementierung wurde ein vollständig objektorientierter Ansatz in Pascal gewählt.

Da das eigentliche Laufzeitsystem als eines dieser Module realisiert ist, kann es leicht an verschiedene Hardware angepaßt werden - vom Ein-Chip-Rechner in einem Konsumprodukt bis zum Parallelrechner in der Prozeßleittechnik. Auch für Analogrechner oder Fuzzy-Prozessoren können so Anwendungen entwickelt werden.

Bisherige kommerzielle Fuzzy-Logic-Werkzeuge basieren auf der Definition linguistischer Variablen und der Definition einer Menge von Produktionsregeln. Diese Wissensbasis wird durch eine Inferenzmaschine bearbeitet. Um die erweiterten Konzepte der Fuzzy Set Theory zu realisieren, mußte dieses Konzept erweitert werden. Alle Produktionsregeln, die Aspekte desselben Zusammenhangs beschreiben, werden zu einem "Prinzip" zusammengefaßt. Für die Inferenz innerhalb und außerhalb eines Prinzips werden unterschiedliche Methoden verwendet. Da die Produktionsregeln innerhalb eines Prinzips möglicherweise uneindeutige Aussagen über denselben Zusammenhang machen, müssen diese - analog zur menschlichen Entscheidungsfällung - zueinander ins Verhältnis gesetzt werden.

Speziell zur wissenschaftlichen Untersuchung der Fuzzy Control - also der Steuerung technischer Prozesse mit Methoden der Fuzzy Logic - benötigt man neben einer Fuzzy-Shell auch einen zu steuernden Prozeß. Am Lehrstuhl für Unternehmensforschung wurde hierzu ein Modellauto aufgebaut, das über eine Motorleistung von 770 Watt verfügt. Bei einem Gesamtgewicht von 3, 5 Kilogramm liegt das Leistungsgewicht dieses Fahrzeuges in der Größenordnung eines Rennwagens. So besteht die Möglichkeit, das Fahrzeug gezielt in instabile Fahrsituationen zu bringen und zu versuchen, diese über Fuzzy Control abzufangen.

Da die Reaktionszeiten bei den Versuchsgeschwindigkeiten sehr kurz sind und da die Algorithmen der Fuzzy Logic den auf die klassische Logik hin optimierten Digitalrechnern eine sehr hohe Rechenleistung abfordern, werden diese Berechnungen auf einem Transputernetzwerk mit vier Knoten parallel durchgeführt. Mit den zur Zeit eingesetzten T-800-Prozessoren erreichte das Netz eine Rechenleistung von 40 MIPS/6 Mflops.

Dieses Netz ist über einen Host-Rechner (286-AT) mit den Sensoren und Steuerungselementen des Autos verbunden. Hier kann auch direkt eine Tastatur und ein Bildschirm angeschlossen werden, um die Ergebnisse von Testfahrten auszuwerten oder die Steuerungsstrategie zu modifizieren. Der Betrieb des Fahrzeugs ist völlig autonom, die Stromversorgung erfolgt über Akkumulatoren; eine Fernsteuerung ist nicht vorgesehen. Die Steuerung eines Fahrzeugs im und über den Grenzbereich hinaus stellt ein sehr komplexes regelungstechnisches Problem dar. Die von den Sensoren gelieferten Daten stellen nur eine sehr indirekte Information über die tatsächliche Situation dar. Erst das "Ins-Verhältnis-setzen" verschiedenartiger Informationen liefert eine signifikante Information über die jeweilige Situation, in der sich das Fahrzeug befindet. Auch die Reaktion der Steuerung auf diese Situation umfaßt mehrere Stuerungselemente. Die Auswahl der angemessenen Reaktion aus der Fülle möglicher Kombinationen erfordert wiederum ein "Ins- Verhältnis-setzen". Gerade dies ermöglicht die Fuzzy Control.

Um die dem menschlichen Denken eigenen Konzepte gegenüber bisherigen Expertensystemen verfeinerter darzustellen, werden in der KI-Forschung neben der Fuzzy Logic auch neuronale Netzwerke eingesetzt. Neuronale Netze entstammen der Idee, die physiologischen Kenntnisse über den Aufbau des menschlichen Gehirns direkt zum Aufbau eines Computers zu verwenden - Gehirnzellen (Neuronen) gleichsam in Silizium nachzubilden. Sie können dann zu einem neuronalen Netz verdrahtet werden. Die Fuzzy Logic dagegen, auf deutsch "unscharfe Logik" genannt, entstammt einer exakten mathematischen Theorie. In ihr werden die unscharfen Begriffe unseres Denkens mit mathematischem Inhalt gefüllt, um sie so einem Computer zugänglich zu machen. Ein neuronales Netz geht dagegen gar nicht auf die nachzubildenden Konzepte selbst ein, sondern wird als "Black box" betrachtet, in der Informationen verarbeitet werden.

So sehr sich diese Ansätze unterscheiden, so unterschiedlich argumentieren auch ihre Verfechter. Neuronale Netze besitzen die Fähigkeit, das in ihnen gespeicherte Wissen aus Beispielen zu erlernen. Bei Systemen, die auf Fuzzy Logic basieren, wird dagegen das Wissen direkt, beispielsweise in Form von Regeln oder Begriffserklärungen, gegeben. Verfechter der neuronalen Netze halten Fuzzy-Systemen "Dummheit" vor, da sie nichts dazulernen können. Anhänger der Fuzzy Logic dagegen behaupten, es sei nicht nachzuvollziehen, was in einem neuronalen Netz vorgehe. Zeigt das neuronale Netz nicht das gewünschte Verhalten, so besteht kaum eine direkte Möglichkeit herauszufinden, warum und wie das gewünschte Verhalten erzielt werden kann. In einem Fuzzy-System dagegen kann ein Fehlverhalten bis zu den es auslösenden Gründen nachvollzogen und behoben werden. Unterschiedlich ist auch die Art und Weise, in der die Unschärfe menschlicher Begriffe in den beiden Ansätzen berücksichtigt wird. Daher sind beide Ansätze nicht direkt vergleichbar, und die Wahl hängt vom Anwendungsfall ab. Eine mögliche Verbindung beider Ansätze stellen "lernfähige Fuzzy-Systeme" dar. Hier wird nur die Grundstruktur des Fachwissens direkt in das Systemeingegeben - die Feinheiten werden aus Beispiele "gelernt". Auch diese Verfahrenstellen einen Bereich der aktuellen Forschung am Entwicklungswerkzeug FIT dar. Zum einen werden hier weiterentwickelte Lehralgorithmen für herkömmliche Expertensysteme, zum anderen Algorithmen, die sich Lernverfahren neuronaler Netzwerke zum Vorbild nehmen, verwendet.