Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.06.1991 - 

Anwendungsbeispiel für wissensbasierte Systeme

Expertensystem unter Unix unterstützt die Finanzwelt

Expertensysteme (genauer: wissensbasierte Systeme) haben sich bislang nur in Spezialistenkreisen durchsetzen können. Obwohl in aller Munde, besitzen sie immer noch akademischen Status, und ihr Durchbruch in weiten Bereichen der kommerziellen Informationstechnologie ist noch nicht gelungen. Arthur Thomas* erklärt, warum das so ist.

Die Gründe dafür, daß Expertensysteme bis heute keine große Resonanz gefunden haben, sind vielfältig:

- Wissensbasierte Systeme lassen sich schlecht in bestehende Systeme und Anwendungen integrieren. Der Informationsaustausch mit existierenden Datenbanken erweist sich als problematisch.

- Die Entwicklung ausgewogener Systeme, die dem Anwender auch genügend Flexibilität und Benutzerfreundlichkeit gewähren, gelingt nur in seltenen Fällen.

- Viele Problemstellungen werden nicht von einem Experten allein, sondern in Teamarbeit gelöst. Deshalb müssen wissensbasierte Systeme in der Lage sein, das Zusammenspiel der verschiedenen Spezialisten zu realisieren.

- Komplexe Entscheidungsprozesse mit starker wissensbasierter Komponente erfordern schnellen und mehrdimensionalen Zugriff, auch auf umfangreiche Datensätze. Zudem erwartet der Anwender Flexibilität, um das System schnell an die für seinen Arbeitsbereich gültigen Bedingungen anpassen zu können.

- Wissensbasierte Systeme wurden bisher von vielen Verantwortlichen in der Datenverarbeitung als Bedrohung gesehen. Doch das Bild der traditionellen Informationstechnologie hat sich gewandelt: Die Unterscheidung zwischen zentraler und verteilter Datenverarbeitung verliert an Bedeutung, und die Unternehmen selbst ändern ihre Organisationsstruktur.

All diese Punkte werden deutlich am Beispiel einer komplexen Anwendung im Finanzbereich, der Fondsverwaltung. Die empfindliche Balance zwischen zentraler und dezentraler Datenverarbeitung spielt dabei eine ebenso wichtige Rolle wie das sensible Zusammenwirken zahlenintensiver und qualitativer Argumentationen in einer zeitkritischen Umgebung.

Die beschriebene Anwendung läuft in einer Unix-Umgebung, behandelt aber gleichzeitig einige der generellen organisatorischen Probleme, die bei solchen komplexen Anforderungen auftreten.

Hohe Ansprüche an die Architektur

Für die beschriebene Anwendung müssen folgende Systemvoraussetzungen erfüllt sein:

- eine hochmodulare Architektur mit ausgeteilter Benutzerführung, die eine Anpassung an wechselnde Anforderungen erlaubt,

- die Möglichkeit, die Umgebung schnell zu verändern und neue Ressourcen ohne großen finanziellen Aufwand hinzuzufügen,

- die vieldiskutierte "Offenheit", das heißt die Unterstützung heterogener Systemumgebungen verschiedener Hersteller,

- exzellente, standardisierte Grafiken, die dem Anwender Freiräume garantieren und problemlosen Informationsaustausch gewährleisten.

Überlast-Gefahr für Anwender und System

Systeme, die Fondsverwalter bei der Analyse und Entscheidungsfindung unterstützen sollen, müssen vor allem zweierlei berücksichtigen: Durch die riesige Menge verfügbarer Online- Informationen besteht sowohl die Gefahr der technischen Überlastung des Systems als auch die einer "geistigen Überlastung" des Anwenders.

Für ein wissensbasiertes System sind verschiedene Aspekte der Fondsverwaltung von Bedeutung:

- Die Problematik ist nicht sehr komplex, hat aber ein breites Spektrum.

- Ein intensives Zusammenspiel zwischen fundamentalem ökonomischen und technischem Wissen (in bezug auf Marktverhalten) ist erforderlich. Dadurch geraten sowohl die Analyse als auch die Darstellung der Finanzdaten äußerst zahlen- und damit rechenintensiv.

- Die quantitative und qualitative Bewertung verschiedenster, oft sehr umfangreicher Informationen in Echtzeit müssen in Einklang gebracht werden. So übersteigt das typische Datenvolumen zur Hauptgeschäftszeit der Portfolio-Manager nicht selten 5 MB/s.

- "Kognitive" Verarbeitungsaspekte sind von grundlegender Bedeutung: Der Anwender soll durch überzeugende Darstellung von möglichen Szenarien zu einer sicheren Entscheidung geführt werden.

- Höchste Geschwindigkeit ist ein absolutes Muß. Entscheidungen, die zu spät getroffen werden, sind wertlos. Vor allem sollte das System jedoch in der Lage sein, Daten zu filtern und irrelevante Informationen vom Fondsverwalter fernzuhalten, um die absolute Konzentration auf strategisch wichtige Vorgänge zu garantieren.

Ein Beispiel für ein Programm mit einer Auswahl an grafischen und analytischen Werkzeugen sowie mit einer wissensbasierten Datenfilterung ist das Produkt "Portfolio Monitor" von Experta Intelligent Systems. Das Programm verknüpft aktuelle und historische Daten mit wichtigen Marktereignissen und liefert auf diese Weise Entscheidungshilfen.

Obwohl die vom Portfolio Monitor genutzte Unix-Umgebung viele Vorteile für den Aufbau eines flexiblen Systems bietet, weist das Betriebssystem noch einige Unzulänglichkeiten auf:

- Der LAN-Betrieb unter Unix (meist auf Ethernet- und IP-Basis) bietet nicht genügend Bandbreite für einen andauernden Hochgeschwindigkeits-Datenfluß. Neue, leistungsstärkere Netzwerkprotokolle wie FDDI und andere Breitbandtechnologien sind noch nicht genügend entwickelt.

- Unix-Netzwerke sind nicht "transparent" genug, um dem Anwender genügend Flexibilität zu gewährleisten. Hier werden neue Netzwerktechnologien für eine dynamische Zuweisung von Verarbeitung und Ressourcen sorgen.

- Unix selbst ist nicht grundsätzlich objektorientiert. Deshalb werden die objektorientierten Komponenten eines Systems nicht immer vollständig unterstützt.

Anwender will wissen, wie er reagieren soll

Um den Einsatz wissensbasierter Systeme in Netzwerken zu voller Effizienz zu bringen, sind also noch einige Anstrengungen erforderlich. Zum Beispiel muß mehr Wert auf die synthetischen, konstruktiven Komponenten des Problems gelegt werden anstatt nur auf die analytischen. Der Anwender will schließlich wissen, wie er auf bestimmte Sachverhalte reagieren soll, und nicht nur, um welche Sachverhalte es sich handelt.

Das bedingt natürlich auch Änderungen im Management komplexen, kognitiver Problemstellungen, wie etwa Marktszenarien. So wird zum Beispiel das traditionell monolithische wissensbasierte System von sogenannten "Blackboard-Architekturen" ersetzt werden müssen, die eine kooperative Problemlösung ermöglichen. Obwohl die zugrundeliegende Technologie der Blackboard-Systeme, zum Beispiel kommerzieller Produkte wie dem "Generic Blackboard" und akademischer Systeme wie "BB1" inzwischen ziemlich weit vorangeschritten ist, muß das Verständnis für bestimmte Vorgänge noch erarbeitet werden.

Die Planer solcher Systeme stehen vor zwei besonders kritischen Aufgaben: Die Architekturen müssen effizient auf Netzwerke verteilt, und die Balance zwischen geteiltem Speicher und gemeinsamer Datenverarbeitung auf Nachrichtenbasis optimal hergestellt werden.

In puncto Datenbank-Management erfordert die wachsende Komplexität und Größe der einschlägigen Systeme, seien diese relational oder nicht-relational sowie die wachsende Notwendigkeit zur Unterstützung heterogener, unternehmensweiter DBMS die Einbeziehung wissensbasierter Technologien. Nur so kann die Konsistenz und Verfügbarkeit kritischer Daten garantiert werden. Die Entwicklung sogenannter Experten-Datenbanken wird die ohnehin künstliche Unterscheidung zwischen Daten und Wissen vergessen machen.

Die kommenden Veränderungen dürften die Balance zwischen zentraler und dezentraler Datenverarbeitung verschieben. Die von einigen DV-Auguren aufgestellte Prognose, daß Mainframes von vernetzten Workstations verdrängt werdend läßt sich nicht so ohne weiteres nachvollziehen. Vernetzte Workstations führen in vielen Fällen ein Insel-Dasein.

Während rein technische Probleme wie die Ubertragungs-Bandbreite des Netzes bald gelöst sein dürften, werden im organisatorischen Bereich noch große Anstrengungen notwendig sein. Der Besitz von Daten und Informationen bedeutete schon immer Macht, und deren Inhaber wollen diese nicht so leicht aufgeben oder zumindest

teilen.

Für alle informationsverarbeitenden Systeme, aber speziell für wissensbasierte Systeme erfordert die Lösung dieser Problematik nicht nur Veränderungen im technischen, sondern auch im kulturellen Bereich.