Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

08.03.1991 - 

Expertensysteme in der Betriebswirtschaftslehre

KI: Die Euphorie weicht der nüchternen EinschätzungDie Erforschung Künstlicher Intelligenz (KI) hat in der Gestalt von Expertensystemen auch seitens der Betriebswirtschaftslehre größere Beachtung gefunden. Noch dominieren optimistische Einschätzungen der

e Metaregeln, welche die Auswahl derart konfligierender Diagnoseregeln kontrollieren, bleiben jedoch dem gewöhnlichen Systembenutzer verborgen.

Daher wäre es wünschenswert, zumindest der Konsistenz, einer Wissensbasis sicher zu sein. So ließe sich verhindern, daß aus derselben Wissensbasis widersprüchliche Inferenzergebnisse abgeleitet werden können, je nachdem welche - für den Systembenutzer undurchschaubaren - Inferenzkonzepte auf das explizite Objektwissen angewendet werden. Das Inferenzpotential der Wissensbasis eines Expertensystems ist im allgemeinen aber so groß, daß sich ihre Konsistenz weder mit dem "gesunden Menschenverstand noch durch das simulative Austesten einiger Demonstrationsbeispiele feststellen läßt. Seitens der KI-Technologie werden zwar Konzepte diskutiert, um die Konsistenz von Wissensbasen systematisch zu überprüfen [11]. Sie werden jedoch bei den derzeit präsentierten Expertensystemen noch in keiner Weise berücksichtigt.

Das Konsistenzproblem verschärft sich noch, weil die Wissensbasis eines Expertensystems zumeist nicht einmalig erstellt wird. Statt dessen unterliegt sie einer fortwährenden Evolution. Denn im Verlaufe der Systementwicklung und -nutzung werden neue Erkenntnisse über den jeweils betroffenen Problembereich gewonnen. Dies führt - zumindest idealtypisch - zu einer fortwährenden Überarbeitung der Wissensbasis. An dieser Wissenspflege können im Zeitablauf sowohl unterschiedliche Personen teilnehmen als auch dieselben Personen, deren Problemwahrnehmungen sich jedoch durch Lernprozesse verändert haben. Beide Einflüsse bewirken, daß in der Wissensbasis eines Expertensystems Wissenskomponenten aus unterschiedlichen Problemperspektiven miteinander vermengt werden, die sich nicht immer widerspruchsfrei miteinander vereinbaren lassen.

Informationsfilterung birgt auch Gefahren

Expertensysteme, die sich in kooperativer Weise auf die mutmaßlichen Informationsbedürfnisse ihrer Benutzer einstellen sollen, bergen die Gefahr in sich, ihre Informationsausgabe so zu filtern, daß sie den tatsächlichen Benutzerinteressen nicht entsprechen.

Expertensysteme werden manchmal als "kooperative" oder "konviviale" Systeme ausgezeichnet. Sie sollen aufgrund ihrer Dialogkomponente in der Lage sein, sich auf die Informationsbedürfnisse ihrer Benutzer einzustellen. Damit werde der frühere, "maschinenzentrierte" Ansatz der konventionellen Informationsverarbeitung verlassen, die Systembenutzer an die Verarbeitungsstrukturen von Computern anzupassen, indem Benutzerschulungen, Formalisierungen von Arbeitsabläufen und ähnliche Maßnahmen erfolgen. Statt dessen werde nunmehr das Verhalten von Expertensystemen an ihrer Benutzeroberfläche so gestaltet, daß es den kognitiven Eigenarten menschlicher Informationsverarbeitungsprozesse entspreche. Zentrales Instrument für die Verwirklichung dieser Kooperationsleistungen sind Benutzermodelle [12], die in den Dialogkomponenten von Expertensystemen verwaltet werden. Ein solches Benutzermodell kann zum Beispiel Angaben über das Wissensniveau eines Systembenutzers enthalten. Ebenso vermag es auszudrücken, an welchen neuartigen

Informationen ein Systembenutzer vorrangig interessiert ist. Zusätzlich kann es festhalten, welche Art der Informationspräsentation - zum Beispiel grafischer, numerischer oder verbaler Art - der Benutzer bevorzugt.

Benutzermodelle können daher durchaus dazu führen, daß Expertensysteme an ihren Benutzerschnittstellen genau jene Informationen darbieten, die ihre Benutzer als relevant erachten. Dabei werden sowohl solche Informationen herausgefiltert, die ein Systembenutzer aufgrund seines Vorwissens bereits kennt, als auch solche, an denen er nicht weiter interessiert ist. Hierdurch läßt sich die Mensch-Maschine-Kommunikation in benutzerfreundlicher Weise auf das jeweils "Wesentliche" konzentrieren. Eine derart kooperative Informationsfilterung setzt aber voraus, daß das Benutzermodell, das in der Dialogkomponente eines Expertensystems vorgehalten wird, valide ist. Die tatsächlichen Informationsinteressen der Systembenutzer müssen korrekt widergespiegelt werden.

Dies braucht jedoch keineswegs der Fall zu sein. Denn das Benutzermodell stellt jeweils nur eine Hypothese des Expertensystementwicklers über die mutmaßlichen Interessen der zukünftigen Systembenutzer dar. Wenn die Hypothese falsch ist, können die unterstellten von den tatsächlichen Benutzerinteressen erheblich abweichen. Besonderes Gewicht erlangt diese Gefahr, wenn dasselbe Expertensystem zeitgleich von heterogenen Benutzergruppen in Anspruch genommen werden soll oder wenn die Informationsbedürfnisse seiner Benutzer im Zeitablauf stärkeren Veränderungen unterliegen.

Falls eine größere Diskrepanz zwischen dem Benutzermodell eines Expertensystems und den tatsächlichen Informationsbedürfnissen seiner Benutzer besteht, kann die intendierte Kooperativität der Dialogkomponente in ihr Gegenteil umschlagen. Dann ist es durchaus möglich, daß aufgrund des invaliden Benutzermodells tatsächlich interessierende Informationen unterdrückt werden. Ebenso können andere Informationen, für die überhaupt kein Bedarf besteht, als "lnformationsschrott" ausgegeben werden. Trotz der erheblichen Bedeutung, welche die Informationsfilterung durch Benutzermodelle erlangen kann, ist für betriebswirtschaftliche Expertensystemeinsätze noch keine Untersuchung der Validität ihrer Benutzermodelle bekannt geworden.

Mangelhafte Erklärungsfähigkeit

Die angebliche Fähigkeit von Expertensystemen, ihr eigenes Verhalten einem anfragenden Benutzer einsichtig erklären zu können, wird durch die derzeit angebotenen Expertensysteme nicht eingelöst.

Als ein wesentlicher Vorzug von Expertensystemen gegenüber konventioneller Software wird des öfteren angeführt, sie könnten die Ergebnisse ihrer Informationsverarbeitung selbständig erläutern [13]. Darüber hinaus seien sie in der Lage, bei interaktiver Benutzung ihre einzelnen Verarbeitungsschritte zu erklären. Dies gelte insbesondere auch für Aufforderungen an den Systembenutzer, das Expertensystem im Bedarfsfall mit zusätzlichen Informationen zu versorgen. Diese Fähigkeit zur Selbsterklärung werde erheblich dazu beitragen, daß Expertensysteme auch von solchen Benutzern akzeptiert würden, die der automatischen Informationsverarbeitung sonst mit großer Skepsis entgegentreten.

Die "Erklärungskomponenten" von Expertensystemen, die zur Zeit für betriebswirtschaftliche Applikationen präsentiert werden, erfüllen die vorgenannten Verheißungen in keiner allenfalls in rudimentärer Weise. Es handelt sich lediglich um Protokollierungen der jeweils erfolgten Inferenzprozesse. Die Auflistung der dabei ausgeführten Inferenzschritte, zum Beispiel der angewandten Produktionsregeln, besitzt aber für den informationstechnischen Laien überhaupt keine Erklärungskraft. Mitunter werden auch standardisierte "Erklärungstexte" angeboten, die jeweils mit einer Produktionsregel fest verknüpft sind. Hiermit wird aber das informationstechnische Niveau der starren "Hilfetexte", die etwa im Rahmen der konventionellen Textverarbeitung schon lange zum Stand der Technik zählen, nicht überschritten. Diesbezüglich von einem Fortschritt der KI-Technologie sprechen zu wollen, erschiene anmaßend. Es würde der Anspruch der KI-Forschung übersehen, keine standardisierten Textbausteine zu präsentieren. Vielmehr sollen variable Erklärungstexte generiert werden, die sowohl an die aktuelle Inferenzsituation als auch an den aktuellen Systembenutzer angepaßt sind.

Akquisition des Objektwissens ein Engpaß

Für beide Erklärungsaspekte kann die KI-Forschung auf subtile Konzepte verweisen, mit deren Hilfe sich tatsächlich "intelligente" Erklärungsleistungen verwirklichen ließen. Beispielsweise wird erörtert, spezielles Erklärungswissen vorzuhalten, das nicht auf die Erzeugung korrekter Inferenzen, sondern auf die Generierung anschaulicher Inferenzerklärungen Zugeschnitten ist [14]. Denn es ist seit langem bekannt, daß sich die typischen Inferenzkonzepte der Künstlichen Intelligenz von den typisch menschlichen Erklärungsmustern fundamental unterscheiden. Daher reicht die heute übliche Praxis, die Protokolle von Inferenzprozessen als "Erklärungen" auszugeben, überhaupt nicht aus. Sie bleibt auch hinter den konzeptionellen Möglichkeiten der KI-Forschung weit zurück.

Die Akquisition des Objektwissens, mit dessen expliziter Repräsentation die Wissensbasen von Expertensystemen gefüllt werden sollen, erweist sich als fundamentaler Engpaß bei der Systementwicklung.

Die Erkenntnis, daß sich die Wissensakquisition als ein zentraler Schwachpunkt nahezu jedes Expertensystem-Projekts herausgestellt hat, ist mittlerweile allgemein bekannt. Sie bedarf daher keiner weiteren Erläuterung. Statt dessen seien nur zwei Randbemerkungen erlaubt. Die praktische Bedeutung des Akquisitionsengpasses wird unter anderem daran deutlich, daß sich die Software-Industrie schon frühzeitig auf die Entwicklung von Expertensystem-Schalen oder Entwicklungswerkzeugen konzentriert hat, die keine eigenen, inhaltlich gefüllten Wissensbasen besitzen. In vornehmer Zurückhaltung bleibt die Wissensakquisition dem Schalen- beziehungsweise Werkzeugerwerber überlassen.

Darüber hinaus wird behauptet, der Akquisitionsengpaß lasse sich aus theoretischen Gründen niemals vollständig überwinden. Dies wird mit der Existenz von "tacit knowledge" und "skills" begründet, auf die sich Experten in ihren Expertenurteilen immer stützten, die sich aber jeder Explizierung grundsätzlich entzögen. Aus erkenntnistheoretischer Perspektive ist es höchst interessant, ob die Vertreter der KI-Technologie in Zukunft immer weitere Wissensbereiche, die vormals als Domänen des tacit knowledge ausgegeben wurden, in explizite Repräsentationsformen zu überführen vermögen. Sollte dies zunehmend gelingen, besäße die KI-Technologie aufklärerischen Charakter: Denn sie würde dazu beitragen, behauptete Bereiche opaken Wissens in explizit repräsentierte und damit allgemein zugängliche Erscheinungsformen dieses Wissens zu transformieren.

Die Überprüfung, in welchem Ausmaß ein Expertensystem die Sachziele tatsächlich erfüllt, zu deren Befriedigung es entwickelt wurde, erfolgt in der Praxis entweder überhaupt nicht oder aber methodisch unzulänglich.

In der Literatur, die sich mit dem betrieblichen Einsatz von Expertensystemen beschäftigt, wird zwar oftmals über den "erfolgreichen" Systemeinsatz berichtet [15].

Die Erfolgsmeldungen beschränken sich aber darauf, subjektive Einschätzungen der Systementwickler wiederzugeben oder einzelne - zumeist noch stark vereinfachte - Einsatzbeispiele zu beschreiben. Beides stellt keine überzeugende Validierung der angeblichen Systemfähigkeiten dar. Denn die optimistischen Einschätzungen derer, die ein Expertensystem entwickelt haben, läßt sich psychologisch allzu leicht als Expost-Rechtfertigung der eigenen Entwicklungsarbeit deuten. Eine verläßliche Auskunft darüber, wie die intendierten Sachziele tatsächlich erfüllt wurden, kann von solchen Entwickleransichten allein nicht erwartet werden. Exemplarische Einsatzbeschreibungen überzeugen ebensowenig. Denn sie vermitteln keine repräsentative Einsicht in das Systemverhalten für den gesamten intendierten Einsatzbereich. Darüber hinaus werden Demonstrationsbeispiele oftmals so zurechtgelegt, daß sich die vorgeführten Expertensysteme von ihrer besten Seite präsentieren.

Sachziele in einem Pflichtenheft

Eine methodisch akzeptable Validitätsprüfung müßte hingegen zunächst einmal ein Pflichtenheft oder ein äquivalentes Dokument vorlegen, in dem explizit festgelegt ist, welche Sachziele ein Expertensystem erfüllen soll. Darüber hinaus müßte es operationale Maßstäbe enthalten, mit deren Hilfe sich die beabsichtigte und die realisierte Erfüllung jedes Sachziels in intersubjektiv nachvollziehbarer und reproduzierbarer Weise überprüfen ließe. Solche konkreten Sachziel- und Maßstabsspezifizierungen sucht der interessierte Leser in der oben angesprochenen Literatur jedoch vergeblich. Allenfalls lassen sich rudimentäre Ansätze erkennen, die jedoch den Anspruch einer seriösen Systemvalidierung auf keinen Fall einzulösen vermögen. Es mag zwar zutreffen, daß entsprechende Validierungen "intern" vorgenommen, aber nicht publiziert wurden. Doch solche Validierungsbehauptungen können aufgrund ihrer fehlenden Dokumentation nicht kritisch überprüft - und infolgedessen auch beliebig aufgestellt werden.

Behauptungen über das Ausmaß, in dem betriebswirtschaftliche Formalziele durch den Einsatz eines Expertensystems erfüllt werden, tauchen zwar des öfteren auf, überzeugen jedoch zumeist nicht.

Die betriebswirtschaftliche Vorteilhaftigkeit eines Expertensystems wird in der Regel dadurch begründet, daß ihre vermuteten Kosteneinsparungen herausgestellt werden [16]. Die Entwicklungskosten werden manchmal, aber keineswegs immer berücksichtigt. Solche Kosten(vergleichs)rechnungen erweisen sich in mehrfacher Hinsicht als unbefriedigend. Erstens handelt es sich bei der Entwicklung von Expertensystemen zumeist um langfristig angelegte Projekte, denen kurzfristig konzipierte Kostengrößen nicht gerecht werden. Aus betriebswirtschaftlicher Sicht wären Investitionsanalysen vorzuziehen, die jedoch in der einschlägigen Expertensystem-Literatur vergeblich gesucht werden. Zweitens erscheint die Beschränkung auf "harte", quantitative Kostengrößen mangelhaft. Die Beurteilung von Expertensystemen müßte dagegen vielfältige qualitative Kosten- und Nutzenwirkungen einbeziehen [17]. Beispielsweise werden in den Entwicklungskosten eines Expertensystems die "Kosten", die aus Anpassungen der Ablauforganisation von Arbeitsprozessen oder aus Akzeptanzwiderständen betroffener Systembenutzer resultieren können, nicht berücksichtigt.

Ebenso bleiben positive Effekte ausgeklammert, die bei der Erstellung einer Wissensbasis aus der systematischen gedanklichen Durchdringung des intendierten Anwendungsbereichs resultieren können. Drittens werden die Datenprämissen, die den vorgelegten Schätzungen angeblicher Kosteneinsparungen zugrundeliegen, nicht oder nur oberflächlich dargelegt. Ob es sich bei diesen Einsparungspotentialen um Wunschvorstellungen oder um wohlfundierte Prognosen handelt, kann in der Regel nicht kritisch überprüft werden.

Die Frage, wer für fehlerhafte Entscheidungen verantwortlich ist, die auf der Benutzung eines Expertensystems beruhen, harrt noch ihrer verbindlichen Beantwortung [18]. Dies schafft eine Rechtsunsicherheit, deren Folgen sich derzeit kaum überblicken lassen.

Expertensysteme können eingesetzt werden, um sie in kritischen Situationen unter Realzeitbedingungen selbständig Entscheidungen treffen zu lassen. Damit können streßbedingte menschliche Fehlentscheidungen vermieden werden. Es wurde jedoch oben dargelegt, daß solche Realzeitexpertensysteme in einem strengen Sinne grundsätzlich unzuverlässig sind.

Falls ein Expertensystem dennoch im Realzeitbetrieb eingesetzt wird und dabei eine Entscheidung trifft, die sich nachträglich - ohne die Last einschränkender Realzeitanforderungen - als Fehlentscheidung herausstellt, so liegt die Frage nach der Verantwortlichkeit für dieses Fehlverhalten nahe.

Zunächst könnte die Verantwortung dem Expertensystementwickler zugeschoben werden, weil er ein fehlerhaft funktionierendes System konstruiert habe. Der Entwickler wird aber darauf verweisen, daß er keinen vermeidbaren Konstruktionsfehler begangen hat. Vielmehr gelte die Unzuverlässigkeit unter Realzeitbedingungen für jedes hinreichend ausdrucksfähige Expertensystem prinzipiell. Also läßt sich die Verantwortung für die Fehlentscheidung ebenso dem Systemanwender anlasten, der das Expertensystem eingesetzt hat, obwohl er von dessen grundsätzlicher Unzuverlässigkeit wußte - oder zumindest bei näherer Befassung mit der KI-Technologie hätte wissen müssen.

Der Systemanwender kann sich aber ebenso entschuldigen, indem er darauf verweist, zwischen dem Risiko einer Fehlentscheidung durch das Expertensystem und einer Fehlentscheidung durch einen streßgeplagten Menschen sorgfältig abgewogen zu haben. Da beide Seiten plausible Exkulpationen vortragen können, bleibt es wohl juristischer Argumentationskunst überlassen, hier eine Zuordnung oder Aufteilung der Verantwortlichkeit festzulegen. Bisher ist dieser Streitfall noch nicht zweifelsfrei geregelt.

Aber selbst dann, wenn Expertensysteme nur als entscheidungsunterstützende Systeme eingesetzt werden, bleibt die Verantwortlichkeit für expertensystemgestützte Fehlentscheidungen ein derzeit ungelöstes Problem. In den oben vorgetragenen Thesen wurde eine Vielfalt möglicher Ursachen von Fehlentscheidungen aufgezeigt [19].

Exemplarisch läßt sich auf inkorrekte Inferenzergebnisse, die aus der Entscheidungsregel des Negation-by-failure-Prinzips resultieren können, auf Interpretationsdissense bei natürlichsprachlichen Dialogkomponenten und auf inkonsistente, aus widersprüchlichen Quellen gespeiste Wissensbasen hinweisen.

Der Entwickler eines Expertensystems könnte sich auf eine Klausel zurückziehen, die ihn von jeder Haftung für Fehlentscheidungen freistellt, die ein Systembenutzer "autonom" treffe. Angesichts der ebenfalls skizzierten Tendenz, daß sich die Benutzer von Expertensystemen von deren Entscheidungs-"Empfehlungen" nur in Ausnahmefällen distanzieren werden, wäre ein solches Pochen auf autonome Benutzerentscheidungen jedoch lebensfremd.

Darüber hinaus mutete es widersprüchlich an, einerseits Expertensysteme für die Entscheidungsunterstützung anzubieten, andererseits aber für die Folgen der tatsächlichen Nutzung dieser Unterstützungsleistung nachträglich nicht mehr einstehen zu wollen. Angesichts der neueren Rechtslage auf dem Gebiet der gefährdungsbezogenen Produkthaftung ist auch kaum damit zu rechnen, daß eine solche generelle Haftungsfreistellung der Systementwicklerjuristisch Bestand hätte.

Umgekehrt erscheint es aber ebensowenig plausibel, daß die Entwickler von Expertensystemen in Zukunft alle Fehlentscheidungen verantworten sollten, welche die Systembenutzer im Zusammenhang mit der Konsultierung eines Expertensystems begehen. Denn es bestehen zahlreiche Möglichkeiten, an sich korrekte Empfehlungen eines Expertensystems fehlerhaft zu interpretieren.

Ebenso lassen sich richtig verstandene Systemempfehlungen mit weiteren Entscheidungen, die außerhalb des Beratungsbereichs des befragten Expertensystems liegen, so kombinieren, daß das gesamte Entscheidungsbündel inkorrekt wird. Ein eindeutiger Nachweis, welche Seite die Schuld an solchen fehlerhaften Interpretationen oder Bündelungen trägt, ist aber oftmals nicht möglich.

Schließlich könnte eine radikale Haftung von Expertensystementwicklern noch eine Nebenwirkung hervorrufen, die sicherlich nicht beabsichtigt wird. Denn das Risiko, daß ein Systembenutzer zu einer Fehlentscheidung veranlaßt werden könnte, ist aufgrund der oben vorgetragenen Gründe so groß, daß sich Softwareproduzenten angesichts einer radikalen Haftungsandrohung vermutlich aus der Konstruktion von Experten systemen vollkommen zurückziehen würden. Dann gingen den potentiellen Systembenutzern aber auch alle Vorzüge der - nun nicht mehr zu verwirklichenden - Entscheidungsunterstützung durch Expertensysteme verloren. Eine haftungsinduzierte Einstellung der Expertensystementwicklung kann daher nicht im Eigeninteresse der potentiellen Systembenutzer liegen.

Eine Risikoteilung zwischen den Entwicklern und Benutzern von Expertensystemen scheint hier der einzig realistische Ausweg zu sein. Wie diese Risikoteilung jedoch konkret ausgestattet werden sollte und wie sie sich gegebenenfalls mit Plausibilitätsargumenten rechtfertigen ließe, stellt derzeit noch ein ungelöstes Problem dar.

Einordnung der kritischen Thesen

Die voranstehenden Thesen, die ein kritisches Licht auf den Einsatz von Expertensystemen werfen, würden grundsätzlich mißverstanden, wenn aus ihnen herausgelesen würde, die Entwicklung und Implementierung von Expertensystemen sei schlechthin abzulehnen. Der Thesenkatalog bezweckt lediglich, den Blick für die prinzipiellen oder auch nur aktuellen Schwächen von Expertensystemen zu schärfen. Er dient nur als ein Gegengewicht gegen die oftmals allzu optimistischen Einschätzungen der KI-Technologie.

Dies sagt aber noch nichts darüber aus, ob von dem Einsatz von Expertensystemen für die Bearbeitung betriebswirtschaftlicher Probleme abzuraten sei. Denn diese Probleme harren auch dann noch ihrer Bewältigung, wenn auf Expertensysteme verzichtet wird. Eine umfassendere Beurteilung müßte daher alternative Informationsverarbeitungs-Technologien hinsichtlich ihres Lösungsbeitrags für die jeweils anstehenden Probleme vergleichen.

Dabei wird sich zeigen, daß viele der oben thematisierten Schwierigkeiten sowohl für die konventionelle automatische als auch für die menschliche Informationsverarbeitung gelten.

Dies sei nur anhand zweier Beispiele verdeutlicht. Erstens leiden auch konventionelle Softwarepakete an ihrer mangelnden Erklärungsfähigkeit. Im relativen Leistungsvergleich schneiden Expertensysteme hier sogar besonders gut ab, sofern nicht nur die implementierten, sondern auch die konzipierten Exemplare berücksichtigt werden.

Zweitens gilt die Semi-Entscheidbarkeit für alle Informationsverarbeitungsprozesse, sobald sie die Ausdrucksmächtigkeit von Prädikatenlogik und Arithmetik erreichen. Die daraus abgeleitete mangelhafte Realzeitzuverlässigkeit trifft insbesondere auch auf Menschen zu, falls sie versuchen sollten, korrekte Problemlösungen durch logische Schlußfolgerungen herzuleiten. Aus den oben vorgetragenen kritischen Faktoren zum Beispiel eine angebliche Überlegenheit des Menschen über Expertensysteme zu deduzieren, wäre daher schlicht ein Fehlschluß.

Mit einem solchen relativen Leistungsvergleich haben sich die vorgelegten Thesen überhaupt nicht befaßt. Einen vielversprechenden Ansatz in dieser Richtung hat dagegen in jüngster Zeit eine Arbeitsgruppe um Mertens vorgelegt [20]. Dort wird in umfangreicheren Studien verglichen, welche Beiträge verschiedene Informationsrepräsentations- und Verarbeitungstechnologien für die Bewältigung jeweils gleicher Realprobleme zu leisten vermögen.

Es ist aufschlußreich, wie wenig von der sonst oftmals behaupteten Überlegenheit der Expertensysteme in diesen Studien übrigbleibt. Damit wird nicht behauptet, daß diese Untersuchungen repräsentativ für das grundsätzliche Leistungspotential der KI-Technologie seien. Vielmehr beschränken sie sich auf einfache Expertensystem-Prototypen. Dadurch spiegeln sie aber das Entwicklungsniveau gerade jener Expertensysteme wider, die derzeit - mitunter euphorisch - für betriebswirtschaftliche Anwendungen angeboten werden. Darüber hinaus zielt ihr methodischer Ansatz des relativen Leistungsvergleichs genau in jene Richtung, die für die Bearbeitung betrieblicher Probleme am fruchtbarsten erscheint.

Schließlich enthalten die Studien beachtenswerte Ansätze, um die oben kritisierten Mängel bei der betriebswirtschaftlichen Validierung und Evaluierung von Expertensystemen zu überwinden.