Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

05.01.1990 - 

Expertensysteme gehören in Expertenhand

Chancen und Risiken der Künstlichen Intelligenz

Manfred Daniel ist geschäftsführender Gesellschafter der ibek, Ingenieur- und Beratungsgesellschaft für Organisation und Technik mbH, in Karlsruhe. Er arbeitet als Unternehmensberater und in Forschungsprojekten zur humanen Gestaltung neuer Informations- und Kommunikationstechniken.

Die sozialen Auswirkungen der Expertensysteme wurden in einem zweijährigen Projekt zur Technikfolgenabschätzung unter die Lupe genommen. Was Entwickler und Anwender von KI-Systemen beachten sollten, beschreibt Manfred Daniel*.

Im Sommer fand in Hamburg die erste große Konferenz über Chancen und Risiken der Künstlichen Intelligenz (Kl) statt. Die Süddeutsche Zeitung berichtet: "Die Diskussion darüber, was KI ist und was nicht, zeigte genauso wie einige der eingeladenen Sprecher, die völlig am Thema vorbeiredeten, wie schwierig es auf diesem schillernden Gebieten ist, Chancen und Risiken einzugrenzen." Tatsächlich verlief die Diskussion im Plenum so akademisch daß ein Vertreter der Industriepraxis sich genötigt sah, lautstark zu fordern, die KI-Forscher sollten sich endlich um die lnteressen der Anwender kümmern .

Wenn über Chancen und Risiken neuer Techniken diskutiert wird, wird meist vergessen daß es hier um Bewertungen geht, die sehr von der jeweiligen Interessenlage abhängen. Des einen Chance kann des anderen Risiko sein. Leider wird dieser Bewertungshintergrund selten offengelegt - - wohl weil die eine Position wie selbstverständlich erscheint und nicht hinterfragt wird.

Innovationsempfehlungen in Zehn-Punkte-Katalog

Eine bisher vernachlässigte Perspektive nimmt eine kürzlich veröffentlichte Studie zur Sozialverträglichkeit von Expertensystemen ein. In einem zweijährigen Projekt zur Technikfolgenabschätzung (TA: Technology Assessment) der Expertensystemtechnik wurden die möglichen sozialen Folgen aus Benutzersicht, aber auch unter den Kriterien der langfristigen unternehmerischen Wettbewerbsfähigkeit untersucht. Die Ergebnisse des Projektes werden hier in einem Zehn-Punkte-Katalog als Innovationsempfehlungen zusammengefaßt.

Das interdisziplinäre Projektteam hatte sich zum Ziel gesetzt, die Entwicklung der Expertensystemanwendung in den Wirtschaftssektoren Produktion und Dienstleistungen und davon abhängig die sozialen Folgen abzuschätzen und zu bewerten. Schließlich sollten Handlungsoptionen für die Träger der technischen Innovation, aber auch für Gewerkschaften und Politik formuliert werden.

Es liegt auf der Hand, welche methodischen Probleme bei einer solchen Technikfolgenabschätzung entstehen: Wie sollen die Zukunft und zudem noch die sozialen Folgen einer Technik vorausgesagt werden, wenn diese Technik erst in den Kinderschuhen steckt und kaum Anwendungserfahrungen aus einem dauerhaften praktischen Einsatz bestehen? Dies entpuppt sich jedoch als Scheinproblem, wenn man von der reaktiven zur aktiven Technikfolgenabschätzung übergeht.

Reaktive Technikfolgenabschätzung faßt technische Entwicklung als eigendynamischen Sachzwang auf und kann allenfalls zu technisch dominierten Empfehlungen kommen. Der aktive Ansatz macht den Schritt von der passiven Abschätzung zur präventiven Gestaltung der technischen Entwicklung. Er geht davon aus, daß Wahlmöglichkeiten bei der Ausgestaltung der Technik und ihrer Anwendungen bestehen und zeigt diese Entscheidungsalternativen auf.

So beteiligte sich die Studie auch nicht an den Zahlenspielen der KI-Marktstudien, die in der Vergangenheit immer wieder nach unten korrigiert werden mußten. Vielmehr wurde für die Zukunftsbetrachtungen die Szenario-Methode eingsetzt, die sich zunehmend auch beim strategischen Management bewährt. Das Team entwickelte mit dieser Methode zwei alternative Zukunftsszenarien, die mit unterschiedlichen idealtypischen Innovationsstrategien, identifiziert wurden: humanzentrierte versus technikzentrierte Innovation.

Grundlage dafür war, neben einer Literaturanalyse, eine Interviewserie, die in Europa, USA und Japan mit Kl-Forschern, -Entwicklern, -Anwendern und Technikfolgenforschern durchgeführt wurde. Ergänzend wurden Workshop mit Teilnehmern aus diesen Zielgruppen veranstaltet.

Technikzentrierte Innovation folgt dem Motto "Der Mensch ist Stör- und Kostenfaktor und sollte so weit wie möglich durch Technik ersetzt werden". Dem gegenüber setzt die humanzentrierte Strategie gerade auf die spezifischen menschlichen Fähigkeiten und versucht, dies durch technische Mittel optimal zu unterstützen. Der Vergleich der beiden Zukunftsszenarien zeigt, daß der humanzentrierte Pfad der risikoärmere und chancenreichere Weg in die Zukunft ist - sowohl aus Sicht der Betroffenen als auch vom Standpunkt eines modernen, langfristig denkenden Managements.

Gemessen an Kriterien wie Sicherheit, Flexibilität, Steuerbarkeit, Innovationskraft und Zukunftsoffenheit der Unternehmen ist es fatal, auf die gerade hierfür unabdingbaren Ressourcen der Menschen in den Unternehmen leichtfertig zu verzichten, nur weil die

Promotoren neuer Techniken vordergründig kurzfristige Lösungen versprechen. "Die Aufmerksamkeit für die Möglichkeiten, die mit technischen Systemen eliminiert werden, müssen zusammenspielen mit den Hoffnungen auf Möglichkeiten, die neu geschaffen werden.''

In diesem Sinne sind die folgenden zehn Innovationsregeln, für den Einsatz von Expertensystemen entwickelt worden. In einem intelligenten Innovationsansatz sind sie notwendige Ergänzung der gängigen Anwendungschecklisten für Expertensysteme.

Auch wenn die euphorische Einschätzung der Expertensystemtechnik inzwischen einer eher realistischen Sichtweise Platz macht, ist "Künstliche Intelligenz" immer noch ein Signalwort, das eine Analogie von Mensch und Computer suggerieren möchte.

Die Gefahr liegt darin, daß Illusionen über die Möglichkeiten von Expertensystemen geweckt werden, die zu inadäquaten Anwendungen und damit gewaltigen Fehlinvestitionen führen können. Es ist wichtig, sich klar vor Augen zu halten, daß Mensch und Computer als Ganzheit nicht zu vergleichen sind. Ein Expertensystem ist prinzipiell nicht so in eine Arbeitssituation eingebunden wie der Mensch und kann daher auch nicht so flexibel und kreativ reagieren wie das in besonderen Situationen tagtäglich vom Menschen erwartet wird.

Die Expertensystemtechnik ist zwar durch neue Programmiermethoden gekennzeichnet, doch kann sie die Grenzen maschineller Systeme nicht überschreiten. Heute und in Zukunft werden Expertensysteme wohl kaum:

- ihre eigene Kompetenz einschätzen, das heißt wissen, wann ihr Wissen nicht mehr ganz problemangemessen ist und Hilfe anzufordern wäre;

- neue Probleme, die von bisher unbekannter Art sind, als solche zu erkennen und zu lösen;

- Probleme lösen, für die ein allgemeines Welt- und Alltagswissen benötigt wird, das über

das Spezialwissen eines Fachgebietes hinausgeht;

- ein Problem intuitiv als Ganzes vor einem Hintergrund begreifen; das heißt wegen der prinzipiell analytischen Arbeitsweise können Expertensysteme nicht diese Intuition entwickeln;

- wirklich kreativ sein;

- sich empathisch in einen Menschen hineinversetzen, wie das zum Beispiel in Beratungssituationen nötig ist;

- fehlerfrei sein, weil die Probleme der Korrektheitsbeweise und Testmethodik noch größer als bei konventionellen Softwaresystemen sind

Wo all das in größerem Ausmaß gefordert ist, stellen Expertensysteme eher eine Gefahr dar, als daß sie nützen.

Keine Anwendungen in Risikobereichen

Gerade weil die Expertensysteme prinzipiell nicht fehlerfrei sein können, ist ihre Anwendung in Bereichen wo durch Fehlentscheidungen Gesundheit und Leben von Menschen auf dem Spiel stehen, besonders risikoreich. Solche Risikoanwendungen sind zum Beispiel die Steuerung von bestimmten chemischen Anlagen, Atomkraftwerken und militärischen Frühwarnsystemen.

Hier sollte der Einsatz unterbleiben oder es muß genügend Zeit zur Überprüfung der Ergebnisse des Expertensystems durch den Menschen bleiben.

Besonders kritisch sind die eingebetteten, autonomen Expertensysteme. Sie sind Teil größerer automatischer Systeme (zum Beispiel Steueranlagen) und können Aktionen ohne menschliche Kontrolle veranlassen. Es ist doch wohl ein paradoxer und fataler Ansatz., technische Komplexität und deren Risiken durch noch mehr Komplexität und wiederum fehlerbehaftete Systeme in den Griff bekommen zu wollen.

Inzwischen ist allgemein anerkannt, daß Expertensysteme menschliche Fachleute nicht ersetzen können. Dennoch findet man bei den meisten Anwendungen eine Arbeitstellung zwischen Mensch und System, die die eigentliche Problemlösung dem Rechner überträgt und den Menschen zum Datensammler und -filter degradiert. Auf die Nutzung spezifisch menschlicher Fähigkeiten wie Flexibilität und Kreativität wird verzichtet, mit der Gefahr, daß diese auf Dauer sogar verkümmern.

Expertensysteme mögen zwar flexibler als herkömmliche Anwendungssysteme sein, weil sie nicht relativ feste Arbeitsabläufe modellieren, sondern für ganze Problemklassen sind. Doch sind die angeblich "intelligenten" Systeme immer noch starre Maschinen, die das System Unternehmen insgesamt nicht flexibler machen.

Wie die Mensch-Maschine-Arbeitsteilung sinnvoll zu gestalten ist, ist die zentrale Frage für eine erfolgreiche Expertensystemanwendung. Ihr geht das Verfahren der kontrastiven Aufgabenanalyse nach, bei der untersucht wird, welche Teilaufgaben besser beim Benutzer verbleiben und welche sinnvollerweise dem System überlassen werden .

Die Verantwortung trägt der Mensch

Eine Alternative zu den benutzerdominierenden Systemen sind etwa für Diagnose- und Beratungsaufgaben sogenannte kritisierende Systeme. Hier liegt die volle Problemlösungsaktivität beim Menschen und er zieht nur bei Bedarf als zusätzliche Meinung das Expertensystem zu Rate.

Wer ist für die Folgen falscher Expertensystementscheidungen verantwortlich? Auf diese Frage stößt man oft in Diskussionen und es wird weiter gefragt, ob nicht dem System selbst Verantwortung zugeschrieben werden müßte. Das paßt zwar in das falsche Bild der Mensch-Computer-Analyse, doch würde eine solche Verantwortungszuschreibung ein weiterer Schritt zur Verschleierung von Verantwortlichkeiten sein.

Der Hersteller kann bestimmte Verantwortungen für diese Systeme übernehmen; er kann jedoch nicht für die Systementscheidungen in jedem Anwendungskontext, der weiter als der dem System bekannte ist, geradestehen. Diesen Kontext kennt am besten der Endbenutzer. Deshalb muß das Anwenderunternehmen die Bedingungen herstellen, die dem Systembenutzer erlauben, Verantwortung für Entscheidungen zu übernehmen, die ein Expertensystem geliefert oder unterstützt hat.

Zu diesen Bedingungen gehört, daß der Benutzer sowohl die ausreichende Fachqualifikation als auch das nötige Systemverständnis hat und die Ergebnisse des Expertensystems zumindest auf Plausibilität überprüfen kann. Unter Umständen muß er die einzelnen Ableitungsschritte (vorausgesetzt die Erklärungskomponente ermöglicht dies) nachvollziehen. Darüber hinaus müssen noch organisatorische Voraussetzungen erfüllt sein: der Systemnutzer muß die Zeit für die Kontrolle des Systems haben und über die Entscheidungskompetenz verfügen, auch anders als das System vorschlägt, zu entscheiden.

Von der Verantwortung befreite Mitarbeiter, die nur noch Systementscheidungen weitergeben oder selbst ausführen, werden zwangsläufig das Interesse und Engagement an ihrer Arbeit verlieren.

Eine eigenverantwortliche Nutzung von Expertensystemen kann letztlich nur von Experten selbst erwartet werden. Sie sollten von ihrem fachlichen Hintergrund aus das von der Wissensbasis abgedeckte Fachgebiet zumindest grob beurteilen und in einem größeren Zusammenhang stellen können. Dies dürfte möglich sein, wenn sich das Expertensystem auf Nachbargebiete, Spezialgebiete oder sich schnell verändernde Teilgebiete der Expertendomäne bezieht. Das System hat hier den Charakter eines besonders komfortablen Handbuches.

Expertensysteme gehören in die Hände von Experten

Sinnvoll kann auch die methodische Unterstützung auf dem eigentlichen Fachgebiet des Experten selbst sein; dann, wenn die Aufgabe eine Vielzahl kombinatorischer oder analytischer Ableitungsschritte erfordert, die vom Kurzzeitgedächtnis nur sehr schwer bewältigt werden können.

Als Werkzeuge in Expertenhand bewähren sich Expertensysteme zum Beispiel bei technischen Konfigurationsproblemen, hochkomplexen Diagnoseaufgaben oder Simulationen von Systemen.

Gefährlich scheint es dagegen, Laien wissensbasierte Systeme auf für sie unbekannten oder nicht überschaubaren Gebieten an die Hand zu geben.

Die Versuchung liegt nahe, durch solche Pseudo-Qualifikationen Personal- und Qualifizierungskosten zu sparen. Unter langfristigen Überlegungen kann von diesem Weg nur abgeraten werden. Die Verteilung von Expertensystemen an Laien, um sie für höher qualifizierte Aufgaben auszurüsten, ist sicher gegenüber einer arbeitspädagogisch fundierten Qualifizierung der Mitarbeiter die schlechtere Lösung. Zumindest sollte das wissensbasierte Arbeiten durch eine personelle Hintergrundqualifizierung abgesichert werden.

Interessante Aufgaben für Systembenutzer

Die Nutzung von Expertensystemen erfordert, wie alle technischen Innovationen, neue arbeitsorganisatorische Strukturen. Arbeitsaufgaben, Arbeitsstellungen, Kommunikationsstrukturen ändern sich und es eröffnen sich Chancen, für die Mitarbeiter attraktivere Arbeitsplätze zu schaffen.

Entlastung von Routinefällen, um dem Experten mehr Zeit für die eigentlichen Problemfälle oder kreative Tätigkeiten zu geben, ist ein oft genanntes Ziel. Hier ist zu beachten, daß das neue Arbeitspensum von den Betroffenen als belastungsoptimal empfunden wird. Für das Gesamtleistungsergebnis einer Person kann der Erholungseffekt, der in Routinetätigkeiten liegt, durchaus von Nutzen sein. Prinzipiell sollten Mitarbeiter, die mit Expertensystemen arbeiten, eher weitere Freiräume und ausreichende Kommunikationsmöglichkeiten mit Kollegen eingeräumt werden. Es wäre falsch, Kollegengespräche auf den Dialog mit dem "Partner" Computer reduzieren zu wollen.

Expertensysteme sind die Chance par excellence, den einzelnen Mitarbeitern eine entwicklungs- und abwechslungsreiche Aufgabenpalette (job enlargement) zu bieten. Ehemals getrennte Tätigkeiten können wieder bei einer Person zusammengeführt werden. Doch gilt auch hier, daß sich die Kompetenz für die mit Hilfe eines Expertensystems neu zu übernehmende Aufgabe nur durch entsprechende personelle Weiterbildungsmaßnahmen entwickeln kann.

Problematischer ist sicher eine Anreicherung bisheriger Aufgaben über Expertensysteme (job enrichment). Anspruchsvollere Planungs- und Entscheidungskompetenzen können wohl kaum ohne Personalentwicklungsmaßnahmen einfach mit einem Expertensystem an bisher nachgeordnete Arbeitsplätze gebracht werden.

Beteiligung bei der Arbeitsgestaltung

Neben der gesetzlich verankerten Beteiligung des Betriebsrates sollten den betroffenen Mitarbeitern prinzipiell mehr Rechte bei betrieblichen Innovationen eingeräumt werden. Bei der Entwicklung von Expertensystemen sind die Entwickler, weit mehr als bei herkömmlichen Systementwicklungen auf die Kooperation der Mitarbeiter angewiesen. Bei der Wissensakquisition wird in viel stärkerem Maße auf das Arbeitswissen der Mitarbeiter selbst zugegriffen als bei einer konventionellen Systemanalyse.

Auch weil Expertensystementwicklungen immer noch Experimente sind und sich ihr

Nutzen in jedem Einzelfall erst noch erweisen muß, kann auf direkte Anwendungserfahrung

der Endbenutzer und deren Anregungen nicht verzichtet werden. Bietet sich doch durch das

Entwickeln mit Prototypen, die bisher nur selten zu findende Möglichkeit einer frühzeitigen,

praxisbezogenen BenutzerbeteiIigung.

Eine interessante Variante des Wissenserwerbs ist die Erstellung der Wissensbasis in einem Team von Experten. Nicht ein einzelner Spezialist ist "Objekt" eines Wissensingenieurs, sondern der Austausch und die Formulierung von Wissen in neuen formalen Strukturen läuft kooperativ im Team von mehreren Fachleuten, etwa in Form eines Qualitätszirkels.

In unseren Interviews wurde immer wieder betont, wie wichtig die Transparenz der Systeme und die realistische Einschätzung ihrer Möglichkeiten und Grenzen durch den Benutzer für eine adäquate Anwendung ist. Deshalb sollte die Qualifizierung für die Systemnutzung nicht nur eine möglichst schnelle Bedienungsanweisung sein.

Gerade bei den gerne mystifizierten "intelligenten" Systemen kommt es auf eine kritische Hintergrundqualifikation an, die hilft, Systemergebnisse richtig zu beurteilen. Dazu gehört auch, die Arbeitsteilung zwischen Mensch und Maschine zu thematisieren und die unterschiedlichen Stärken bewußt zu machen.

Manchmal geben Anwender sogar in der Öffentlichkeit zu daß ihr Expertensystemversuch nicht den gewünschten Erfolg brachte. Vielfach wird dann nachgeschoben: "Als Problemlöser ist das System zwar weniger geeignet, aber zur Qualifizierung des Personals kann es schon beitragen." Immerhin hatte das Expertensystem doch eine Erklärungskomponente, von der die Systembenutzer lernen konnten.

Leider gibt es zu den Qualifizierungseffekten von Expertensystemen noch keine empirischen Untersuchungen, doch muß stark bezweifelt werden, daß der obige pragmatische Ansatz die richtige Anwort auf den zunehmenden Qualifizierungsdruck in vielen Bereichen darstellt. Zum einen sind gegenwärtig die Erklärungskomponenten selten für Ausbildungszwecke geeignet, weil sie nicht auf kausales Tiefenwissen zurückgreifen können und ihre Erläuterungen sehr formal, das heißt wenig benutzergerecht sind. Zum anderen ist Vorsicht angebracht, Qualifizierungseffekte sozusagen als Abfallprodukt zu erwarten, so lange nicht ein fundiertes arbeitspädagogisches Konzept den Rahmen bildet.

Tutoriellen Expertensystemen, also speziell zu Ausbildungszwecken konzipierten

Dialogsystemen, wird eine große Zukunft vorausgesagt. Auf die sogenannten intelligenten Tutorensysteme (ITS), die den Wissensfortschritt der Lernenden dauernd kontrollieren und wie ein menschlicher Tutor reagieren sollen, ist wohl noch lange zu warten - unabhängig von der Frage, ob sie überhaupt wünschenswert sind.

Erfolgversprechender ist der Ansatz, kritisierende Expertensysteme als Trainingsinstrument für Problemlösungstätigkeiten im Rahmen von innenbetrieblichen Weiterbildungsangeboten zu nutzen. Zu beachten bleibt dabei, daß das spielende Problemlösen am Rechner das Erfahrungslernen in der Arbeit nicht ersetzen kann. Durch üben am Expertensystem bleibt man auf der Stufe der mehr oder weniger sturen. Anwendung von Regeln. Expertensysteme sind kein Weg, die Zeit, die eine gute Ausbildung braucht, abzukürzen.

Einer der Mythen von Expertensystemen besteht darin, daß sie als Dialogsysteme besonders benutzerfreundlich seien. Das mag stimmen, wenn man sie mit dem Gros der verbreiteten interaktiven Systeme vergleicht.

Hier liegen sie in ihrer softwareergonomischen Qualität sicher über dem Durchschnitt. Analysiert man die Eigenschaften der Dialogschnittstelle von Expertensystemen jedoch etwas detaillierter, dann stellt man fest, daß sich das Prädikat Benutzerfreundlichkeit zunächst lediglich auf die Ein-/Ausgabeschnittstelle, also die Gestaltung von Bildschirmen und Eingabemedien bezieht.

Legt man weitergehende Kriterien an, die über die leichte Bedienbarkeit hinaus auf die optimale Benutzbarkeit gerichtet sind, dann zeigen sich bei den meisten Expertensystemen doch große Defizite. Die DIN Gestaltungsprinzipien für Dialogsysteme sind bei den bisherigen Systemen kaum umgesetzt. So läßt die Selbstbeschreibungsfähigkeit und Steuerbarkeit der Systeme meist zu wünschen übrig. Viele Systeme erweisen sich als aufgabenunangemessen, weil die Problemlösungsdialoge viel zu lang und umständlich für die Benutzer sind.

Gerade weil Expertensysteme auf neue sensible Benutzerkreise treffen, sollten umfassende softwareergonomische Kriterien nicht weiter stiefmütterlich behandelt werden.

So wie ein erweitertes Verständnis der Software-Ergonomie beruhen auch die zehn Innovationsregeln insgesamt auf der Einsicht, daß technische Innovation immer auch eine soziale Innovation mit einschließt. Erfreulich ist, daß dieser Realismus Verbreitung findet. +