Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.09.1992 - 

Oberflächliche Intelligenz oder Intelligenz auf der Oberfläche?

Dialogverhalten muß auf das Vorwissen abgestimmt sein

Nina Degele ist freie DV-Fachjournalistin in München.

Welchen Grad an Nutzerfreundlichkeit bieten heutige Computerprogramme, in welche Richtung zielen aktuelle Modellierungsbemühungen aus dem Umfeld der künstlichen Intelligenz (Kl)? Nina Degele* führt anhand einiger Beispiele vor, welche grundlegenden Probleme auf dem Weg zu einem natürlichsprachlichen Mensch-Maschine-Dialog zu bewältigen sind und wo die Grenzen Modellierung liegen.

"Hotel Alsterblick, Guten Abend!" "Guten Abend, hier spricht Briegel aus Bonn." "Was kann ich für Sie tun, Herr Briegel?" Ich möchte ein Doppelzimmer für drei Nächte mit Bad." "Gewiß, ich will mal sehen... Ein Doppelzimmer mit Bad bis zum 15. November hätten Sie gern?" "Ja bitte." "Ja, da ist noch was frei. Haben Sie noch irgendeinen besonderen Wunsch?" "Gibt,es ein Radio oder ein Fernsehgerät im Zimmer?" "Es steht kein Fernsehgerät zur Verfügung, aber das Zimmer hat ein Radio." "Ein Telefon?" "Ja. Darf ich das Zimmer für Sie buchen, Herr Briegel?" "Ja, gerne." "Ich habe also ein Doppelzimmer für Herrn Briegel vom 12. bis 15. November gebucht. Vielen Dank und auf Wiedersehen."

Der natürlichsprachliche Zugang Xtra

Die freundliche Stimme am Telefon gehört keinem freundlichen Herrn an der Rezeption eines Hotels, sondern dem Dialogsystem HAM-ANS. Bereits in den frühen Achtziger Jahren startete eine ambitionierte Forschergruppe das Projekt "Hamburg Application-oriented Natural Language System" mit dem Ziel, eine portierbare, natürlichsprachliche Benutzeroberfläche zu entwickeln, um vor allem sporadischen und unerfahrenen Nutzern den Zugang zu so unterschiedlichen Computerprogrammen wie Datenbanken, Textverarbeitung oder Auskunftssystemen zu erleichtern.

In Saarbrücken wurde im Rahmen des vom BMFT von 1985 bis 1989 geförderten Projekts "Wisber" (Wissensbasierter Beratungsdialog zur Verarbeitung und zum Verstehen natürlicher Sprache) der natürlichsprachliche Zugang Xtra für Expertensysterne entwickelt (vergleiche Allgayer 1989; Xtra ist nicht zu verwechseln mit dem Xtra-Projekt von X/Open): Xtra soll den Nutzer beim Ausfüllen des Antrags auf Lohnsteuerjahresausgleich unterstützen, indem der auf dem Bildschirm präsentierte Antrag quasi gemeinsam durchgearbeitet wird. Um auch mit verschachtelten

Ebenen umgehen zu können und Fehlannahmen der Nutzer zu korrigieren, wurde in Xtra ein Modell des Wissens über das Nutzerwissen implementiert.

Ein Nutzermodell ist dann erforderlich, wenn das System auch Fragen beantworten soll, bei denen es auf Wissen zurückgreifen muß, das nicht unmittelbar aus der Frage hervorgeht. Dabei, wird im Fall von Xtra erstens aus den Äußerungen des Nutzers auf dessen Expertise geschlossen, zweitens wird der Dialog analysiert, und drittens unterstellt das System einmal Erklärtes als bekannt. Beispiel: Fragt der Nutzer danach, ob er die Kosten für seinen PC als Geschäftsausgaben absetzen kann, zieht Xtra aus dieser Frage folgende Schlüsse:

- der Nutzer ist mit dem Terminus "Geschäftsausgaben" vertraut,

- er will wissen, ob ein PC absetzbar ist,

- er glaubt, daß Xtra weiß, ob PCs absetzbar sind.

Xtra in der universitären Grundlagenforschung

Xtra wurde wie HAM-ANS lediglich in der universitären Grundlagenforschung eingesetzt und nicht über das Stadium des Prototypen hinaus entwickelt. Unbeeinflußt davon befindet sich die Forschung zu Nutzermodellen oder UM für User models in einem konjunkturellen Hoch: Einzelveröffentlichungen, Sammelbände (Kobsa 1989), Fachkongresse (Internationa Workshop on

User Modeling in Honolulu 1990), Überblicksartikel ("The Knowledge Engineering Review" 1991, "Computational Linguistics" 1988) und schließlich eine seit 1991 erscheinende eigene internationale Fachzeitschrift ("User Modeling and User-adapted Interaction") spiegeln eine bereits fortgeschrittene Institütionalisierung dieses noch jungen Abkömmlings der KI wider.

Einschätzungen der Nutzermodellierer zufolge ist der State of the Art inzwischen dem Stadium der Grundlagenforschung entwachsen: Im Brennpunkt des Interesses stehen bereits Aspekte der Verifikation und Validierung. Dazu zählen beispielsweise Bemühungen, Hypertext-Dokumente an den Wissensstand des jeweiligen Nutzers anzupassen oder auch Kopierer mit na-, türlichsprachlichen Schnittstellen zu versehen.

Akzeptanz und verbesserte Ökonomie der Interaktion

Im Vordergrund aller Ansätze - ob sie sich auf den Einsatz von Computern oder anderer technischer Gegenstände beziehen - stehen Nutzerfreundlichkeit und Akzeptanz durch eine erleichterte Systemnutzung sowie eine verbesserte Ökonomie der Interaktion durch das Zuschneiden des Dialogs auf den passenden Wissens- beziehungsweise Expertiselevel des Nutzers. Dabei können vier Forschungsschwerpunkte unterschieden werden (vergleiche Kok 1991):

1.In intelligente Tutor- und Hilfssysteme, zum Beispiel Proust, SC-UM, Comfohelp, gehen drei Modelltypen ein: ein Wissensmodell der Sache, eines des Lernenden und ein Modell des Kömmunikationsprozesses über die Lernstrategien. Nutzermodelle decken dabei das Wissen des Lernenden ab. Dazu gehören auch dessen Fähigkeiten, Wissen im Problemlösungsprozeß anzuwenden.

2. Dialogsysteme, etwa HAM-ANS, Xtra, Romper, kombinieren natürlichsprachliche Systemzugänge mit problemlösenden Komponenten wie Expertenoder Auskunftssystemen.

3. Zum intelligenten Auffinden von Informationen muß der Nutzer bei der Informationssuche relativ wenig Vorwissen mitbringen, besipielsweise bei Grundy, IR-NLI II, Impact, und F&A.

4. Modelliersysteme, zum Beispiel Gums, BGP-MS, werden ähnlich wie Expertensystem-Shells anwendungsneutral entwickelt und lassen sich deshalb domänen- und nutzerübergreifend einsetzen. Die Nutzermodellierung ist dabei kein Teil des Systems, sondern die Hauptaufgabe.

Der Clou der Nutzermodellierung liegt angeblich in der Natürlichsprachlichkeit der Kommunikation. Wie löst sie dieses Versprechen ein? Der Beginn der Entwicklung kann auf das Ende der siebziger Jahre datiert werden, genauer: auf das von Elaine Rich entwickelte Grundy (1979). Um Besuchern einer Bibliothek, die sich über das Wochenende ein Buch ausleihen wollten, gezielte Vorschläge zu unterbreiten, sollte Grundy aus einigen wenigen Nutzerinformationen ein Modell des Dialogpartners erstellen.

Nutzermodell für heterogene Gruppen sinnvoll

Ein Nutzermodell erschien sinnvoll, weil die Nutzergruppe heterogen ist und das System flexibel operieren soll. Auf eine abgefragte Nutzerinformation wie Geschlecht, Alter oder Beruf reagiert Grundy mit einem Stereotyp, also mit zu einem Modell verdichteten, standardisierten Persönlichkeitsmerkmalen.

Arbeitet man mit Standardwerten über den Benutzer, kommt man allerdings schnell in das Dilemma, die Stereotypen so zu gestalten, daß sie entweder gut handhabbar, aber zu grob sind ("Männer sind technisch interessiert und lesen deshalb lieber Bücher über schnelle Autos als über Kosmetik") oder differenzierter und aussagekräftiger, dann aber nicht mehr paxisnah eingesetzt werden können. Sollen sich Stereotype ferner durch Erfahrung ändern lassen (regelmäßige Bibliotheksbesucher möchten nicht jedes Mal das gleiche Buch empfohlen bekommen), gestaltet sich der Komprorniß zwischen zu starker Sensitivität (Reaktion auf jeden Querschläger) und Starrheit als außerordentlich schwierig.

Die Grenzen des Stereotypenansatzes treten in der Praxis recht schnell zutage (Chin 1989): Mit dem Knowledge Model of Expertise (Knome), einem natürlichsprachlichen Zugang zu dem Betriebssystem Unix, wurde folgende Zielsetzung verbunden: Dem Nutzer sollte nicht auseinandergesetzt werden, was er schon weiß, Erklärungen sollten seinem Verständnisniveau angepaßt sein, und sein Hintergrundwissen sollte für die Interpretation seiner Eingaben genutzt werden. Als Strategie wählten die Entwickler erstmalig Doppelstereotype: Dabei wird zum einen die Expertise des Nutzers bewertet (Novize, Anfänger, Mittlerer, Experte) und zum anderen der Schwie. rigkeitsgrad des Wissens aufgefächert (einfach, kompliziert, komplex und esoterisch, was sich nach dem Zeitpunkt der Lernkurve richtet). Schließlich verbindet das System beidesin

einer Matrix.

Als mangelhaft erwies sich der Ansatz aus mehreren Gründen. Eine einmal eingeschlagene Erklärungsstrategie kann erstens nicht mehr geändert werden: Welchen profit der Nutzer aus Informationen gezogen hat, interessiert Knome nicht. Zweitens hat der Stereotypenansatz kaum Regeln implementiert, um mit benachbartem Nutzerwissen umgehen zu können (von Wissen über x auf Wissen über y schließen), was das Programm sehr starr macht. Drittens ist auch kein Lernen vorgesehen; denn der Nutzer wird auf einen Expertisestand festgelegt. Schließlich erlaubt Knome keinen Wissenstransfer: Weiß der Nutzer viel über ein ähnliches System, aber nichts über Unix, wird er trotzdem als Anfänger eingestuft.

Die Forderung nach sowohl flexiblen wie auch spezifischen Modellen entpuppt sich als zweischneidig, weil größere Genauigkeit mit zusätzlichen konzeptionellen Schwierigkeiten bezahlt werden muß. Grobe Stereotypen sind wenig aussagekräftig, zum Beispiel "Männer sind technisch begabt". Werden sie dagegen realistischer bestimmt, müssen auch Inferenzregeln und Gewichtungsfaktoren spezifisch angepaßt werden, was vor allem Probleme der Vernetztheit von Wissen aufwirft.

Weiter unklar ist der Umgang mit unsystematischen Nutzerfehlern, verschieden konzeptualisierten Domänen und inkonsistenten Nutzerinformationen, was in das Lernproblem mündet (unterschiedliche Inferenzregeln für unterschiedliche Zeitperioden). Die Anpassungsfähigkeit der Stereotypen stößt auch schnell an Grenzen, wenn es darum geht, daß Nutzer in verschiedenen Bereichen unterschiedlich versiert sind, was wiederum unterschiedliche Inferenzregeln für verschiedene Teile der Wissensbasis erfordert.

Neben den ungelösten technischen Fragen dürfte bei einer fortschreitenden Kommerzialisierung der Aspekt der faktisch erzielten Nutzerfreundlichkeit beziehungsweise Akzeptanz eine wichtige Rolle spielen: Können wir mit einem Computer natürlichsprachlich kommunizieren, schreiben wir ihm menschliche Verständnisfähigkeit zu. Ein solcher Kommunikationsstil weckt somit Erwartungen, die das Programm gar nicht erfüllen kann.

Einer solchen Illusion der Überschätzung kommunikativer Fähigkeiten eines Computers, leisten Nutzermodelle Vorschub. Weil der gegenwärtige Forschungsstand nur einen begrenzten Grad an Natürlich, sprachlichkeit zuläßt, könnte sich dies nun als problematischer erweisen als ein explizit formaler Zugang zu Computersystemen. Wie macht sich das bemerkbar?

Wohl einziges Beispiel: Datenbanksystem F&A

Das zur Zeit wohl einzige Beispiel einer kommerziell eingesetzten, natürlichsprachlich operierenden Oberfläche liefert das Datenbanksystem F&A (Krause 1988). Ein "intelligenter" Assistent übersetzt dabei die natürlichsprachlichen Nutzereingaben in eine formale Anfragesprache. Dazu verfügt er über ein erweiterbares Vokabular von 400 Wörtern. Erst im nächsten Schritt arbeitet das eigentliche Datenbankverwaltungssystem die formale Abfrage ab. Das "Verstehen" natürlicher Sprache beschränkt sich dabei freilich auf den Abgleich von Listen. So würde die Anfrage "Welche Artikel sind in der CW 1992 zum Thema Nutzermodelle erschienen?" auf drei. Rubriken bezogen: "CW" wird der Autorenliste, "1992" der Liste zu Erscheinungsdaten und "Nutzermodelle" dem Stichwortverzeichnis zugeordnet). Aus diesen drei Listen wird eine Schnittmenge gebildet, die die Systemantwort darstellt.

Eine solche für den Nutzer nicht durchschaubare Vermischung von natürlich- mit formalsprachlicher Kommunikation birgt schwerwiegende Probleme: Überschreitet man die Verständnisgrenzen, kann F&A mit schweren Störungen reagieren und völlig versagen, sich aber ebenso völlig unproblematisch beziehungsweise unauffällig verhalten. Das liegt daran, daß der Umfang der Antworten willkürlich festgelegt ist: Der Nutzer muß durch Versuch und Irrtum die richtigen Eingaben finden. Weil er nicht genau weiß, was F&A versteht und was nicht, kann er sich nicht auf das Systemverhalten verlassen.

Alptraum: Nicht vorhersehbares Systemverhalten

Nicht prognostizierbares Systemverhalten ist nun allerdings nicht nur der Alptraum eines jeden Programmierers oder User Supports, sondern schlägt sich auch in Verunsicherung und Ablehnung seitens der Nutzer nieder.

Natürlichsprachliche Zugänge zu Datenbanken sind weniger effizient, weil sie das für den Nutzer so wichtige Verständnis für die Fähigkeiten und Grenzen des Systems erschweren, das durch formale Sprachen unschwer möglich ist. Als Folge davon können die Nutzer mit einem nur begrenzt natürlichsprachlichen Programm erheblich schlechter umgehen.

Nutzermodellierte Zugänge müßten also perfekt sein, um tatsächlich zu funktionieren. Dazu gehören aber das eindeutige Erkennen und Modellieren der Nutzerintention, das Verstehen und Rekonstruieren des Kontexts und die zweckorientierte Aufbereitung des Wissens.

Die zwischenmenschliche Kommunikation liefert kein gutes Modell für eine maschinelle Nachahmung. Sie ist mit Fehlern behaftet, funktioniert aber trotzdem, weil Korrekturmöglichkeiten zur Verfügung stehen, die auf dem Einsatz von

Alltagswissen fußen. Technisch ist eine solche Natürlichkeit nicht mächbar - was gar kein Nachteil ist: Eine ernsthafte Nutzermodellierung müßte neben der menschlichen Dialogfähigkeit auch die damit verbundene Fehlerhaftigkeit auf das System übertragen. Warum aber Programme mit Fehlern versehen, nur weil sie menschlich sind? Das widerspräche der Forderung, Computer dort einzusetzen, wo sie dem Menschen eindeutig überlegen sind: in der schnellen sequentiellen Verarbeitung von Daten.

Ein formaler, prima vista nutzerunfreundlicher Zugang wird sich entgegen den Vorstellungen der Nutzermodellierer als Vorteil erweisen, wenn die Software in ihrer Begrenztheit adäquat begriffen wird. So zeigte eine empirische Untersuchung, daß der Erfolg von Programmen wie Datenbanken nicht an der natürlichsprachlichen Schnittstelle, sondern an der Portabilität und leichten Handhabbarkeit hängt (Trost 1990). Spielt die Berechenbarkeit des Systems eine entscheidendere Rolle, sollte eine gute Software ihre internen Operationen lieber aufdecken, als sie sprachlich zuverkleistern. Akzeptanz ist auch mit begrenzter Natürlichsprachlichkeit erreichbar.

____________________________________________________________________________

Nutzermodelle für Oberflächen

Damit ein Benutzer die Operationsweise eines maschinellen Dialogspartners nachvollzihen kann, sollte letzterer sein Verhalten erklären können. Ein Anwender versteht eine Erklärung, wenn er sie auf das eigene Hintergrundwissen beziehen kann - wozu sich die natürliche Sprache am besten eignet. Eine natürlichsprachliche Benutzeroberfläche muß also ihr Dialogverhalten auf das Vorwissen des Nutzers abstimmen. Sammelt sie selbständig Informationen über den Anwender und reagiert sie mit einer angepaßten Dialogführung, ist von einem Nutzermodell (User model) die Rede. Es enthält alle notwendigen Annahmen über den Nutzer, die für eine flexible Kommunikation erforderlich sind. Dazu gehören nicht nur Informationen über dessen fachliches Wissen und Nutzungskompetenz, sondern auch über persönliche Merkmale wie Alter, Beruf etc.

____________________________________________________________________________

Literatur:

Allgayer, Jürgen/Harbusch, Karin /Kobsa, Alfred /Reddig, Carola /Reithinger,Norbert/Schmauks, Dagmar (1989) Xtra- a natural-language access system to expert systems. In: International journal of man-machine studies 31. S.161-195

Chin, David N. (1989) KNOME: Modelin what the user knows in UC. in: Alfred Kobsa/Wolfgang Wahlster (Hrsg.) User models in dialog systems. Heidelberg. S.74-107

Hoeppner, Wolfgang/Katharina Morik(1983) Das Dialogsystem HAM-ANS: worauf basiert es, wie funktioniert es und wem antwortet es? In: Linguistische Berichte 88. S.3-36

Kobsa, Alfred/Wolfgang Wahlster (1989, Hrsg.) user models in dialog systems. Berlin/Heidelberg, Informatik-Fachberichte

Kok, André J. (1991) A review and synthesis of user modelling in intelligent systems. In: the knowledge engineering review 6. S.21-47

Krause, Jürgen (1988) F&A und Q&A: Informationsabfrage in natürlicher Sprache. Was können die neuen Softwarepakete der Künsdichen Intelligenz leisten? in: Rüdiger Weingarten/Reinhard Fiehler (Hrsg.) Technisierte Kommunikation. Opladen. S.93-108

Rich, Elaine (1979) User modeling via stereotypes. In: Cognitive science 3. S.329-345

Trost, Harald/Ernst Buchberger (1990) Datenbank-DIALOG: how to communicate with your database in German (and enjoy it). In: Interacting with computers 2.S.367-381