Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Künstliche Intelligenz: ein weites Feld mit verschwimmenden Grenzen, Teil 7


21.10.1988 - 

Auf welche Weise nutzt ein Computer gespeichertes Wissen?

Von CW-Mitarbeiter Egon Schmidt

Ist von Computern die Rede, die auf "Wissen" basieren, sind Systeme gemeint, die gestellte Aufgaben selbständig mit "Weltwissen" lösen können. Stellt sich für den Laien die Frage: Wie können Computer dieser Art, zum Beispiel Expertensysteme das gespeicherte Wissen eigentlich benutzen?

Immer, wenn von Prozessen die Rede ist, bei denen formell dargestelltes, im Speicher repräsentiertes Wissen über einen Teilbereich der Welt eingesetzt wird, um damit bestimmte Probleme zu bearbeiten und zu lösen, spricht der Fachmann von "Wissensverarbeitung". Für diese Prozesse aber ist wiederum die jeweils richtige Wahl des fraglichen Teilbereichs der Welt, also des der Maschine bekannten "Weltausschnitts", eine ganz zentrale Voraussetzung, wie IBM-Mitarbeiter Dr. Claus-Rainer Rollinger am Beispiel von Bild 1 darstellt: Denn suggeriert Bild 1a noch, der Affe müßte seine Aufgabe ohne weiteres lösen können, so dokumentiert 1b, daß das Problem überhaupt nicht lösbar ist. Und 1b zeigt weiter, daß das "System" 1a ganz offensichtlich mit einem "falsch gewähltem Weltausschnitt" arbeitet...

Nun könnte man das Problem des zu eng gefaßten Weltausschnitts zwar - zumindest in der Theorie - dadurch überwinden, daß man sicherheitshalber ganz einfach Unmengen von Wissen anhäuft -doch dem steht Rollingers deutliche Warnung entgegen: nicht allein, daß man hier rasch auf Schwierigkeiten stoßen würde, verbietet so ein Vorgehen. Auch sei einfach nur immer mehr Wissen anzuhäufen, nicht die wahre Aufgabe wissensverarbeitender Systeme. Denn wes geht nicht darum, Wissen anzuhäufen, sondern darum, es nutzbar zu machen. Und deshalb seien Systeme zu entwickeln, die das jeweils gerade vorhandene - und für die konkreten Aufgaben hoffentlich auch ausreichende - Wissen abfragen, ergänzen, verändern und insbesondere natürlich auswerten können.

Wer ist ein Mensch?

Wie schwierig dieses Nutzbarmachen von Wissen im konkreten Fall werden kann, illustriert Rollinger am Beispiel eine sehr simplen Weltmodells. Es umfaßt zwei - jeweils nur ein Objekt betreffende - "Fakten-Aussagen" und zwei - mehrere Objekte betreffende - "Regel-Aussagen". Die ersten beiden lauten

* Sokrates ist ein Mensch, und

* Tweety ist ein Vogel,

während die beiden anderen so aussehen:

* Alle Menschen sind sterblich,

* Vögel können fliegen.

Von den beiden letzteren Sätzen, die jeweils "All-Aussagen" über ganz bestimmte Klassen von Objekten darstellen, gilt der erste (soweit überhaupt bekannt) für alle Menschen, während der zweite in den meisten Fällen stimmt, aber nicht immer denn Pinguine können ja beispielsweise nicht fliegen. Die KI-Forscher sprechen im Falle solcher, teilweise mit Ausnahmen behafteter Regeln von "Default-Regeln". Sie müssen stets beachten; daß darauf nicht absolut sicher gebaut werden kann.

Das Vier-Aussagen-Weltmodell der obigen Gestalt kann nun problemlos benutzt werden, soll der Computer direkt auf Fragen antworten, wie,

* Wer ist ein Mensch?

denn hierbei schaut das System nur einfach nach, ob etwas explizit bekannt ist oder nicht; und antwortet dann beispielsweise mit "Sokrates". Hingegen müssen teilweise recht komplizierte interne Schlußfolgerungs-Ketten durchlaufen werden, wird nach implizit bekanntem Wissen gefragt; will der Benutzer also beispielsweise erfahren:

* Ist Sokrates sterblich?

In diesem Fall nun benutzt das System die Aussage,

* Sokrates ist ein Mensch

um im Satz

* Alle Menschen sind sterblich.

"Sokrates" an die Stelle von "Mensch" zu setzen und daraus dann korrekt abzuleiten, daß Sokrates eben auch sterblich sei. Man sagt dazu auch, in den vier Schlußfolgerungs-Schritten

* Alle Menschen sind sterblich.

* Mensch (x) - - sterblich (x)

* Mensch (Sokrates)

* sterblich (Sokrates)

wird das x aus Zeile 2 in Zeile 3 als "Sokrates" eingesetzt.

Wurde beim Ableiten der erfragten Aussage hier der bekannte "modus ponens" benutzt, so ist es in anderen, komplizierteren Fällen damit nicht abgetan, vom Rechner feststellen zu lassen, ob die gewünschte Antwort-Aussage aus dem präsenten Wissen denn überhaupt abgeleitet werden kann. Es wird weiterhin gefordert, daß die Systeme Lücken im Wissen erkennen und Vorschläge machen können, wie sie zu schließen sind.

Wissen stellt Wissen in Frage

Im Umgang mit wissensverarbeitenden - und eben dazu auf Wissen basierenden - Systemen muß man sich stets des Umstands bewußt sein, daß Modifikationen des gespeicherten Wissens "wichtige strukturelle Veränderungen des Wissenssystems auf der Faktenseite" nach sich ziehen können; etwa dann, wenn "eine nichtmonotone Erweiterung" bestehenden Wissens prompt jenes selber in Frage stellt.

Ein Beispiel für so eine nichtmonotone Erweiterung ist die, das obige Weltmodell ergänzende Aussage

* Tweety ist ein Pinguin.

Diese Aussage verbietet fortan die Benutzung des Default-Wissens, daß Vögel fliegen können, im konkreten Fall des Exempels Tweety. Und ändert man beispielsweise auch noch die alte Wissensgröße

* Sokrates ist ein Mensch.

in die neue Fakten-Aussage

* Sokrates ist kein Mensch. (sondern vielleicht ein Kennwort oder eine Maschine oder ähnliches.)

so beeinflußt dies die Struktur eines Wissenssystems nicht weniger, als beispielsweise auch direkte Änderungen des Regelsystems dies dadurch tun, daß sie sogleich "zu Strukturveränderungen führen".

Maschinen lernen das Lernen

Eine bestimmt Gruppe von Prozessen der Wissensverarbeitung befaßt sich mit automatischen Verfahren, die Maschinen beim selbsttätigen Erwerb neuen Wissens unterstützen. Diese Art von Prozessen wird sehr intensiv untersucht, versprechen sie doch die Automatisierung eines ausgesprochen zeitaufwendigen Vorgangs, nämlich einer Maschine Wissen über einen Teilbereich der Welt einzuspeichern; und zwar in formeller, computergerechter Darstellung.

Laut Rollinger bezeichnet man mit "Maschinellem Lernen" in Fachkreisen jene Prozesse der Verarbeitung von Wissen, mit denen "es möglich werden soll", daß ein System in einem bestimmten Weltausschnitt "eigenständig (dort) geltende Gesetzmäßigkeiten findet".

Als kleines Beispiel für die vielen Schwierigkeiten, die es hier zu überwinden gilt, sei die Gefahr erwähnt, eine Maschine könne durch induktive Schlüsse zu fehlerhaftem Wissen gelangen. Zum Beispiel darf aus der fortlaufenden Beobachtung vieler

weißer Schwäne nicht etwa geschlossen werden, alle Schwäne seien eben weiß: In Australien existieren nämlich auch schwarze. Und daß auch keineswegs jeder Vogel fliegt, ist weiter oben abgehandelt worden.

Vorausgesetzt, Systeme verfügen nun über hinreichend viel - eingegebenes oder vielleicht sogar autonom erworbenes - Wissen, so möchte man ihnen doch gern die Aufgabe übertragen, komplexe Handlungsabläufe zu planen. Dabei wird in der Praxis dann zwischen "verschiedenen Planungsebenen mit unterschiedlichen Graden der Detaillierung" unterschieden, wie der IBM-KI-Fachmann ausführt.

Handlungen planende Systeme müssen prüfen, ob überhaupt die Voraussetzungen der einzelnen Handlungen erfüllt sind, ob und wie deren Ausführen die Situation ändert - und dabei vielleicht bewirkt, daß einstmals erfüllte Voraussetzungen plötzlich nicht mehr gegeben sind. Schließlich auch, in welchem Stadium der schrittweisen Umsetzung des anfänglichen Plans in konkrete, einzelne Handlungen welche Informationen zugänglich werden müssen. Von der Beantwortung dieser Fragen hängt dann wiederum die Planung der Art und der Reihenfolge der auf eine bestimmte Aktion jeweils folgenden Handlungen des gesamten Geschehensablaufs ab.

Will also beispielsweise jemand zu Ostern einen Bekannten in Otterfing besuchen, so muß er erstens wissen, wo Otterfing eigentlich liegt, zweitens, welche größere Stadt in der Nähe ist, drittens wie man dorthin kommt. Dann müssen die verschiedenen Reisemöglichkeiten in zeitlicher Hinsicht wie auch unter Kostenaspekten bewertet werden, und schließlich ist ein bestimmter Reisetag und -weg zu wählen. Wobei in so einer Entscheidungs- und Planungsprozedur ja, wie der Referent betont, Antworten, die auf bestimmte Fragen gegeben werden, sich oft auf andere Fragen und die auf sie dann erfolgenden Antworten auswirken.

Die Alpen im Fluge...

Betrachtet man das Thema Wissensverarbeitung speziell im Kontext natürlichsprachlicher Systeme, so findet diese Leistung einer Maschine vor allem in zwei wichtigen Teilgebieten Anwendung: erstens beim Verstehen und zweitens beim Erzeugen natürlicher Sprache.

Beim Verstehen natürlicher Sprache dient die Wissensverarbeitung einmal dem Ziel, mit Hilfe des eingespeicherten Weltwissens Mehrdeutigkeiten zu entscheiden. Denn wie sonst soll ein System bei der Aussage

* Müllers sahen die Alpen, als sie nach Italien flogen.

herausfinden, ob hier nun die Alpen oder vielleicht doch ganz einfach Müllers geflogen sind.

In einem zweiten Bereich dient die Wissensverarbeitung dazu, "Vorbedingungen von Aussagen zu prüfen und deren Verletzungen festzustellen", erläutert Rollinger. So ist zwar der Satz

* Der regierende König von Bayern ist taub

sicherlich falsch - aber in welchem Sinne eigentlich? Hört er etwa doch? Oder hat Bayern überhaupt keinen regierenden König? - Ein gutes System muß hier mit Hilfe von Weltwissen herausfinden, daß der Satz infolge des zweiten Sachverhalts falsch ist, und nicht etwa infolge des doch noch guten Gehörs irgendeines weißblauen Potentaten...

Drittens schließlich dient die Wissensverarbeitung beim Sprachverstehen dem Zweck, "die gefundene Bedeutung" eines Satzes "in das schon vorhandene Weltwissen sowie in das aktuelle Diskursmodell" - also in den Zusammenhang der verschiedenen Äußerungen - korrekt einzubetten.

Was damit gemeint ist, kann man wieder am besten mit einem kleinen Beispiel zeigen. Die zwei Sätze

* Minsky rührte sich nicht. Sie streckte vorsichtig ihre Hand aus.

sind solange doppeldeutig, solange ihnen nicht der zugehörige dritte Satz

* Klaus beobachtete seine Tochter wie sie auf seinen Hund zuging.

vorangestellt wird. Er nämlich stellt erst sicher, daß hier ein klar verständlicher "Äußerungszusammenhang" entsteht.

Wissenszustände auf Reisen

Einen klar verständlichen Äußerungszusammenhang herzustellen - mit dieser Aufgabe haben wissensverarbeitende Systeme auch beim Erzeugen natürlicher Sprache zu tun. Denn bei ihnen geht es ja darum, daß sie irgendwann intern einen gewissen "Wissenszustand" besitzen, der durch Einspeichern von Informationen, durch Lernen und durch eigene Schlußfolgerungen entstanden sein mag. Und nun wollen sie eben diesen Wissenszustand einem Dialogpartner so vermitteln, daß in jenem dann der gleiche Wissenszustand - und zwar ohne Mißverständnisse - erzeugt wird. Dazu kann das System diesem Partner alle jene Informationen, die ihm vorerst - vermutlich - noch fehlen, in Gestalt natürlicher Sprache Schritt für Schritt und Satz für Satz vermitteln beziehungsweise mitteilen.

Kl-System spricht natürliche Sprache

Beim Erzeugen natürlicher Sprache - wie etwa auch beim Abfassen eines Fachtextes über ein neues Wissensgebiet durch einen Menschen - muß das natursprachliche System als "Autor" des Texts sich zunächst ein Bild vom aktuellen, momentanen Wissenszustand des Hörers oder Lesers machen und dazu dann jenen künftigen Wissenszustand in Beziehung setzen, der beim Dialogpartner durch den neu zu schaffenden Text erst noch erzeugt werden soll. Der Autor beziehungsweise der sprachgenerierende Rechner muß also ermitteln, welche Information eigentlich an den Dialogpartner geschickt werden muß, damit in jenem schrittweise der erwünschte neue Wissenszustand entstehen kann. Und dabei muß der Autor sich auch gleich noch überlegen, in welcher Reihenfolge die einzelnen Teil-Informationen aneinanderzureihen sind; denn er darf das Pferd ja nicht vom Schwanz her aufzäumen und somit mehr Verwirrung als Klarheit stiften.

Fragt also beispielsweise der Franz den Joseph, wo Otterfing denn eigentlich liegt und wie denn der Joseph selber dorthin kommen werde, so kann letzterer nur dann sagen

* Bei Holzkirchen, und ich nehme den Peugeot wenn er sich zuvor Klarheit über folgende Fragen verschafft hat:

* Weiß Franz, was (!) Holzkirchen ist?

* Weiß Franz, wo Holzkirchen liegt?

* Weiß er, daß ich aus Rosenheim und nicht aus München kommen werde?

* Weiß er, daß der Peugeot ein Auto ist?

* Weiß er auch, daß er von München aus besser die umweltfreundliche S-Bahn nimmt...?

Betrachtet man den Komplex "Wissensverarbeitung" aus größerer Distanz, so zeigt sich laut Rollinger, daß "alle Probleme der Wissensverarbeitung auf - üblicherweise mehrere - Suchprobleme zurückgeführt werden" können. Bei ihrer Bearbeitung wird jeweils in einem sogenannten "Suchraum" nach jenem Weg geforscht, der von einem Ausgangs- zu einem Ziel-Zustand führt (siehe Bild 2).

Ein gutes Beispiel für so ein Suchen sind Schach-Probleme, wobei die einzelnen "Zustände" des Systems zulässige Spielsituationen wären - und der "Zielzustand" natürlich eine

denkbare Gewinnsituation. Dabei zeigt dieses Beispiel, daß oft auch mehrere Zielzustände existieren können; und es zeigt auch, daß die einzelnen "Zustandsänderungen" hier ganz einfach die, im Schach jeweils gerade erlaubten Züge wären.

Zustandsübergänge können einfach, aber auch ausgesprochen komplex und vielfältig sein, bemerkt Rollinger um dann zu betonen: Manchmal, wie etwa in einer ausweglosen Schach-Situation, kann es zwischen Ausgangs- und Ziel-Zustand auch gar keinen Weg mehr geben. Und man kann - im Falle des Schachs - dann nur noch verlieren.

Zur Suchaufgabe, die ein System lösen muß, gehört nicht allein die Beantwortung der Frage, ob es überhaupt einen gangbaren Weg gibt, sondern auch die Suche nach - möglichst - dem kürzesten aller Wege. Doch da der Suchraum oft sehr groß ist und Tausende von Möglichkeiten zur Wahl stellt, benötigen solche Systeme Faust- oder auch heuristische Regeln, die eine Art grober Wegweisung bieten und die Zahl der zu erprobenden Möglichkeiten einschränken sollen.

Heuristische Regeln wollen beachtet werden

An diesen heuristischen Regeln ist nun wiederum eine ganze Menge wichtig. Erstens nämlich kann man sich den Weg zum angestrebten Ziel selber verbauen, arbeitet man - aus irgendwelchen Gründen - mit "falschen" heuristischen Regeln; denn, wie gleich noch gezeigt wird, damit kann man leicht falsche Einschränkungen der Such-Richtungen treffen und endet am Schluß vor einer selbst errichteten Mauer.

Wichtig ist aber zweitens auch, daß die heuristischen Regeln - die "meist Wissen über den Weltausschnitt, in dem das Problem gelöst werden soll", enthalten - keine exakten Regeln sind. Was wiederum bedeutet, sie können letztlich nicht garantieren, daß man mit ihrer Hilfe zur richtigen Lösung findet.

Ein schönes Beispiel, wie vorschnelles Denken in der falschen Richtung den Weg zum Ziel verbauten kann, illustriert Bild 4. Hier fahren zwei Züge aus 200 Kilometer Distanz mit je Tempo 50 aufeinander zu. Vom rechten startet eine flotte Mücke mit Tempo 80, fliegt bis zum linken, kehrt um, fliegt bis zum rechten, kehrt um - und so weiter, bis sie zwischen den kollidierenden Lokomotiven zerquetscht wird.

Frage: Was für eine Strecke hat die Mücke bis zu ihrem Exitus zurückgelegt? (Hinweis auf die Antwort: Man braucht nicht einmal einen Taschenrechner...)