Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

19.10.1990 - 

Nachhilfestunden für begriffsstutzige Maschinen

Dem Computer ein Gefühl für die Sprache einhauchen

Seit es Computer gibt, verarbeiten diese Sprachen - Programmiersprachen. Mit unserer Umgangssprache haben sie allerdings auch heute noch Mühe. Einige von ihnen mögen zwar von Menschen gesprochene, einfache Sätze erkennen. Doch mit dem Verstehen des Gehörten oder auch nur Gelesenen tun sich die Maschinen unheimlich schwer. IBM-Ingenieure und Sprachspezialisten von fünf deutschen Universitäten hoffen nun, mit einem gemeinsamen Forschungsprojekt zumindest einen Teil der Schwierigkeiten aus dem Weg räumen zu können.

Eigentlich müßten wir Menschen uns wundern, daß wir unsere eigene Umgangssprache verstehen. Denn die kann ganz schön vertrackt sein, wie das folgende Beispiel - allerdings erst auf den zweiten Blick - zeigt: "Kurt und Ingrid sahen die Alpen, als sie nach Italien flogen."

Offensichtlich unternehmen ein Mann und eine Frau eine Flugreise. Das Flugzeug überquert, von Norden kommend, die Alpen in Richtung Italien. Das Paar guckt aus dem Fenster und sieht die Berge. Für jeden vernünftig denkenden Menschen ist diese Interpretation logisch. Eine Selbstverständlichkeit ist sie allerdings nur dann, wenn man das nötige Hintergrundwissen hat. Bei einem Computer kann man dieses Wissen nicht voraussetzen. Wenn die Maschine den Begriff "Alpen" nicht kennt, könnte sie auch verstehen, daß die Alpen nach Italien flogen und daß diese dabei Kurt und Ingrid sahen.

Probleme mit dem Satzaufbau

Das Beispiel zeigt, wie schwierig es für eine Maschine ist, einen ganz simplen Satz aus unserer Alltagssprache zu verstehen. Der Computer hat schon Mühe, den Satzaufbau (die sogenannte Syntax) zu eruieren; mit dem Inhalt (der Semantik) tut er sich erst recht schwer.

Zwar können Computer heute einzelne Wörter und, auf eng eingegrenzten Gebieten, auch ganze Sätze verstehen. Ein Beispiel dafür ist das kanadische System "Taum", das Wetterberichte aus dem Englischen ins Französische und umgekehrt übersetzt. Mit echtem Sprachverständnis hat das aber überhaupt nichts zu tun; jeder andere Text würde das System vollkommen überfordern. Es genügt eben nicht, einzelne Wörter oder Wortkombinationen zu analysieren und zuzuordnen. Um den Inhalt einer Aussage zu erfassen und zu bewerten, setzt der Mensch sein ganzes Wissen und seine Erfahrungen ein. Wenn ein Sportinteressierter liest: "Lendl schlägt Connors", so denkt er sicher, daß die Auseinandersetzung auf dem Tennisplatz und nicht auf der Straße stattfand.

Ein sprachverstehender Computer müßte ähnliche Schlüsse ziehen. Doch wie bringt man ihm das bei? Mit diesem Problem befassen sich Linguisten und Computerfachleute schon sehr lange. Eines der ehrgeizigsten Forschungsprojekte auf diesem Gebiet heißt "Lilog" und wurde 1986 in Angriff genommen. Das Ziel des auf fünf Jahre angelegten Projekts ist es, "Linguistische und Logische Methoden zum Verstehen deutscher Texte" zu finden.

An Lilog arbeiten IBM-Ingenieure und Wissenschaftler von fünf deutschen Universitäten. Auf der letzten CeBit haben die Spezialisten auf den Gebieten Linguistik, Informatik, mathematische Logik und Künstliche Intelligenz als konkretes Resultat ihrer Bemühungen ein Software-Paket vorgestellt. Das Programm kann geschriebene Texte aus Wanderführern lesen und verstehen, das aufgenommene Wissen auf Vollständigkeit und eventuelle Widersprüche überprüfen und Fragen zur Routenbeschreibung beantworten. Bei anderen Texten ist das Programm aber bereits überfordert. Von einem verkaufsfähigen Produkt ist der Lilog-Prototyp also noch weit entfernt.

Die Grammatik allein genügt nicht

Was müßte denn eine Maschine überhaupt können, um unsere Alltagssprache zu verstehen? Es wäre notwendig, daß sie nicht nur die Bedeutung der Wörter erkennt, sondern auch alle Grammatikregeln samt den vielen Ausnahmen. Weiter müßte die Maschine einen Grundschatz an Allgemeinwissen haben und fähig sein, räumliche und zeitliche Zusammenhänge zu erkennen und einzuordnen. Schließlich sollte sie Aussagen auf ihren Wahrheitsgehalt hin überprüfen und Schlüsse ziehen können.

All dies muß man dem Computer einprogrammieren, und zwar in einer exakten, mathematisch beschreibbaren Form. Die Lilog-Forscher verwenden dazu die Programmiersprache Prolog. Sie arbeitet mit Zeichen und Verknüpfungen, die jedes neue Wort auf eindeutige Weise mit bereits bekannten Wörtern in Beziehung bringt. Genauso minutiös werden die Grammatikregeln programmiert und die Ausnahmen aufgelistet.

Trotz aller Sorgfalt gibt es Schwierigkeiten zuhauf. Das liegt weniger an der Technik als vielmehr am Untersuchungsobjekt: Die Alltagssprache, die wir mit Hilfe unserer Intuition recht gut erfassen, ist für den Computer häufig viel zu schwammig. Im Gegensatz zum Menschen packt der Computer das Problem sehr mechanistisch an.

Er beginnt seine Ermittlungen mit der Analyse der Satzstruktur - was ist Subjekt, was Objekt? Die deutsche Satzstellung gibt (im Gegensatz etwa zur englischen) darüber keinen eindeutigen Aufschluß: Die Sätze "Der Hund biß den Briefträger" und "Den Briefträger biß der Hund" sagen beide das gleiche. Wer hat nun wen gebissen? Die Erfahrung, daß Hunde eher beißen als Menschen, fehlt der Maschine. Sie braucht Grammatikkenntnisse, um den Satz richtig zu verstehen: Der Akkusativ verrät den Briefträger als Objekt der Beißattacke.

Manchmal verlaufen grammatikalische Satzanalysen aber auch im Sand. Hans Uszkoreit, der beim Projekt Lilog für Computerlinguistik zuständig ist, nennt folgendes Beispiel: "Heinz sucht den Sohn des Nachbarn mit dem Auto." Da kapituliert nicht nur der Computer - auch wir haben damit unsere liebe Mühe: Das Auto kann nämlich ebensogut dem Nachbarn oder dessen Sohn gehören; es ist aber auch denkbar, daß Heinz den Wagen als Hilfsmittel bei der Suche einsetzt. Grammatikalisch jedenfalls sind alle drei Lesarten zulässig.

Selbst mit einer korrekten Analyse des Satzaufbaus ist noch nicht viel erreicht - der Computer muß auch die Bedeutung der Wörter oder einzelner Wortgruppen kennen. Schwierigkeiten entstehen hier vor allem, weil jeder Sprecher eine bestimmte Vorstellung hat über die Bedeutung der Ausdrücke, die er verwendet. Diese Bedeutung kann sich auf Dinge, Sachverhalte, Situationen, Eigenschaften, Gefühle, Ereignisse usw. beziehen, ist also sehr subjektiv. Das Wort "Ball" zum Beispiel bezeichnet je nach Zusammenhang ein Spielzeug oder eine gesellschaftliche Veranstaltung.

Um die Bedeutung von ganzen Sätzen oder Satzteilen zu verstehen, genügt es in der Regel nicht, wenn man einfach die Wortbedeutungen kombiniert. Meistens spielen auch vorhergegangene Äußerungen und die Kommunikationssituation eine Rolle. Mit dem Einfluß solcher Faktoren auf die Bedeutung von Aussagen befaßt sich ein anderes Teilgebiet der Sprachforschung, die sogenannte Pragmatik.

Wörter wie "heute", "er", "dort" oder "so" beziehen sich auf bestimmte Zeiten, Dinge, Orte oder Eigenschaften. Die folgende Aussage, die fast nur aus solchen Wörtern besteht, ist ein besonders krasses Beispiel: "Heute hätte er das ebensogut auch hier tun können."

Einzelne Aussagen machen nur mit anderen Sinn

Wenn wir diesen Satz aus dem Zusammenhang gerissen lesen, sagt er uns recht wenig. Wir wissen nicht, auf wen sich "er" bezieht oder was "heute" ist. Noch haben wir eine Ahnung davon, was "er" wie und wo hätte tun können. Verstehen kann diesen Satz nur, wer den Zusammenhang kennt: zum Beispiel vorangegangene Sätze oder die äußeren Umstände, unter denen diese Aussage gemacht wird. Dabei kommt es auf zwei Komponenten an: die zeitliche und die räumliche. Die zeitliche Komponente verrät die Bedeutung des Wortes "heute", die räumliche jene des Wortes "hier". Um unsere Alltagssprache zu verstehen, muß man also zeitliche und räumliche Beziehungen eruieren und entschlüsseln können.

Mit räumlichen Beziehungen in der Sprache und ihrer Repräsentation auf dem Computer befaßt sich die Lilog-Gruppe um den Hamburger Informatiker Christopher Habel. Ein Hauptproblem dabei ist,

die passende Darstellungsart für räumliches Wissen zu finden. Soll man dem Computer mathematische Raumbeziehungen (zum Beispiel "3 Meter vor Punkt A" oder "7 nebeneinanderliegende Kreise") eingeben oder räumliche Bilder? Wir Menschen jedenfalls nehmen Bilder wahr - ob wir die so aufgenommene Information dann auch bildhaft speichern, ist allerdings eine wissenschaftliche Streitfrage. Es gibt Forscher, welche die mentalen Bilder für eine reine Begleiterscheinung halten.

Tatsächlich passen wir die Repräsentationsform den Umständen an. Das haben Untersuchungen der gewählten Lösungswege der folgenden Denksportaufgabe ergeben: Ein Würfel ist an zwei gegenüberliegenden Seiten rot und an einer weiteren Seite blau gefärbt. Der Würfel hat drei Zentimeter Kantenlänge und soll in lauter Ein-Zentimeter-Würfel zerlegt werden. Frage 1: Wieviele der kleinen Würfel besitzen genau eine blaue und eine rote Fläche? Frage 2: Wieviele kleine Würfel entstehen insgesamt?

Die Zeit miteinbeziehen

Um die erste Frage zu beantworten, stellen sich die meisten Menschen den großen Würfel bildhaft vor, zerschneiden ihn dann in Gedanken und zählen die rot-blau-gefärbten kleinen Würfel (es sind sechs). Bei der zweiten Frage hingegen wählt die Mehrheit ein anderes Lösungsverfahren: Nachdem man festgestellt hat, daß der große Würfel längs, quer und hoch in je drei kleine zerfällt, wird nüchtern gerechnet - drei mal drei mal drei ergibt 27 Ein-Zentimeter-Würfel.

Je nach Aufgabenstellung haben also die bildhafte wie die mathematische Darstellungsart ihre Vor- und Nachteile. Christopher Habel und seine Kollegen haben sich deshalb bei Lilog für eine Kombination der beiden Repräsentationsformen entschieden.

Eine andere Lilog-Gruppe, die vom Stuttgarter Computerlinguisten Christian Rohrer geleitet wird, widmet sich dem Problem "Zeit" : Was heute "heute" heißt, ist morgen bereits "gestern". Wissen über die Zeit muß also laufend aktualisiert werden - die Frage ist nur, wie. Bei vielen Computeranwendungen begnügt man sich damit, den neuesten Stand der Dinge abzuspeichern. Was vorher war, interessiert dann nicht mehr.

Als Beispiel nennt Rohrer eine Datenbank, welche die Besitzverhältnisse von Firmen auflistet. Stand da mal drin, daß VW die Firma Triumph-Adler (TA) besitzt, so mußte der Eintrag vor ein paar Jahren mit dem Verkauf von TA an Olivetti gelöscht werden; an seine Stelle trat der neue Eintrag, daß Olivetti die Firma TA besitzt.

Eine solche Datenbank hat zwei entscheidende Nachteile: Erstens wird nicht unterschieden, ob die Veränderung auf ein Ereignis in der realen Welt zurückgeht (VW verkauft Triumph-Adler an Olivetti) oder ob die Datenbank einen Fehler (zum Beispiel den Eintrag "Siemens besitzt IBM") enthalten hat, der bei der Aktualisierung korrigiert wird. Zweitens geht die Information über alle früheren Zustände bei der Aktualisierung verloren, da ja die alten Einträge getilgt werden.

Für Systeme, die natürliche Sprachen verstehen sollen, genügt das nicht. Da braucht es sogenannte temporale Datenbanken, welche den zeitlichen Ablauf detailliert berücksichtigen. Sie arbeiten mit Zeitintervallen, die solange gelten, bis ein Ereignis die Situation verändert. Dann wird der neue Zustand eingetragen, wobei die alten Daten erhalten bleiben. Eine temporale Datenbank kann nicht nur die Frage beantworten, wem die Firma X gehört, sondern auch, wann die Firma Y verkauft wurde, oder ob Herr Z das Haus in W immer noch besitzt.

Wenn wir einen Fußballbericht lesen, ordnen wir die erwähnten Ereignisse bewußt oder unbewußt auf der Zeitachse an. Fragen wie "Wer schoß das erste Tor?" oder "Wann wurde Meier ausgewechselt?" können wir nach der Lektüre ohne weiteres beantworten.

Manchmal lassen bestimmte Wörter ("gestern", "im nächsten Jahr") oder Zeitformen Rückschlüsse auf den Ablauf zu. In der Praxis ist es aber häufig komplizierter. Ein Beispiel: "Hans folgte dem Fußweg bis zur Straße."

(a) Er dachte an seine Freundin, die nicht gerne wanderte.

(b) Er überquerte die Straße und kam zu einem Weiher.

Für jeden intelligenten Leser ist klar, daß die in Satz (a) erwähnten Gedankengänge von Hans zeitlich mit dem Geschehen des vorangehenden Satzes überlappen, während Satz (b) die Fortsetzung des Geschehens beschreibt. Obwohl die Zeitform in beiden Fällen gleich ist, erlaubt uns die Kenntnis der Verb-Bedeutung, die Ereignisse und Zustände korrekt auf der Zeitachse anzuordnen. Christian Rohrer und seine Kollegen versuchen nun, dem Computer solche Fähigkeiten beizubringen.

Wie das folgende Beispiel zeigt, genügen aber manchmal auch Zeitformen und Verb-Bedeutungen nicht mehr, um die zeitliche Abfolge zu bestimmen: "Gestern nachmittag stürzte in Köln ein Privatflugzeug ab."

(a) "Der Pilot war total betrunken."

(b) "Die Maschine war total kaputt." Daß der Pilot schon vor dem Absturz betrunken, die Maschine aber erst nach dem Absturz total kaputt war, muß man in diesem Fall aus dem sogenannten Weltwissen schließen.

Weltwissen ist viel mehr als eine bloße Anhäufung von Fakten. Man muß die Informationen auch abfragen, auswerten, verändern und ergänzen können. Allfällige Lücken und Widersprüche sollten erkennbar sein. Zur Verdeutlichung ein paar Beispiele: Die beiden Fakten "Kurt und Ingrid sind Menschen" und "Die Alpen sind ein Gebirge" sollten zum Schluß führen, daß nicht die Alpen, sondern Kurt und Ingrid nach Italien flogen. Die Aussage "Michail Gorbatschow trägt eine Beatles-Frisur" muß als falsch erkannt werden, während "Der jetzige elsässische König ist kahlköpfig" weder als wahr noch falsch eingestuft werden darf: Es gibt ja zur Zeit gar keinen König dort!

Wie kann man dies alles einem Computer beibringen? Wie stellt man Wissen überhaupt in einer Maschine dar? Mit diesen Fragen beschäftigt sich eine Lilog-Gruppe, die vom Stuttgarter Informatiker Rudi Studer geleitet wird.

Probleme mit dem Wissen

Für jeden Bereich, den der Computer bearbeiten soll, speichert man entsprechende Fakten ab, zum Beispiel: "Sokrates ist ein Mensch". Allgemeingültige Zusammenhänge werden durch Regeln dargestellt. Beispiel: "Alle Menschen sind sterblich". Aus den Regeln lassen sich dann neue Fakten ableiten. So einfach, wie das in der Theorie klingt, ist es aber in der Praxis nicht. Studer nennt die größten Hürden: "Wissen liegt oft nur in vager Form vor: " Während die Aussage "1988 beschäftigte IBM 30 712 Mitarbeiter" präzise ist, läßt der Satz "1988 beschäftigte IBM viele Mitarbeiter" offen, ob es 300 oder 30 000 waren.

- Wissen kann unsicher sein. In der Aussage "Die Besprechung wird voraussichtlich am Montag stattfinden" ist die Zeitangabe unsicher.

-Bestimmte Aussagen wie "Vögel können fliegen" treffen zwar meistens zu, aber nicht immer: Pinguine können bekanntlich nicht fliegen.

Damit der Computer Wissen verarbeiten kann, muß man ihm Wissen über das Wissen eingeben: Dieses sogenannte Meta-Wissen beschreibt die Regeln, nach denen die Maschine vorgehen soll. Daraus lassen sich dann Lösungsstrategien ableiten. Probleme der Wissensverarbeitung können auf Suchprobleme zurückgeführt werden. Gesucht wird der kürzeste Weg von einem Ausgangszustand zu einem Zielzustand. Manchmal gibt es allerdings überhaupt keinen Weg - wie beim Schach, wo man in gewissen Situationen nur noch verlieren kann.

Mit dem vorhandenen Wissen versucht der Rechner, die eingegebenen Texte zu verstehen und so neues Wissen zu akquirieren. Auf diese Weise sammelt die Maschine Erfahrungen und lernt zwar langsam, aber stetig dazu.

Eines Tages, hoffen die Lilog-Forscher, wird ein Computer wohl soweit sein, daß er ein Fachbuch lesen und Fragen beantworten kann.

Felix Weber ist freier Journalist in Zürich