Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Künstliche Intelligenz ein weites Feld mit verschwimmenden Grenzen, Teil 8


28.10.1988 - 

Der Computer soll Erfahrungen sammeln

Unter den weltweit führenden Forschungsanstalten in Sachen Künstlicher Intelligenz zählt das Massachusetts Institute of Technology (MIT) zur absoluten Spitzengruppe. Dort tätige Forscher versuchen unter anderem, den Computer dazu zu bringen, "aus guten und schlechten Erfahrungen zu lernen", um ihn besser zum Entwickeln neuer Programme einsetzen zu können.

Zentrum der KI-Gilde des MIT ist das Labor für Künstliche Intelligenz, dem rund 160 Mitglieder angehören und das vor allem ein Hauptziel verfolgt: Man will, so der Direktor Patrick H. Winston, "verstehen, wie man Computer zu intelligentem Verhalten bringen kann". Außerdem verfolgt man am Rande noch folgendes:

* Wie lassen sich bestimmte Aspekte der menschlichen Intelligenz besser als früher verstehen?

* Wie kann man erreichen, daß Rechner noch mehr Nutzen bringen als bisher?

Innerhalb dieses, an sich sehr weit gespannten Rahmens befaßt sich beispielsweise Paul Resnick mit der eher allgemeinen Frage, wie Rechnerprogramme wohl am besten aus - guten oder schlechten - Erfahrungen lernen können. Dabei geht er von der Tatsache aus, daß Menschen, die knifflige Probleme leicht lösen und vertrackte Situationen gut bewältigen, typische Eigenschaften besitzen: Sie nutzen geschickt ihr bis dato angesammeltes Wissen über die fraglichen Strukturen und deren diverse Verhaltensweisen und finden auf diese Weise Schritt für Schritt heraus, warum irgendetwas nicht so abläuft, wie man es erwarten sollte.

Weiterhin haben wir Menschen die Fähigkeit, die Erfahrungen, die wir bei so einer Aufgabe neu gemacht haben, fortan im Gedächtnis zu behalten, sie zu verallgemeinern, aus ihnen Neues zu lernen und später auftretende Varianten des grundlegend gleichen Problems auch noch rasch als etwas zu erkennen, das wir ja schon mal in den Griff bekommen hatten. Und damit sparen wir beim Lösen der neuen Probleme beträchtlich Zeit und Mühe.

Wie soll ein Rechner Probleme verallgemeinern?

Will man die hier skizzierten Fähigkeiten des Menschen auf Rechnern nachbilden, so zeigt sich laut Resnick alsbald folgendes Kernproblem: Wie kann man eigentlich wissen, welche Aspekte einer konkreten, zufriedenstellend gelösten Aufgabe fortan verallgemeinert werden können beziehungsweise müssen? Und welche Teile des - rechnerinternen - Wissens sind mithin wie zu ändern, um eine ganz spezielle, einmalige Erfahrung auf diesem Weg in ein verwandtes, aber allgemein gültiges Erfahrungsmuster umzubauen?

Resnick arbeitet bei seinen Forschungen mit der Annahme, der Weg, auf dem ein solches Generalisieren vorangetrieben werden könnte, müßte sich eigentlich aus dem Wissen über Strukturen und deren Verhalten herleiten lassen. Er betrachtet dazu beispielsweise einzelne - fehlerhafte - Bauteile eines bestimmten Geräts und versucht zu eruieren welche Symptome wohl auftreten mögen, würde der gleiche Fehler bei anderen, ähnlichen Zwecken dienenden Bauteilen der gleichen Art Gerät auftreten. Bei Bauteilen also, für die der Computer die Folgen ihres Versagens ja doch nur dann abschätzen kann, wenn er sozusagen "ein tieferes und allgemeineres Verständnis" der Rolle erworben hat, die die fragliche Klasse von Komponenten im betreffenden Typ Gerät ganz allgemein spielt.

Zwei Kollegen Resnicks, Daniel Welt und Professor Tomas Lozano-Pérez, befassen sich mit dem Problem der vergleichenden Analyse mittels Computer. Sie arbeiten an Programmen, mit deren Hilfe die Maschine künftig voraussagen können soll, wie ein bestimmtes, von ihr betrachtetes System - etwa eine schwingende Kombination von Federn und Massen - reagieren wird, ändert man beispielsweise die Kennwerte der Feder oder die Größe der Masse. Und die dem Rechner dann auch erlauben sollen, einem neugierigen Fragesteller den Grund für die vorausgesagten Verhaltensänderungen des Systems zu erläutern.

Erste Versionen dieser Art von Programmen laufen bereits, wobei die Wissenschaftler sich einer neuen Technik namens Differentiell-Qualitative- oder einfach DQ-Analyse bedienen.

Wollen Computerfachleute die Art und Weise wie Menschen Probleme lösen eingehend untersuchen und in Computern nachbilden, so liegt eigentlich der Gedanke nahe, diese Studien am Beispiel einer ganz besonders rechnerspezifischen Art menschlichen Tuns zu treiben; nämlich am Vorgang des Programmierens. Und deshalb befassen sich Charles Rich und Richard C. Waters mit dem Bau von Systemen, "Programmers Apprentice" genannt, die in einer ersten Entwicklungsstufe die Fähigkeit erlangen sollen, Menschen während der verschiedenen Phasen der Entwicklung neuer Programme "intelligent" zu unterstützen.

Dieses Vorhaben setzt einmal voraus, daß Wege zur zweckmäßigen, maschineninternen Repräsentation des Wissens eines (guten) Programmierers gefunden werden, aber auch Wege, auf denen der Rechner dieses Wissen dann zum Erarbeiten sinnvoller, nützlicher und auch korrekter Schlußfolgerungen einsetzen kann.

Im Zuge dieses Projekts wurde zunächst ein "Plan Calculus" zum Zwecke dieser Art von Darstellung und Nutzung vorhandenen Wissens erarbeitet, aus dem sich inzwischen das System "CAKE" entwickelt hat. Diese Schöpfung Richs und Yishai Feldmans stellt ein in Schichten gegliedertes System zur Darstellung von Wissen und zum Ziehen von Schlüssen dar, das so interessante Teilleistungen wie "Wahrheitspflege" (truth maintenance), Schlußfolgerungen innerhalb finiter Sätze von Aussagen, Operationen mit transitiven, assoziativen, kommutativen und anderen Eigenschaften sowie anderes mehr bietet.

Auf Waters geht bei diesem Gesamtprojekt die Entwicklung neuer, zusätzlicher Programmierhilfen mit der Bezeichnung Synchronizable Series Expressions (SSE) zurück, mit deren Hilfe man die meisten Programmschleifen nunmehr in einer sehr gedrängten, funktionellen Schreibweise notieren kann. Als neue Makros zur Programmiersprache Common Lisp dienen diese SSE-Routinen jetzt der automatischen Umwandlung der kurzen Ausdrücke in voll ausgearbeitete, effiziente Programmschleifen, die dann berechnet beziehungsweise bewertet werden.

Die Hilfen unter dem Kürzel SSE waren nicht nur als lehrreiches KI-Studienobjekt von Wert, sie bieten auch direkten, praktischen Nutzen, meint Waters. Denn im Gegensatz zu manuell geschriebenen Schleifen ersparen die Programmierer sich nun einiges an unerwünschten Laufzeit Overhead.

Vor der eigentlichen Entwicklung von neuen Programmcodes steht stets der Zwang, überhaupt erst aufzuschreiben, was das künftige Programm genau leisten soll. Es müssen also alle Anforderungen aufgestellt, gegebenenfalls modifiziert und korrigiert und dazu natürlich auch immer wieder eingehend analysiert werden. Hier bedient man sich längst eingespielter - und rechnergestützt ablaufender - Techniken zur Anforderungsanalyse. Diese, sozusagen schon konventionellen Techniken haben den Nachteil, daß sie wiederum eine schon recht streng formalisierte Sprache zur Beschreibung der Anforderungen voraussetzen. Wünschenswert aber wären Systeme, die schon auf der Stufe davor, also noch ehe formell gebundene Aussagen festgeschrieben werden, analysieren können, ob eine schrittweise erarbeitete Liste einzelner Anforderungen an ein noch zu schreibendes Programm überhaupt realisierbar ist - oder nicht.

System soll logische Schlußfolgerungen ziehen

Diese Art von Analysesystem hat nun Howard Reubenstein vor Augen, denn sein am MIT reifender "Requirements Apprentice" soll schon in den allerfrühesten Phasen der Programmgestaltung dienstbar sein; er soll mithin auch dann schon Nutzen bringen, wenn die einzelnen Anforderungs-Aussagesätze noch unvollständig, mehrdeutig und sogar widersprüchlich sind, also noch vor deren erster gründlicher Überarbeitung.

Reubenstein muß bei seiner Arbeit in erster Linie mit dem Problem fertig werden, wie ein KI-Programm aus einem ungeordneten Satz einzelner und ziemlich beliebig zusammengestellter Teilaussagen wohl eine kohärente interne Repräsentation des "wahren Willens" des Programmierers beziehungsweise Systemanalytikers erstellen kann. Sein System wird dazu mit Fähigkeiten ausgestattet wie etwa der, logische Schlußfolgerungen mit dem Ziel zu ziehen, aus Einzel-Aussagesätzen Aussagen über größere, komplexere Zusammenhänge zu generieren. Oder auch mit der Fähigkeit, Wissen in vielgestalter, "hybrider" Form zu repräsentieren.

Der Computer spricht auch Warlpiri

Zu den zahlreichen KI-Teilgebieten, mit denen sich die Forscher der verschiedenen MIT-Labors eingehend beschäftigen, gehören auch natürlichsprachliche Systeme. Ein Beispiel dafür ist Michael B. Kashket mit seinen Arbeiten über einen "Parser" für die Sprache Warlpiri: eine Sprache der immer weiter zurückgedrängten und im eigenen Kontinent schon fast zu Exoten gewordenen Ureinwohner Australiens.

Ein Parser ist ein Programm beziehungsweise ein Teil eines Programms, das einem korrekt formulierten sprachlichen Ausdruck die passende syntaktische Struktur zuordnet und mithin beiträgt, den Ausdruck für Computer "verständlich" zu machen. Dabei ist wichtig, daß Sätze der natürlichen Sprachen vielfach mehrdeutig sind, strukturell also auf verschiedene Weise gedeutet werden können. Und daß man erst schon die Struktur eines Satzes kennen muß, ehe man - oder ein Rechner - sich über die Bedeutung des Satzes den Kopf/die CPU zerbrechen kann...

Was Kashket an der Sprache Warlpiri besonders fasziniert, ist deren seltsame Eigenschaft, daß die Wörter eines Satzes dort in beliebiger Reihe stehen können. Das erschwert die Suche nach der korrekten syntaktischen Struktur des Satzes beziehungsweise nach dessen zentraler Aussage mit Hilfe des Parsers. Kashket arbeitet daher nicht etwa mit herkömmlichen Parsing-Verfahren, bei denen einfach die vielen möglichen Permutationen eines Satzes durch jeweils separate Satzregeln dargestellt werden, sondern auf andere Weise: Sein Parser operiert nämlich mit Hilfe linguistischer Einschränkungsaussagen und interpretiert so allein auf Basis dieser "constraints" den Inhalt der Sätze.

Nun könnte man fragen, ob die Entwicklung eines Warlpiri-verstehenden Computers - oder vielleicht gar eines künftigen, automatischen Warlpiri-Kisuaheli-Übersetzungssystems - denn nun wirklich zu den brennenden Aufgaben der modernen Informatik gehört.

Der Rechner kann sinnvolle Sätze bilden

Doch ganz anders stellt Kashkets Arbeitsgebiet sich dar, hört man weiter, daß die gleiche Art von Parser auch nutzbar ist, will man statt einer spannenden Warlpiri-Diskussion über die Flugeigenschaften bestimmter Bumerangs den gleichen Streit aus dem Englischen heraus einem Rechner "verständlich" machen. Denn, es scheine zu genügen, meint der MIT-Linguist, beim Übergang auf weitere Sprachen nur einfach das Lexikon der einzelnen Wortbedeutungen auszuwechseln: Schon könne man dann nämlich sprachverstehende Systeme für Englisch, Deutsch, Französisch, Japanisch - und vielleicht sogar für alle Sprachen der Menschen - erarbeiten.

Ein paar Türen weiter entwickelt Kashkets Kollege Michael R. Brent den Prototypen eines Generierungssystems, das über eine Fülle eingebauter, syntaktischer Parameter so: wie lexikalisch-konzeptioneller Wissensstrukturen verfügt, und das, auf Basis dieses Wissens, interessante Leistungen zeigen soll.

Es kann laut Brent nämlich von stilisierten internen Darstellungen der Bedeutungen einzelner Wörter ausgehen und daraus dann autonom ganze Gruppen von natürlichsprachlichen -

englischen - Sätzen generieren, die, mit Blick auf die reale Welt, alle Sinn haben.

So kann man dem System unter anderem beispielsweise die Wörter "John", "bread" und "cut" eingeben und zusehen, wie es daraus dann etwa die Sätze formt, "John cut at the bread" oder auch "The bread cuts easily". Doch ersetzt man "cut" nun durch "break", so liefert das System zwar noch den abgewandelten Satz, "John broke the bread", aber nicht etwa die nun ja unsinnige Form "John broke at the bread".

Kaum etwas mit Sprache, viel aber mit den besonderen physischen Fähigkeiten typischer Zwei- und insbesondere Vierbeiner haben wiederum ganz andere Studien zu tun, für die am MIT Professor Marc Raibert verantwortlich zeichnet. Es geht hier - übrigens auch mit Blick auf militärische und andere Transportaufgaben in unwegsamem, straßenlosen Gelände - um die Frage, wie kann man Roboter mit Beinen statt mit Rädern bauen. Und zwar so, daß sie sich dennoch ausgesprochen flott bewegen können.

Laufende, rennende, trabende und galoppierende vierbeinige Roboter, wie Raibert und Kollegen sie vor Augen, und teils auch schon im Labor realisiert, haben, können nur dann von der Stelle kommen, verfügen die Computer, deren Steuerung sie unterstehen, über ein gerüttelt Maß an "Wissen" über die optimalen, zu den einzelnen Situationen am besten passenden Fortbewegungstechniken. Und auch darüber, wie das rennende System mit Störungen aller Art - also mit Seitenwind, rutschender Ladung, rutschigem Untergrund, Löchern im Boden und so weiter - am sichersten fertig wird.

Hält man sich die Wichtigkeit dieses "allgemeinen Bewegungswissens" für die in Entwicklung stehenden Systeme vor Augen, so sieht man, daß man es auch hier mit Künstlicher Intelligenz zu tun hat - nur, daß diese Maschinen eben nicht mit verschiedenen Formen von Sätzen, sondern mit verschiedenen Formen von Gelände und Bewegungsart zurechtzukommen haben. Und deshalb gehört zu den Aufgaben der MIT-KI-Forscher auch das Studium lebender Mäuse, Ratten, Hunde, Pferde und sogar Eichhörnchen...

Bei diesen Vierbeinern wollen Raibert und seine Kollegen nun nicht nur herausfinden, ob diese Tiere denn eigentlich "mit symmetrischer Balance und Lastverteilung" laufen, sondern beispielsweise auch, ob man einfach anhand eines simplen Masse-Feder-Modells sowie ferner anhand der zugehörigen sogenannten "Groucho"-Kennzahl mathematisch korrekt vorhersagen kann: Ab dem und dem Tempo und unter den und den Umständen wird ein laufender Vierbeiner vom Trab in den Galopp übergehen.

Wie koordinieren Tiere ihren Bewegungsablauf

Weitere Fragen mit absolut ernsthaftem KI-Hintergrund betreffen die Koordination der Beine, denn man weiß heute noch nicht, ob diese Koordination eigentlich dadurch erfolgt, daß das Tier versucht, die Kräfte, mit denen die vier Beine jeweils den Boden belasten, auf gleiche Werte zu bringen.

Oder doch nach anderen Gesetzmäßigkeiten? Und gern würde Raibert auch wissen, ob man den Steuerungsmechanismus, mit dem ein Vierbeiner seine Körperhaltung in der Sagittalebene - sie geht vom Bauch zu Rücken mittig durch den Körper - stabilisiert, durch einen einzigen Parameter repräsentieren kann. Und zwar vielleicht konkret durch jenen, der die Verteilung der Massen innerhalb des tierischen Körpers auf die knappe Formel j = J/(md2) bringt?

Einbeinige Roboter hüpfen im Raum herum

Experimente und Überlegungen dieser und anderer Art führen mit der Zeit zu verblüffenden Erfolgen. Denn nicht nur Raibert hat einbeinige Roboter entwickelt, die - computergesteuert und mit einer Art "Wissen" über die jeweils nötigen Korrekturbewegungen versehen - frei im Raum umherhüpfen können und dabei sogar kurze, störende Stöße von der Seite her elegant wieder auspendeln. Er hat auch flott laufende Zweibein-Systeme geschaffen, die sogar Saltos schlagen können; Und sogar trabende Vierbein-Maschinen kann man schon bewundern.

Daß diese Art experimenteller Maschinen nun allerdings ausgerechnet einem KI-Labor entspringen sollen, verblüfft auf den ersten Blick doch ein wenig. Wiewohl kurzes Nachdenken rasch klar macht: KI muß ja nicht unbedingt mit "Denken" zu tun haben.

Und auch das Gehenlernen ist ja, beispielsweise für Babys, durchaus eine Leistung, bei der zunächst einmal komplizierte Techniken der Muskelkoordination erlernt werden wollen...