Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.07.1988 - 

Künstliche Intelligenz: Ein weites Feld mit verschwimmenden Grenzen (I)

Neue Gedanken durch algebraische Methoden

Computer sind noch kein halbes Jahrhundert alt - und dennoch schon viel weiter gereift, als vor 30 oder 40 Jahren für möglich gehalten wurde. Als "Expertensysteme" stellen sie bereits fachlich fundierte Diagnosen und geben Ratschläge, sprechen und verstehen Gesprochenes oder analysieren Bilder. Anscheinend sind Expertensysteme auf dem besten Weg, intelligente Wesen zu werden.

Die Entwicklung der altvertrauten Rechner zu Systemen mit immer "intelligenterem", dem Denken und Handeln ihrer Schöpfer immer mehr ähnelndem Verhalten ist Gegenstand des weiten Feldes der Künstlichen Intelligenz (KI beziehungsweise "Artificial Intelligence": AI). Vom Bau solcher KI-Systeme träumte in den 40er Jahren zwar schon der Rechnerpionier Konrad Zuse, doch heute setzt die Fachwelt meist das Jahr 1956 als Geburtsjahr aller späteren KI/AI-Maschinen an. Denn damals tauchte das Wort Artificial Intelligence erstmals im Zuge eines wissenschaftlichen Seminars auf: Es findet sich in der Einladung zum historischen "Dartmouth Summer Research Project of Artificial Intelligence" am renommierten Dartmouth-College.

Ideen zur KI schon um 1270

Hat die wissenschaftliche Welt sich auch erst 1956 erstmals konzentriert mit Überlegungen befaßt, wie man Rechner wohl zur Bearbeitung von Problemen heranziehen könne, deren Lösung ein gewisses Maß von Intelligenz voraussetzt - also etwa zum Entwickeln eines mathematisch sinnvollen, formell korrekten Beweises anhand logischer Grundannahmen - so ist der Grundgedanke, man müßte das Losen von Problemen doch eigentlich mechanisieren können, schon um einiges älter.

Denn, so erinnerte auf einem IBM-Presseseminar Dr. Hans-Joachim Novak - er arbeitet an einem großen KI-Forschungsprojekt des Rechner-Herstellers mit - "schon um 1270" beschäftigte sich der Philosoph Raimundus Lullus in seinem Werk "Ars Magna" damit, "Wahrheit zu finden, ohne zu denken oder Sachverhalte zu erforschen". Und gute fünf Jahrhunderte später bemühte Gottfried Wilhelm Leibniz sich konkret um die Konzeption einer neuen Art von Algebra: Sie sollte "die Darstellung von Gedankengängen" erlauben und damit einen Weg eröffnen, auf dem man "durch algebraische Manipulationen, die automatisiert werden können," Gedanken verfolgen und sogar "neue Gedanken entwickeln" könnte.

Weitere wichtige Daten im Zuge eines Rückblicks auf die Wurzeln der KI sind die Jahre 1864, 1947, 1950 und 1955. Im Jahr 1854 versuchte der Mathematiker George Boole in seinem berühmten Werk "Laws of Thought", Regeln des Denkens aufzustellen, die in mathematischen Theorien der Logik und der Wahrscheinlichkeit gründen, während der gleichfalls britische Rechnerpionier Alan M. Turing 1947 untersuchte, "auf welche Weise bei Maschinen intelligentes Verhalten herbeigeführt werden kann".

1950 zeigte der amerikanische Nachrichtentechniker Claude Shannon von den Bell Labs in einem grundlegenden Beitrag, daß Computer dem Prinzip nach Schach spielen können müßten wobei er hier gleichzeitig die elementare Idee der symbolischen Programmierung entwickelte. Und fünf Jahre später schließlich präsentierte Alex Bernstein dann auch "das erste Schachprogramm, das für einen Computer IBM 704 geschrieben war", wie Novak in Erinnerung rief. Jener Rechner allerdings hatte, anders als heutige PCs, nicht etwa 1 MB, sondern nur 7 KB Hauptspeicher.

Als Ahnherrn und Vorläufer aller späteren Programme aus dem Bereich der Künstlichen Intelligenz sehen Fachleute heute den "Logic Theorist" der US-Computerwissenschaftler Allen Newell und Herbert A. Simon aus dem Jahre 1956 an. Er machte insbesondere dadurch von sich reden, daß er für ein mathematisches Problem einen Beweis fand, der bis dahin unbekannt war.

1956 - hier nun sind wir also wieder bei jenem vielzitierten, zwei Monate laufenden Dartmouth-Seminar mit seinen ganzen zehn wissenschaftlichen Teilnehmern. Zu ihnen gehören vier der prominentesten KI-Protagonisten der Frühzeit, nämlich der Stanford-Forscher John Mc Carthy, der MIT-Mann Marvin Minsky (Massachusetts Institute of Technology, Cambridge), und die beiden CMU-Forscher Allen Newell und Herbert A. Simon (Carnegie-Mellon-University, Pittsburgh).

Diese vier vor allem, aber auch eine laufend großer werdende Schar von Mitarbeitern und in gleicher Richtung forschenden Wissenschaftlern, trieben die KI in den folgenden Jahren unter der zentralen Arbeitshypothese, "die Funktion des menschlichen Gehirns kann als Abfolge von Arbeitsschritten aufgefaßt werden" voran. Und die junge KI-Gilde habe nun eben bloß noch herauszufinden, "welcher Art diese Verarbeitungsschritte sind und wie sie durchgeführt werden".

Ausgangspunkt des Dartmouth-Seminars war seinerzeit die plausibel klingende Annahme erinnert Novak, "jeder Aspekt intelligenten Verhaltens" müßte "im Prinzip so exakt beschrieben werden können", daß "entsprechend programmierte Maschinen dieses Verhalten simulieren" können. Und denkt man diesen Ansatz weiter, so bietet sich als Definition der KI demnach die Aussage an, KI sei "das Untersuchen geistiger Fähigkeiten anhand von Computer-Modellen".

An dieser Stelle warnte Novak nun ausdrücklich davor, aus einer gelungenen Computer-Simulation geistiger Vorgänge gleich schon Rückschlüsse auf die Art der Verarbeitung im Gehirn des Menschen ziehen zu wollen. Das nämlich sei wegen der "beträchtlichen" Unterschiede zwischen Gehirn und Rechner nicht möglich. Und auch vom Wort Intelligenz solle man sich besser nicht irreleiten lassen. Denn es gehe bei der KI ja "nicht primär" darum, etwa die Talente herausragender Wissenschaftler und Experten zu simulieren, sondern vielmehr um das bessere Verstehen und das Nachbilden "alltäglicher Fähigkeiten" wie Sehen, Hören und Sprechen.

Will man das Wesen der KI möglichst korrekt erfassen, so bietet sich eine Gegenüberstellung mit der Psychologie - die ja gleichfalls geistige Fähigkeiten untersucht - an. Dann sieht man nämlich, daß Psychologen primär an Experimenten und empirischen Befunden interessiert sind, KI-Forscher aber "anfunktionsfähigen Programmen". Und daß letztere sich außerdem "auf keine bestimmte Methode festlegen" möchten, wollen sie intelligentes Verhalten nachbilden. Was wiederum zur Folge hat, hob Novak hervor, daß "KI-Methoden" sich "sehr" von jenen Prozessen unterscheiden können, die "als Verarbeitungsvorgänge beim Menschen angenommen" werden.

Die Künstliche Intelligenz umfaßt vier Kerngebiete

Jeder, der einen klaren Überblick über das vielfach verwirrend sich darbietende Gebiet der KI sucht, wird alsbald vier Kerngebiete abgrenzen können, in denen die grundlegenden KI-Methoden und -Techniken entwickelt werden. Sie laufen unter den Bezeichnungen

- Heuristisches Suchen,

- Problemlösen und informelles Schließen,

- Repräsentation von Wissen,

- KI-Systeme und KI-Programmiersprachen.

Im Bereich des heuristischen Suchens befaßt man sich mit Problemen wie dem bekannten "Zauberwürfel" Rubiks; mit derart komplexen Problemen also, daß man sie, infolge der enormen Vielzahl von Möglichkeiten, nicht einfach durch "Ausprobieren" lösen kann.

Zum heuristischen Suchen gehört beispielsweise auch die Behandlung des bekannten Problems des Handlungsreisenden, der eine große Zahl von Orten möglichst wege-, zeit- und kostensparend besuchen will. Hier war es noch vor kurzem schon bei 20 Städten nicht mehr möglich, stets eine befriedigende Lösung zu finden, merkte Novak an, doch heute klappt das sogar bei 600 Orten. Und dies trotz der "kombinatorischen Explosion", mit der man es ja stets zu tun bekommt.

Dabei steigt die Zahl der Wege-Möglichkeiten stark. Denn das heuristische Suchen erlaube heute eben schon das Finden von Lösungen, ohne daß alle an sich denkbaren Möglichkeiten wirklich in Betracht gezogen und sozusagen ausprobiert werden müßten. - Übrigens: Grafentheoretische Überlegungen, die Kombinatorik und Optimierungsverfahren gehören zu den wichtigen Disziplinen, die in das Gebiet des heuristischen Suchens stark hereinspielen.

Das zweite der KI-Kerngebiete befaßt sich mit den Techniken des Problemlösens, die wir Menschen im allgemeinen ganz unbewußt anwenden, sowie mit der Frage, wie diese Techniken in Programme umgesetzt werden können. Auch werden hier unter dem Rubrum "Informelles Schließen" jene oft seltsam anmutenden Schlußregeln unter die Lupe genommen, die der Mensch zwar häufig anwendet, die er aber mit den Mitteln der formalen Logik nur schwer beschreiben kann. Denn beispielsweise aus der Aussage "Karl ist Bankier" leiten wir Menschen ja generell, wenngleich aber nicht zwingend logisch, die Folgeaussage ab: "Karl ist reich".

Acht Damen auf einem Schachbrett

Soll ein Computer im Zuge einer heuristischen Suche die Frage beantworten, wie man acht Damen auf einem Schachbrett so plazieren kann, daß sie einander in keiner Weise bedrohen, so muß man dazu erst noch ein Problem aus dem Kerngebiet drei, "Repräsentation von Wissen", lösen. Denn es gilt ja, den Transistoren der Maschine irgendwie "mitzuteilen", was ein Schachbrett ist, und was im gegebenen Problem alles an Schach-Regeln zu beachten ist. Was eben bedeutet, sagt Novak, wir müssen "Techniken zur computerinternen Darstellung von Wissen" entwickeln.

Das letzte der vier KI-Kerngebiete schließlich behandelt die Frage, wie man umfangreiche KI-Programme zweckdienlich aufbaut und wie man ihren Ablauf steuert. Außerdem wird hier an Programmiersprachen gearbeitet, die aufgrund besonderer Mechanismen besonders geeignet sind, Fragestellungen der KI zu behandeln. Wobei hier unter anderem auch, wie Novak betont, nach Wegen gesucht wird, umfangreiche Probleme nicht nur sequentiell, sondern auch parallel - und damit natürlich schneller - zu behandeln.

Betrachtet man im Zuge dieses allgemeinen Überblicks nun schließlich noch einige wichtige Anwendungsmöglichkeiten jener neuen Techniken, die aus der Bearbeitung der vorstehend skizzierten vier Kerngebiete erwachsen, so tut sich eine breite Landschaft auf. In ihr findet sich beispielsweise auch der Bereich der Robotik, die sich mit der Entwicklung intelligenter Sicht- und Handhabungssysteme befaßt; also mit Industrierobotern samt angeschlossenen TV-Kameras, die für verschiedene Aufgaben programmiert werden können.

Diese Art von KI-Robotern wiederum setzt auf Entwicklungen aus dem Teilbereich des maschinellen Sehens auf, das wiederum das automatische Erkennen bestimmter, vom TV-System erfaßter Objekte zum Ziel hat. Dabei ist zu klären, wie der Rechner die aufgenommenen Bilder beziehungsweise Bild-Daten eigentlich zu verarbeiten hat, um möglichst effizient des angestrebte Ziel zu erreichen, um die Bilder also ebenso rasch wie korrekt interpretieren zu können.

Für industrielle Aufgaben, in denen die Umgebungsbedingungen in engen Bereichen konstant gehalten werden können, und bei denen man es nur mit wenigen Teilen unterschiedlicher Art zu tun hat, sind bereits Verfahren zum automatischen Erkennen von Werkstücken - sowie zur Prüfung der Qualität bestimmter Werkstücke mit Hilfe optischer Techniken - im Einsatz.

Am weitesten in die kommerzielle Nutzung vorgedrungen sind unter allen KI-Anwendungen die berühmten Expertensysteme, die, in abgegrenzten Problemfeldern, das Wissen und das Handeln eines menschlichen Fachmanns nachvollziehen. Hier allerdings steht man heute vor dem großen Problem, meint Novak, daß Verfahren, die etwa für den Bereich "A" entwickelt wurden, "nur in seltenen Fällen auf einen anderen Bereich übertragen werden können". Deshalb hat ein wichtiger Schwerpunkt der Forschung heute die Erarbeitung allgemeingültiger Methoden zum Ziel, nach denen künftig ein Expertensystem für beliebige Anwendungen entwickelt werden könnte.

Ähnliche Ziele werden aber auch im Bereich des automatischen Programmierens verfolgt, wo man ja heute nach Verfahren sucht, mit denen Probleme exakt beschrieben werden können. Und zwar soll diese Beschreibung dann jeweils gleich so treffend sein, daß hinterher "automatisch ein Programm zur Lösung des Problems erzeugt werden kann."

Besonderes Interesse verdient im Lande der KI gewiß der Bereich "natürlichsprachliche Systeme", denn hier arbeitet man an Methoden, mit denen ein Rechner einzelne Sätze oder gar ganze Texte inhaltlich "verstehen" soll. Nur: Was bedeutet in diesem speziellen Zusammenhang nun eigentlich das Wort "verstehen" ? Laut Novak hat ein System einen Text erst dann "verstanden", wenn es zunächst "eine Bedeutungsdarstellung des Texts erzeugt und gespeichert" habe und wenn es anschließend auch noch "Aussagen über den Inhalt des zuvor Gespeicherten", also "Paraphrasen des Texts", erzeugen könne; oder auch wenn es wenigstens einige Fragen die den Inhalt des Texts betreffen korrekt beantworten könne.

Man muß also sehen, daß zu einem natürlichsprachlichen System notwendig "eine Äußerungsmöglichkeit" gehört - denn sonst kann man ja überhaupt nicht prüfen, was die Maschine da denn nun eigentlich verstanden hat. Und daraus wiederum folgt, betont der KI-Experte, "ein System, das Sprache in einem gewissen Umfang verarbeiten kann", ist "erst dann ein natürlichsprachliches System", wenn eine "semantisch-pragmatische Verarbeitung erfolgt"; wenn der eingegebene Text also "nach Bedeutungs- und Kontextorientierten Gesichtspunkten verarbeitet" wird.

Daraus geht unter anderem hervor, daß Joseph Weizenbaums berühmter KI-Klassiker, das psychologisch orientierte Frage-und-Antwort-System "Eliza", "kein natürlichsprachliches System ist, denn hier finden nur einfache Techniken des Muster-Vergleichs (pattern matching) Verwendung. "Natürlichsprachliche Systeme" sind mithin weit mehr als Eliza und ähnliche Entwicklungen, bei denen ja nur einfach "alle möglichen Eingaben von vornherein zusammen mit den Antworten gespeichert sind", wie Novak seinen Zuhörern ins Stammbuch schrieb.

"Automatisches Beweisen" nennt sich ein weiterer KI-Anwendungsbereich, bei dem es anfangs "nur" um den automatischen Beweis mathematischer Sätze auf Basis der grundlegenden Axiome der Mathematik und der Logik ging und dessen Methoden mit den Jahren erweitert und vielfältig nutzbar gemacht wurden. Während unter der Rubrik "Maschinelles Lernen" Verfahren vorangetrieben werden, die Maschinen das Erwerben von Wissen gestatten. Sie sollen dann, etwa an Hand von Beispiel-Gegenbeispiel-Paarungen, allgemeine Prinzipien für die Lösung des vorliegenden Problems ableiten können und auch noch selbständig herausfinden, ob sich ein neu gestelltes Problem nicht vielleicht einfach noch nach den gleichen Verfahren lösen lasse, wie zuvor schon ein anderes. Oder muß nach neuen Wegen gesucht werden?

Schließlich zum Bereich der "Kognitiven Psychologie", bei dem mentale Fähigkeiten der Menschen - wie etwa ihr Sehen, Sprechen und Denken - im Brennpunkt der Aufmerksankeit stehen.

Haben, meint Novak, die Geisteswissenschaften sich hier meist schon allein mit der Beschreibung der sichtbaren, nach außen wirkenden mentalen Phänomene zufriedengegeben, so hat sich einiges geändert, seit Informatiker sich immer intensiver mit den internen Verarbeitungsprozessoren des Gehirns beschäftigen.