Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.09.1985 - 

Künstliche Intelligenz:

Fluch und Segen liegen dicht beieinander (Teil 1)

Von Dr. Jörg Siekmann. Die aktuelle Diskussion über "Künstliche Intelligenz" ist kontrovers: Malen die Kritiker dieser Disziplin das Schreckgespenst einer von Maschinen regierten Welt an die Wand, erhoffen sich die Befürworter unter anderem mehr Freiraum für Kreativität und Arbeit fern von der Routine. Fest steht: Die Auswirkungen der "KI" werden nicht nur technologischer Art sein, sondern auch Bereiche beeinflussen, mit denen auf den ersten Blick kein Zusammenhang zu bestehen scheint. In drei Folgen veröffentlicht die COMPUTERWOCHE eine Einführung in diese Thematik.

Eine vielzahl menschlicher Aktivitäten wie das Planen einer kombinierten Bahn-Bus-Reise, das Verstehen natürlicher gesprochener Sprache, das Beweisen mathematischer Sätze, das Erstellen einer medizinischen Diagnose oder das Sehen und Erkennen bestimmter Gegenstände erfordern zweifellos Intelligenz - unabhängig davon, welche Definition dieses Begriffes man bevorzugt. Die "Künstliche Intelligenz" untersucht diese bisher dem Menschen vorbehaltenen kognitiven Verhaltensweisen mit Hilfe des Rechners und macht sie damit naturwissenschaftlicher Betrachtungsweise und ingenieurmäßiger Verwendung zugänglich.

Nicht zuletzt wegen der technologischen Konsequenzen solcher Forschungsergebnisse für den zukünftigen Einsatz von Computern gilt dieses Gebiet zur Zeit als ein Teilgebiet der Informatik: Viele der von der KI vorgelegten wissenschaftlichen Resultate werden zu einer entscheidenden technologischen Basis für den Einsatz von Computern im kommenden Jahrzehnt führen, und es ist bereits absehbar, daß sich die KI zu einer eigenen wissenschaftlichen Disziplin, unabhängig von der Informatik, entwickeln wird.

Die wichtigsten, nicht nur von der KI verursachten technologischen Veränderungen werden sich vor allem in zwei gesellschaftlichen Bereichen bemerkbar machen: in der Produktion und in der Verwaltung.

Die Produktion von Gütern wird durch immer stärkere Automatisierung und schließlich durch den Einsatz von Robotern gekennzeichnet sein (fully automated factory).

KI dominiert die Technik des nächsten Jahrhunderts

In der Verwaltung wird das "papierlose" automatische Büro zunächst durch Standardtechniken der Informatik und dann zunehmend durch den Einfluß von KI-Techniken geprägt sein. Dies wird weitgehende soziale Folgen haben: So wie die Mechanisierung der Landwirtschaft dazu führte, daß in den hochindustrialisierten Ländern nur noch acht bis zehn Prozent der Bevölkerung zur Sicherung der Ernährung notwendig sind (in den unterentwickelten Ländern der Dritten Welt je nach Entwicklungsgrad 50 bis 90 Prozent) so wird der Anteil der Bevölkerung der in der Verwaltung und der Produktion arbeitet, von derzeit über 50 Prozent auf geringe, der Landwirtschaft vergleichbare Prozentzahlen sinken.

Damit scheint sich der Charakter unserer Gesellschaft weitgehend zu wandeln: Von einer Gesellschaft, in der die Mehrheit zur Erhaltung der Grundbedürfnisse (Nahrung und Konsumgüter) arbeiten muß, hin zu einer Information und Wissen verarbeitenden und verwaltenden Gesellschaft, in der nur ein sehr geringer Prozentsatz der Bevölkerung zum Erwirtschaften aller Grundbedürfnisse notwendig sein wird.

Die KI ist bereits heute zu einem naturwissenschaftlichen Gebiet geworden, dessen Grundlagenforschung - wie in der Mathematik, Physik oder der Chemie auch - schon rein quantitativ von einem einzelnen Menschen nicht mehr überschaubar ist. Ein Gebiet zudem, das nach Meinung von Fachleuten - neben der Genetik - eine der Jahrhundertwissenschaften ist, die den Ausgang des 20. Jahrhunderts wissenschaftlich und technologisch so dominieren wird, wie es beispielsweise die Physik und die Chemie am Ende des vorigen und zu Beginn dieses Jahrhunderts getan haben.

Wie läßt sich ein so großes Gebiet vorstellen, und welche technologischen und sozialen Konsequenzen ergeben sich im einzelnen?

Aus einer an den Anwendungen orientierten Sicht gliedert sich die KI in fünf große Teildisziplinen, die exemplarisch jeweils an einem typischen Projekt vorgestellt werden sollen.

Dieses Teilgebiet der KI verfolgt zwei Ziele: Einmal sollen die komplexen Informationsverarbeitungsprozesse, die dem Verstehen und der Produktion natürlicher Sprache zugrunde liegen, mit rechnerorientierten Methoden exakt beschrieben und erklärt werden. Damit können dann zum zweiten die an intelligentes Sprachverhalten gebundenen Leistungen maschinell verfügbar gemacht werden, um so die Mensch-Maschine-Kommunikation durch die Entwicklung natürlichsprachlicher Systeme zu verbessern. Berühmt geworden und paradigmatisch ist Winograds System**, in dem der Benutzer einen erstaunlich natürlichen Dialog mit einem "Hand-Eye"-Roboter führen kann.

Der Roboter hat einen mechanischen Arm und ein Fernsehauge, die beide an einen Computer gekoppelt sind (Bild 1).

Solche Dialogbeispiele haben Anfang der siebziger Jahre in den angelsächsischen Ländern Schlagzeilen gemacht und die Fachwelt aufhorchen lassen: Sie waren der bis dahin überzeugendste Beweis, daß man sich in der Tat mit einem Artefakt - einer künstlichen Intelligenz - wie gewohnt unterhalten kann. Die wesentliche Einschränkung lag in der vergleichsweise simplen Welt (der "blocks world") über die ein Diskurs möglich war, und dem sklavischen Charakter, den der Roboter an dem Tag legte. Gegenwärtige Systeme versuchen, komplexere "Welten" zuzulassen. Beispielsweise simuliert das Hamburger Redepartnermodell (HAM-RPM) einen Hotelmanager, der versucht, ein Zimmer möglichst positiv anzubieten.

Dabei hat sich im Laufe der letzten zehn Jahre der Forschungsschwerpunkt von den Problemen des reinen Sprachverstehens auf die zusätzlichen Probleme, die in einem Dialog auftreten, verlagert. Diese zusätzliche Problemstellung ist durch die abwechselnde Initiative der Dialogpartner, die Fähigkeit, ein Ausufern des Dialogs zu verhindern, die Rückführung des Gesprächs auf - spezielle Punkte und nicht zuletzt durch die unterschiedliche Motivation der Dialogpartner gekennzeichnet. Ein gutes Beispiel für das gegenwärtig Machbare ist der Dialog mit HAM-ANS (dem Nachfolgeprojekt zu HAM-RPM) nach Bild 2.

In allen diesen Fällen versteht das Computerprogramm die in das Computerterminal eingegebene Sprache in dem Sinn, daß es eine interne Repräsentation der ausgesprochenen Sachverhalte aufbaut und mit Hilfe einer Wissensbasis sinnvolle Antworten über diese Sachverhalte generieren kann.

Während in diesen Arbeiten die natürlichsprachlichen Sätze über ein Terminal eingegeben werden müssen, haben andere Forschungsgebiete die Untersuchung gesprochener Sprache zum Gegenstand.

Um gesprochene Sprache zu verstehen, müssen die Schallwellen eines gesprochenen Wortes verglichen werden, um zunächst die syntaktische Abfolge der Wörter zu analysieren. Das Problem ist nun, daß das Schallmuster eines Wortes je nach Stellung im Satz und je nach Sprecher sehr verschieden sein kann und zudem noch aus einem Geräuschpegel herausgefiltert werden muß.

Die unmittelbaren Anwendungen solcher Grundlagenforschung liegen in der Kopplung eines natürlichsprachlichen "Front-ends" mit einem Informationssystem, einer Datenbasis oder einem Expertensystem, ebenso wie in der Roboterkontrolle und der sprachlichen Anweisung technischer Geräte.

Die technologischen Konsequenzen sind offensichtlich, und amerikanische und japanische Firmen und Forschungszentren haben auf diesem Gebiet erhebliche Investitionen getätigt. In Deutschland (Berlin, Erlangen, Hamburg, Saarbrücken) sind auf diesem Gebiet dem Ausland vergleichbare Anstrengungen unternommen worden.

In diesem Gebiet werden Programmsysteme entwickelt, die Aufgaben erfüllen, wie sie bisher menschlichen Spezialisten vorbehalten waren. Eines der ersten war das System "Dendral", das durch die Untersuchung einer Massespektralanalyse Rückschlüsse auf die chemische Struktur der untersuchten Moleküle zieht. Die Leistungsfähigkeit ist mit jener hochausgebildeter Chemiker vergleichbar, in Spezialfällen ist sie ihnen sogar überlegen.

Ein ebenfalls berühmt gewordenes System ist "Mycin", ein Expertensystem mit stark eingeschränktem natürlichsprachlichem Zugriff, das eine medizinische Diagnose für bestimmte bakteriologische Krankheiten erstellt und einen Therapievorschlag macht. Die Leistungsfähigkeit liegt weit über den Fähigkeiten "normaler" Ärzte und wird, solange es sich um dieses stark eingeschränkte Fachgebiet handelt, nur noch von einzelnen universitären Spezialisten übertroffen. Das Problem liegt zur Zeit vor allem darin, daß ein solches System nur für einen engen Fachbereich "zuständig" ist und nicht "weiß", wann dieser Bereich der eigenen Expertise verlassen wird.

Ein medizinisches Expertensystem [MED 1] [Internist] hat im allgemeinen das Wissen über spezielle Krankheiten und deren Erreger ebenso einprogrammiert wie die möglichen Therapien dieser Krankheiten: Der behandelnde Arzt sitzt vor dem Terminal und gibt über die Tastatur seine Beobachtungen in einem Dialog in natürlicher Sprache (oder in Menüs) ein. Zum Betspiel: "Wir haben hier den Patienten Jeremia Sampel; der hat 41 Grad Fieber. Er ist bereits seit sechs Wochen bei uns im Krankenhaus. Wir haben folgende Proben und Tests mit ihm gemacht." Auf Rückfragen des Systems gibt der Arzt die gesamten Daten und alles, was er über den Patienten weiß, ein. Nach jeder Eingabe fragt das System zurück, und zwar zunehmend gezielter: "Haben Sie bereits einen Abstrich aus dem Mund gemacht, und was war der Befund des Labors?" Das System beginnt, eine immer aktivere Rolle in dem Dialog zu spielen, denn nun hat es bereits intern verschiedene Hypothesen über die mögliche Krankheit aufgestellt und versucht, diese zu belegen beziehungsweise zu widerlegen. Zum Schluß bricht es den Dialog ab und gibt eine Diagnose an, die auf Wunsch detailliert begründet werden kann.

Eine solche medizinische Diagnosesituation ist typisch für viele nichtformalisierbare Wissenschaftsgebiete und erfordert daher die Weitergabe des Wissens durch Bücher und durch die "Praxis", wobei die Fähigkeiten von jeder Generation immer wieder neu gelernt werden müssen.

Die bisher durch Menschen über die Generationenfolge weitergereichten Fähigkeiten verschiedener Wissensgebiete problemspezifisch verfügbar zu machen und historisch zu konservieren, ist langfristig das Ziel dieser Bestrebungen, während die augenblicklichen Erfolge durch Expertensysteme für technische Anwendungen erzielt wurden.

Für die verwendeten Methoden ist es natürlich unerheblich, ob das System einen Menschen diagnostiziert oder ein technisches Gerät, da die Problemlösungsstrategie für Diagnostik-Probleme weitgehend ähnlich ist. Wenn man beispielsweise die Wissensbasis mit Wissen über Otto-Motoren aufbaut, hat man ein Expertensystem für deren Fehlerdiagnose.

Ebenso lassen sich Expertensysteme für andere technische Geräte, für die Geologie (Suche nach Rohstoffen) oder für die Fehlerdiagnose von Computern bauen. DEC (Digital Equipment Corporation) beispielsweise setzt ein Expertensystem zur Anlagenkonfigurierung ihrer VAX-Rechner bereits praktisch ein.

Obwohl hiermit bereits ein großer industrieller Anwendungsbereich erschlossen wurde, sind viele Grundlagenprobleme nach wie vor ungelöst: beispielsweise die Kopplung mehrerer Expertensysteme, die ihr Wissen austauschen können, die Darstellung hierarchisch geordneten Wissens, die adäquate Ausnutzung zeitlicher Veränderungen und kausaler Zusammenhänge zur Problemlösung, Lernen durch Erfahrung und anderes. Außerdem sind die Bereiche, in denen Expertensysteme ihr Können zeigen, bisher viel zu schmal: Beispielsweise ist Mycin zwar den meisten Ärzten weit überlegen, wenn es sich um die Diagnose einer bakteriologischen Krankheit handelt, die es kennt, aber völlig hilflos, wenn es darum geht zu entscheiden, daß überhaupt ein solcher Krankheitstyp vorliegt.

Das Hauptproblem liegt jedoch noch immer im Bereich des "commonsense-reasoning", also des Alltagswissens, das für die Entscheidungsfindung oftmals fundamental ist. Im Schlagwort: "Expertensysteme können die Intelligenz eines Spezialisten, aber nicht die eines dreijährigen Kindes simulieren."

Trotz dieser ungelösten Grundlagenprobleme sind die bereits existierenden Expertensysteme - zusammen mit der Verarbeitung natürlicher Sprache - in ganz besonderer Weise geeignet, falsche Vorstellungen über die angeblichen Grenzen eines Computers zu korrigieren und zu demonstrieren, wie weit es bereits gelungen ist, Fähigkeiten auf dem Computer zu realisieren, die bisher nur menschlicher Intelligenz vorbehalten waren.

In Deutschland werden auf diesem Gebiet erst seit neuerem eigene Anstrengungen unternommen (Universität Kaiserslautern, GMD, Nixdorf, Siemens und andere), die USA sind nach wie vor führend. Um diesen Vorsprung zu verringern, unternehmen die europäischen Länder und Japan inzwischen eigene Anstrengungen. In Deutschland sind folgende Förderprogramme angelaufen: "Wissensbasierte Systeme" des BMFT und "SFB: Künstliche Intelligenz" der DFG.

Daß Rechenanlagen auch das Beweisen mathematischer Sätze übernehmen können - zumindest von Routinebeweisen - ist relativ neu: Erst die technische Entwicklung der letzten zehn Jahre stellte genügend leistungsfähige Rechenanlagen und Programme bereit, die es erlauben, diese schon von Leibniz geträumte Vorstellung in die Tat umzusetzen.

Inzwischen hat das Beweisen durch den Computer zahlreiche Anwendungen in der Informatik gefunden, die von der Logik als Programmiersprache über die Programmsynthese und die Programmverifikation reichen bis hin zum Beweisen der Fehlerfreiheit von vorgelegten Hardwarekonfigurationen, beispielsweise von Schaltkreisen, aber auch von Steuerungen von Atomreaktoren oder allgemeinen Organisationsstrukturen.

Die im Augenblick relevanteste Anwendung von Deduktionssystemen dürfte in der Programmverifikation liegen. Dazu wird das Programm, von dem man wissen möchte, ob es korrekt ist, zunächst spezifiziert und dann durch ein anderes Programm analysiert. Dieses analysierende Programm hat den technischen Namen "Verifikationsbedingungsgenerator": Nach der Analyse druckt es eine Reihe mathematischer Theoreme aus - die Verifikationsbedingungen - , und wenn diese als mathematisch wahr nachgewiesen werden können, dann ist das ursprüngliche Programm korrekt. Im Laufe einer solchen Analyse können nun Hunderte von Verifikationsbedingungen ausgedruckt werden, die alle bewiesen werden müssen - eine Sisyphusarbeit, die man besser einem Computer überläßt!

Wie funktioniert ein solches Computerprogramm zum automatischen Beweisen? Zunächst müssen alle Aussagen in eine logische Sprache, die der Computer verarbeiten kann übersetzt werden. Die meisten Systeme verwenden den Prädikatenkalkül erster Stufe als Eingabesprache, es gibt aber auch Beweissysteme für Logiken höherer Stufe und für entsprechend angereicherte Lambda-Kalküle.

Beweissysteme sind philosophisch unvollkommen

Damit greift dieses Gebiet sehr alte geistige Traditionen wieder auf: Erst nach vielhundertjähriger Reflexion über das, was man in der Mathematik und allgemein in der Philosophie als Beweis ansah, gelangte man zu jenem Kondensat, das man heute als Prädikatenkalkül (erster Stufe) kennt: Aristoteles erkannte das Regelhafte, Schematische vieler Schlüsse, Leibniz schlug den "calculus ratiocinator" vor, Boole betrieb eine mathematische Analyse der Logik, und Frege schließlich schrieb eine "Begriffsschrift" des Denkens, die den heutigen Prädikatenkalkül begründete.

Beweise werden dadurch geführt, daß man aus bereits bewiesenen oder als wahr unterstellten Aussagen (den Axiomen) A1, A2, . . ., An die zu beweisende Aussage B herleitet:

A1, A2, . . ., An ?B

Solch eine Beweismethodik kann man als positiven oder direkten Beweis im Gegensatz zu dem indirekten Beweis ansehen. Beim indirekten Beweis nimmt man das Gegenteil der zu beweisenden Ausage an, nämlich ?B, und leitet dann zusammen mit den Voraussetzungen A1, A2, ..., An, einen Widerspruch ab. Das durchaus nicht unbezweifelte, aber in der klassischen Logik unterstellte Tertium non datur gestattet dann, zu behaupten, daß B wahr sein muß, weil ja gerade die Annahme ?B zu dem Widerspruch führte. Bezeichnet man den Widerspruch mit dem unspezifischen Zeichen ž, da es auf die Art des Widerspruchs gar nicht ankommt, solange nur irgend zwei einander widersprechende Aussagen D, ?D zusammen hergeleitet werden können, so kann der indirekte Beweis also so symbolisiert werden:

A1, A2, ..., An, ?B, ?ž.

Doch wie geschieht die Herleitung selbst? Sie kann in kleinsten Schritten nach der folgenden Regel erfolgen:

A

A - > B

-----------

B

Der "gesetzte Fall" (Modus ponens) symbolisiert den logischen Schluß "wenn A wahr ist und wenn A die Aussage B impliziert, dann ist auch B wahr". Meist aber ist die erste Prämisse des Modus ponens selbst zusammengesetzt, und daher ist die folgende Regel besser zu verwenden:

A v C

A - > B

----------

B v C

Verwenden wir noch die Gleichwertigkeit von A - >B und ?A v B, so entsteht aus der letzten Regel die Resolutionsregel:

A v C

?A v B

---------

B v C

In der Dekade von 1965 bis etwa 1975 lag der Schwerpunkt der Forschung darauf, Verfahren zu entwickeln, die nicht mehr jeden prinzipiell möglichen Resolutionsschritt zulassen, sondern aus der Unzahl potentiell möglicher Deduktionsschritte "geeignete" Schritte auswählen. Heute sind weit über hundert solcher als "Refinements" bezeichnete Verfahren bekannt, die den Suchraum teilweise drastisch einschränken. Obwohl solche "Refinements" heute zum Standardrepertoire jedes Beweissystems gehören, setzte sich die bis heute nicht unumstrittene Erkenntnis durch, daß allein auf der Basis solcher Einschränkungen keine wirklich leistungsfähigen Beweissysteme gebaut werden können.

Das Resolutionsverfahren wurde bisher am meisten und besten untersucht; es hat jedoch auch unverkennbare Nachteile. Zum Beispiel müssen die Prämissen in eine bestimmte Normalform gebracht werden, wodurch die Struktur der Zusammensetzung der Aussagen in den meisten Fällen völlig abgeändert, ja zerstört wird und ebenso die gesamte Aussage (exponentiell) aufgebläht werden kann.

Aus diesen und anderen Gründen sind in letzter Zeit auch andere, nicht resolutionsartige Beweisverfahren untersucht worden.

Ein Deduktionssystem, das heute zu den leistungsfähigsten Systemen im internationalen Vergleich zählt, wurde an den Universitäten Karlsruhe und Kaiserslautern entwickelt und heißt (nach dem Gründer Karlsruhes) die "Markgraf Karl Refutation Procedure" (MKRP). Diesem System gibt man eine mathematische Aussage ein, die analysiert und entsprechend aufbereitet wird, um schließlich von dem System bewiesen zu werden. Diese Beweissuche vollzieht sich in einem speziell für Computeranwendungen entwickelten Kalkül: einer auf dem Resolutionsverfahren basierenden Graph-Such-Methode, in der besonders gut heuristische Suchverfahren realisiert werden können. Der so gefundene Beweis - wenn er gefunden wird - ist für Menschen im allgemeinen schwierig zu lesen; er wird darum in eine verständlichere logische Sprache übersetzt (Gentzen Kalkül) und soll dann in die natürliche Sprache eines Mathematikers transformiert werden. Gegenwärtig arbeiten die Projektmitarbeiter daran, ein ganzes mathematisches Lehrbuch von dem Computer beweisen zu lassen, um damit gleichsam das erste "maschinengeschriebene Mathematikbuch" zu erzeugen. Das MKRP-System hat - ebenso wie andere, amerikanische Systeme - relativ schwere offene mathematische Probleme beweisen können.

Die "Klötzchen-Welt" gilt nur als Vehikel

Die auf dem Gebiet der Deduktionssysteme entwickelten Inferenzmethoden und die Methoden zur logischen Repräsentation von Wissen sind fundamentale Bestandteile von Computerintelligenz und zum Teil methodologische Grundlage der übrigen KI-Gebiete. Insbesondere sind Deduktionssysteme und Expertensysteme eng miteinander verwandt, und diese Gebiete könnten langfristig durchaus wieder zusammenwachsen.

Die Entwicklung computergesteuerter Roboter wurde bereits Ende der sechziger Jahre in den USA und in England kräftig vorangetrieben. Zum Beispiel konnte der in Edinburgh (England) entwickelte Roboter Freddy ein hölzernes Spielzeugauto, das man vor seinem Fernsehauge zerlegt und einmal exemplarisch wieder zusammengebaut hatte, aus den Einzelteilen selbständig zusammenbauen.

Der in Stanford (USA) entwickelte Roboter Shakey "lebte" in einer überdimensionalen "Klötzchenwelt". Während bei dem schon erwähnten Hand-Eye-Roboter von Winograd die Klötzchen klein und der Arm relativ groß waren, ist es bei Shakey also genau umgekehrt.

Robotik entwickelt sich als eigene Wissenschaft

Man konnte dem Roboter Anweisungen geben, wie: "Bring den großen roten Block aus Zimmer A nach Zimmer B!" Der Roboter entwickelte einen Plan, wie das am besten zu bewerkstelligen war, und führte diesen dann aus. Wenn man ihn zum Beispiel anwies, einen Block von dem Podest in Zimmer B zu holen, merkte er, daß er nicht auf das Podest gelangen konnte, und holte sich eine Rampe, über die er auf das Podest rollen und den Block holen konnte.

Ausgehend von dieser Grundlagenforschung hat sich die Robotik als eigene wissenschaftliche Disziplin in der KI etabliert, wenn auch bisher mit wenig Einfluß auf die heutige Robotergeneration, in der Hardwareprobleme und aus der industriellen Anwendung resultierende Spezialprobleme im Vordergrund stehen.

Die künftigen industriellen Roboter werden jedoch zunehmend auf Methoden der KI basieren und eine (eingeschränkte) Eigenintelligenz haben, die sie zu einer die weitere Automatisierung entscheidend prägenden Produktivkraft macht. Dieses Gebiet zeigt besonders anschaulich, mit welchem Tempo der Verlust wissenschaftlicher Wettbewerbsfähigkeit zu einem Verlust industrieller Wettbewerbsfähigkeit führen kann: Die Grundlagenforschung wurde vor rund 15 Jahren in den USA begonnen und von der deutschen Informatik weitgehend ignoriert. Heute sind in Japan über 15 000 Industrieroboter im Einsatz - wenn auch bisher mit wenig Eigenintelligenz - und es ist bekannt, daß die mangelnde Konkurrenzfähigkeit europäischer Produkte auch auf den höheren Automatisierungsgrad der japanischen Industrie zurückzuführen ist. Die Bedeutung der Roboterforschung ist in Deutschland viel zu spät erkannt worden, und es gibt bis heute wenig Grundlagenforschung und keine angemessene universitäre Ausbildung - von einer Untersuchung über zu erwartende soziale Änderungen ganz zu schweigen.

Dieser Artikel wurde von Jörg Siekmann als Gutachten im Auftrag des Bundesministeriums für Forschung und Technologie für eine gemeinsame Tagung des BMFT und der OECD erstellt. Die Aufgabe war erstens das Gebiet "Künstliche Intelligenz" einem Laien verständlich darzustellen und zweitens Zukunftsperspektiven auch über das Jahr 2000 hinaus zu entwickeln. Der Nachdruck erfolgt mit freundlicher Genehmigung des BMFT.

- Terry Winograd ist Wissenschaftler an der Stanford University