Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Fluch und Segen liegen dicht beieinander,(Teil 2)

04.10.1985

Die aktuelle Diskussion über "Künstliche Intelligenz"(Kl) ist kontrovers: Malen die Kritiker dieser Disziplin das Schreckgespenst einer von Maschinen regierten Welt an die Wand, erhoffen sich die Befürworter unter anderem mehr Freiraum für Kreativität und Arbeit fern von der Routine. Fest steht: Die Auswirkungen der "KI" werden nicht nur technologischer Art sein, sondern auch Bereiche beeinflussen, mit denen auf den ersten Blick kein Zusammenhang zu bestehen scheint. In drei Folgen veröffentlicht die COMPUTERWOCHE eine Einführung in diese Thematik.

Offensichtlich hat die Evolution das Sehen als so wichtig empfunden, daß die meisten Berechnungen, die zur Gestaltwahrnehmung nötig sind, in spezieller biologischer Hardware ausgeführt werden und der Introspektion nicht zugänglich sind. Der Rechenzeit, die unser Gehirn benötigt, um aus den visuellen Rohdaten eine Gestalt zu berechnen, kann man nur durch umständliche Versuche nahekommen - und die Rohdaten selbst, die beispielsweise das Auge an das Gehirn sendet, sind unserer Introspektion gänzlich verschlossen. Dies ist sicher auch ein Grund, warum uns das Sehen so kinderleicht erscheint, während eine später erworbene Fähigkeit, zum Beispiel das Beweisen mathematischer Sätze, als schwer angesehen wird. Dabei ist es wohl eher umgekehrt: Die ungeheure Rechenkapazität, die zum Erkennen eines einzigen Bildes notwendig ist, kann gar nicht überschätzt werden, und die Geschichte des Computersehens ist im wesentlichen die Geschichte der Entdeckung dieser Probleme.

Anwendungsspektrum wird immer breiter

Sehprogramme müssen die Linienzeichnung geschickt interpretieren und zum Beispiel merken, welche Linien zusammengehören und einen Körper repräsentieren. Und letztlich müssen diese Programme natürlich herausfinden, um welche Körper es sich handelt (Quader, Würfel, Keil) und wie sich diese Körper zueinander verhalten. Die endgültig zu berechnende Repräsentation des ursprünglichen Bildes muß also die räumliche Beschreibung liefern, daß zwei Körper in dem Bild zu sehen sind, ein Quader und ein Keil, und daß der Quader hinter dem Keil in der Zimmerecke steht.

Abgesehen von der wissenschaftlichen Fragestellung nach den Mechanismen, die eine Gestalt-Wahrnehmung ermöglichen, und den dadurch möglich gewordenen Erklärungsversuchen und Rückschlüssen auf das menschliche Sehvermögen, bietet dieses Gebiet ebenfalls technologische Anwendungsmöglichkeiten, die vom Roboterbau über medizinische Anwendungen (Reihenuntersuchungen von Röntgenbildern) bis hin zur Auswertung von Luftbildaufnahmen reichen.

Neben der Verarbeitung natürlicher Sprache ist dies sicher eines der größten und wichtigsten Untergebiete der KI, das selbst von Spezialisten kaum noch im ganzen überschaubar ist.

Für diesen Bereich sind in Deutschland ebenfalls wichtige Forschungszentren (Erlangen, Hamburg, Karlsruhe) entstanden; in der Analyse bewegter Szenen und der Kopplung von bildverstehenden mit sprachverstehenden Systemen ist die deutsche Forschung (Hamburg, Karlsruhe) international führend.

Bild 3 stellt noch einmal die wichtigsten Teilgebiet der KI - nach Methoden und Anwendungen gegliedert - zusammen.

Wie kann Geist (also ein immaterieller, informationsverarbeitender Prozeß) mit Materie in Verbindung gebracht werden? Gibt es Kategorien, die das (menschliche) Denken a priori beschränken? Wie funktioniert eigentlich die biologische Informationsverarbeitung?

Diese Fragestellungen sind klassischerweise in der Philosophie, der Psychologie oder der Linguistik gestellt worden.

Im Lichte unserer Erfahrung mit künstlichen informationsverarbeitenden Systemen bekommen solche Fragen einen neuen Sinn und die Mechanismen, die Intelligenz ermöglichen, können im Prinzip unabhängig von ihrer Trägersubstanz (der "neuronalen Hardware" oder dem Silicon- Chip) untersucht werden. Dazu haben sich an einigen amerikanischen Hochschulen Wissenschaftler aus der Philosophie, der Psychologie, der Linguistik und der Künstlichen Intelligenz zusammengeschlossen und ein neues Fachgebiet, "Cognitive Science", gegründet. Diese Fachgruppen halten inzwischen ebenfalls internationale Konferenzen ab und geben eine eigene Fachzeitschrift heraus.

Es gilt unter Zukunftsforschern als Axiom, daß Naturwissenschaftler die kuzfristig erreichbaren Ziele meist überschätzen und dann von ihren Förderungsinstitutionen kräftig gescholten werden, während sie die langfristigen Entwicklungen im allgemeinen gewaltig unterschätzen.

Für die wichtigsten Teilgebiete der KI möchte ich versuchen, eine halbwegs gesicherte Prognose (zwei bis fünf Jahre), eine weit weniger gesicherte mittelfristige (fünf bis acht Jahre) und schließlich ein mehr oder weniger spekulative langfristige Prognose (zehn Jahre und mehr) aufzustellen.

Eigene Ingenieurdisziplin entwickelt sich

Kurzfristig werden bereits bestehende Dialogsysteme in der industriellen Praxis Einsatz finden und so weit weiterentwickelt werden, daß sie als natürlichsprachliche Schnittstelle für Informationssysteme und Datenbanken ebenso wie in Expertensystemen routinemäßig eingesetzt werden. Die Verarbeitung geschriebener natürlicher Sprache dürfte sich zu einer eigenen Ingenieurdisziplin entwickeln.

Gesprochene Sprache wird als Informationsausgabe mehr und mehr vom Computer und von technischen Geräten genutzt werden. Das Verstehen gesprochener natürlicher Sprache dürfte dagegen nur langsame Fortschritte machen und kurzfristig höchstens zur Anweisung technischer Geräte durch feste Satzmuster oder durch vorgeschriebene Wörter zum Einsatz kommen.

Mittelfristig dürften textverstehende Systeme zunächst für die wissenschaftliche Literatur und die Bürokommunikation entwickelt werden. Dies wird einen starken Einfluß auf jede Art der Textverarbeitung haben. Natürlichsprachliche Dialogsysteme werden immer ausgefeilter und benutzerfreundlicher. Zum Beispiel dadurch, daß sie zunehmend bessere Partnermodelle aufbauen und Dialogstrategien verfolgen. Weiteren Preisverfall und Miniaturisierung der Hardware vorausgesetzt, werden solche Dialogsysteme in teuren technischen Geräten standardmäßig eingebaut.

Dialog vollzieht sich in gesprochener Sprache

Langfristig werden die volle Textverarbeitung und das Verstehen technischer oder wissenschaftlicher Texte durch den Computer zur Selbstverständlichkeit. Der Dialog mit technischen Geräten oder etwa dem eigenen Haus vollzieht sich in gesprochener Sprache, die Informationen über Verkehrsdichte, Zuganschlüsse oder die Tatsache, daß ich meine Aktentasche vergessen habe, wird mir von meinem Hauscomputer in gesprochener Sprache beim Verlassen mitgeteilt.

Bild- und sprachverstehende Systeme entstehen, die sowohl visuelle Information als auch sprachliche Information verarbeiten können und eine mit dem Fernsehauge beobachtete Szene sprachlich darstellen können: "Das gelbe Auto wendete auf dem Parkplatz und fuhr dann mit hoher Geschwindigkeit in Richtung Innenstadt."

Die automatische Übersetzung eingeschränkter Texte wird möglich sein und nur bei anspruchsvollen Texten eine "Nachübersetzung" vom Menschen erfordern.

Das Erstellen von Expertensystemen entwickelt sich kurzfristig zu einer eigenen Ingenieurdisziplin, in der Diagnose- und Planungssysteme für den praktischen Einsatz gebaut werden. Die technische Entwicklung führt zu Systemen mit spektakulären Erfolgen, jedoch in relativ engen Bereichen und der in den USA zu beobachtende Boom wird sich auch in Europa auswirken.

Expertensysteme fungieren als "Partner" im Beruf

Leistungsfähige Systeme für beschränkte Aufgaben dürften zum Einsatz kommen und mittelfristig in den meisten Berufen als Partner akzeptiert werden: Beispielsweise werden Chemiker oder Physiker in der Forschung ein Expertensystem zur Aufnahme und Abfrage von Daten während eines Experiments ebenso selbstverständlich benutzen, wie der Planungsingenieur oder der Manager, der eine Marktstrategie entwickelt.

In der KI-Forschung werden die Kombination verschiedener Expertensysteme und deren Wissensaustausch, die verbesserte Modellierung und Repräsentation von Sachverhalten oder Geräten und nicht zuletzt die Analyse komplexer Argumentationsketten (Argument und Gegenargument) im Vordergrund stehen. Die Gebiete der Expertensysteme und Deduktionssysteme werden sich wissenschaftlich wieder zusammenentwickeln (das ist allerdings stärker von soziologischen als von wissenschaftlichen Mechanismen abhängig) und gemeinsam sowohl Inferenzmechanismen als auch Wissensrepräsentationsverfahren entwickeln.

Insbesondere werden der Wissenserwerb und das Lernen im Vordergrund des wissenschaftlichen Interesses stehen.

Langfristig gehören Computerprogramme - die dann möglicherweise gar nicht mehr Expertensysteme heißen - zum festen Bestandteil unseres Berufslebens und werden als integraler Bestandteil technischer Produkte aufgefaßt: Eine komplexe Maschine wird sich über ein fest eingebautes Expertensystem selbst kontrollieren, einstellen und die Kommunikation mit übergeordneten, die Produktion lenkenden Programmen (oder Menschen) übernehmen. Bei einem Fehler meldet es diesen und gibt genaue Reparaturanweisungen.

Wissenschaftliches Arbeiten wird ohne ein spezielles Expertensystem undenkbar werden: Nicht nur die Verwaltung der Daten, sondern auch die Beantwortung spezieller versuchstechnischer Anfragen, Experimentiervorschläge, Aufarbeitung der Fachliteratur, Überwachung und Kontrolle von Versuchen, Abschätzung von Erfolgswahrscheinlichkeiten bis hin zum Vorschlag interessanter Forschungsthemen übernimmt dann der Computer. Die jeweils "besten" Expertensysteme eines Gebietes werden über die Generationen weitergereicht und weiter verbessert, sie bilden einen wichtigen Bestandteil des geistigen Reichtums einer Nation, der ängstlich geschützt wird.

Ähnliches gilt für die meisten anderen Berufszweige, in denen der Computer zum festen Partner in der Berufsausübung erwächst.

Die Möglichkeit, unsicheres und nicht formalisiertes Wissen mit dem Computer zu speichern und aktiv zu nutzen, wird "revolutionäre" Folgen in vielen Wissenschaftsbereichen haben, die keine formale (mathematische) Modellbildung zulassen.

Sehr langfristig wandelt sich dann unsere Vorstellung eines technischen Gerätes vollständig: Jede Maschine wird je nach eigener Komplexität (und nach seinem Preis) mit einer gewissen "Eigenintelligenz" ausgestattet sein, die es ihm gestattet, sich selbst zu kontrollieren, Reparaturanweisungen zu geben und - mehr oder weniger begrenzt - mit dem Menschen natürlichsprachlich zu kommunizieren.

Heutige Systeme sind leistungsfähig genug, um relativ einfache, aber technisch aufwendige Beweise, wie sie beispielsweise in der Programmverifikation anfallen, zu finden.

Der Einsatz in der Praxis wird sich relativ langsam vollziehen, dürfte in zirka fünf Jahren jedoch selbstverständlich sein für den Nachweis der Korrektheit ausgewählter Software, Firmware und Hardwarekonfigurationen. Die Funktionsfähigkeit technischer Geräte, der korrekte Ablauf des Produktionsflusses in einer Fabrik oder die Sicherheit eines Kernkraftwerkes beispielsweise werden spezifizierbar und durch Deduktionssysteme überprüfbar sein.

Mittelfristig werden sich auch relativ schwierige Beweise von automatischen Beweissystemen finden lassen. Die Repräsentation mathematischen Wissens wird ausreichend entwickelt sein, um beispielsweise ein mathematisches Standardlehrbuch vollständig zu beweisen.

Damit erschließen sich neue Anwendungsgebiete, wie die theoretische Physik, oder theoretische Chemie, in denen die sehr abstrakte Theorienbildung durch Deduktionssysteme überprüfbar sein wird.

Das logische Programmieren gewinnt weiter an Bedeutung, und die Prolog-basierten Rechner der fünften Generation werden als sehr effiziente und benutzerfreundliche Rechner neue Anwendungen erschließen.

Die Programmsyntheseverfahren kommen dann zum praktischen Einsatz und können zusammen mit dem logischen Programmieren einen großen Teil der heutigen (low level) Programmierarbeit überflüssig machen, ersetzen sie jedoch aus Effizienzgründen nie ganz.

Langfristig werden automatisch geführte Korrektheitsbeweise von Software, Hardware oder Firmware zum Standard. Sehr langfristig bewirken die Deduktionssysteme eine fundamentale Änderung in den formalen Wissenschaften, insbesondere der Mathematik selbst: Automatische Beweissysteme werden zusammen mit den in der Computer-Algebra entwickelten Systemen zum selbstverständlichen Werkzeug eines Mathematikers oder Theoretikers gehören, und einen Beweis läßt man dann von einer Maschine ausführen, so wie wir heute das Multiplizieren großer Zahlen einem geeigneten Gerät anvertrauen.

Kurzfristig wird sich der gegenwärtige Trend zum Einsatz von Industrierobotern mit sehr geringer "Eigeninteligenz" verstärken. Die technologische Entwicklung beschränkt sich in Zukunft nach wie vor hauptsächlich auf die Erstellung geeigneter Hardware (also beispielsweise der physischen "Arme" eines Roboters) und entsprechender Sensoren. Der gegenwärtig gravierendste Engpaß - die Bildverarbeitung komplexer Szenen in Echtzeit - wird zunächst die weitere Entwicklung intelligenter Roboter limitieren.

Langfristige Prognose erweist sich als schwierig

Mittelfristig kommen dann auch die ersten KI-Roboter zum Einsatz: Der Preisverfall von Computerhardware einerseits und der Kostenvorteil eines leicht umrüstbaren "intelligenten" Roboters andererseits erzeugen zusammen mit der möglichen Qualitätsverbesserung einen starken Automatisierungsschub. Die ersten vollautomatischen Fabriken werden gebaut.

Eine langfristige Prognose, die nicht in die üblichen Science-fiction-Szenarios abgleite, ist schwierig: Zunächst einmal wird es weniger anthropomorphe Roboter geben, als uns Zukunftsliteratur und -filme weismachen wollen: Es ist einfacher und billiger, den Arbeitsplatz in zukünftigen Fabriken auf die Bedürfnisse eines Roboters einzustellen, umgekehrt Roboter zu entwickeln, die an den bisher für Menschen gemachten Arbeitsplätzen arbeiten.

Die Vorstellung einer vollautomatischen Fabrik wird also eher die eines Gebildes von Aberhunderten von fest eingebauten mechanischen Armen, Fernsehaugen und sonstigen Sensoren sein, die von einem zentralen Computer global überwacht und von lokalen Computern gesteuert und kontrolliert werden.

Davon unabhängig gibt es jedoch im militärischen Bereich, im Dienstgewerbe und nicht zuletzt in den privaten Haushalten durchaus ein Bedürfnis nach autonomen, mobilen Robotern mit vielseitiger Einsatzfähigkeit. Inwieweit es möglich sein wird, solche, in der Science-fiction- Literatur vorweggenommenen, Roboter in der uns überschaubaren Zukunft zu entwickeln, ist schwer zu sagen. Unmöglich ist es jedenfalls nicht.

In jedem Fall jedoch werden die Anzahl und die Fähigkeiten der Roboter eines Landes diesem einen wichtigen Produktivitätsvorsprung geben und entscheidend zum Wohlstand einer Nation beitragen.

Obwohl dies sicher eine der akademisch anspruchsvollsten und auch größten Teildisziplinen der KI ist, sind die praktischen Erfolge bisher bescheiden im Vergleich zu menschlichen Fähigkeiten: Die Verarbeitung visueller Daten und die Extraktion der Gestaltinformation ist ein aufwendiges Geschäft.

Kurzfristig werden sich daher auch nur spezielle Systeme für die Erkennung wohldefinierter Gegenstände (Werkstücke) in der Praxis durchsetzen und insbesondere für die Qualitätsprüfung beispielsweise im Automobilbau) werden Vision-Systeme einsetzbar sein. Die Erkennung geometrischer Objekte über die Auswertung von Grauwertbildern (statt der bisher üblichen Binärbilder) wird industriell verwendbar. Militärische Anwendungen (die Erkennung von Flugkörpern, Leitsysteme für Raketen), Verkehrskontrolle und industrielle Roboter sind typische Anwendungsbereiche .

Die akademische Forschung wird in der Verarbeitung von Textur und Farbe Fortschritte machen; spezielle Hardware (unter anderem mit sehr vielen Prozessoren) wird entwickelt und in den Forschungslaboratorien eingesetzt werden.

Mittelfristig wird die Erkennung komplexer Gebilde (Kurven, nichtgeometrische Objekte) selbst bei ungünstigen Beleuchtungsverhältnissen möglich sein. Die Verarbeitung bewegter Bildszenen - also von Bildfolgen - gewinnt an Bedeutung. Die ersten kombinierten Sprach- und Sehsysteme werden in den Forschungslaboratorien entwickelt.

Kombination mit visueller DV wird möglich

Langfristig wird die Kombination visueller und natürlichsprachlicher Datenverarbeitung möglich und über eine gemeinsame interne Repräsentation sowohl visueller, taktiler als auch natürlichsprachlicher Daten kommt es zu einer sehr natürlichen, dem Menschen angenäherten Kommunikation.

Die Verarbeitung von Szenenfolgen wird möglich, und ebenso wird die Fähigkeit eines Computers, eine Bildszene natürlichsprachlich zu beschreiben, völlig neue Anwendungen erschließen: Zum Beispiel lassen sich Bildfolgen in einer geeigneten Datenbank abspeichern und später natürlichsprachlich abrufen. Damit wird die Überwachung von Reaktorräumen, Verkehrssituationen möglich, und ebenso die natürlichsprachliche Zusammenfassung eines so dokumentierten Vorfalles.

Forschungsergebnisse finden industrielle Verwertung

Die Künstliche Intelligenz war in den fünfziger und sechziger Jahren im wesentlichen ein reines Forschungsgebiet, und obwohl den führenden amerikanischen Wissenschaftlern der KI die potentielle wirtschaftliche und soziale Bedeutung durchaus bewußt war, gab es doch erst im Laufe der siebziger Jahre eine nennenswerte industrielle Verwertung der Ergebnisse.

Dieses zögernde Interesse der Industrie hat sich gegen Ende der siebziger Jahre in den USA gewandelt und besonders durch den massiven Einstieg der japanischen Industrie - der sehr viel langfristiger vorbereitet war, als es dem außenstehenden Beobachter heute erscheinen mag - auch einen Wandel in der Haltung europäischer Unternehmen und Regierungsstellen bewirkt.

Zur Einschätzung der wirtschaftlichen Bedeutung der KI kann man zunächst versuchen, die zukünftigen Marktanteile von KI-Produkten abzuschätzen. Für den amerikanischen Markt liegen dazu einige Studien vor, die zumindest eine Einschätzung der Größenordnung zulassen,

Wirtschaftliche Bedeutung der Kl-Produkte wächst

Eine Studie der "International Resource Development Inc.", Norwalk, Connecticut, schätzt den US-Markt für KI-Produkte für 1983 auf 66 Millionen Dollar und für 1993 auf 8,5 Milliarden Dollar, die sich wie folgt innerhalb der KI aufteilen werden (siehe Abbildung 4).

Eine Studie der "DM Data Incorporated" gibt eine genauere Aufschlüsselung der Daten für jedes Jahr von 1983 bis 1990. Der gesamte Markt wird für 1983 auf 75 Millionen Dollar und für 1990 auf 2.5 Milliarden Dollar geschätzt. Eine Zusammenstellung der einzelnen Zahlen gibt folgendes Diagramm:

So unsicher diese Zahlen sein mögen, so zeigen sie doch deutlich die wachsende wirtschaftliche Bedeutung, die man KI-Produkten beimißt.

Zur Zeit sind im amerikanischen Markt vor allem drei Gruppen von Unternehmen auszumachen (Quelle: Diebold Group, New York):

- Das klassische Wagnisunternehmen, das von oder mit Hilfe von Universitätswissenschaftlern gegründet wurde, deren Forschungsgebiet die Künstliche Intelligenz ist. Solche Firmen sind meistens sehr jung und klein. Falls das entwickelte Produkt noch nicht am Markt ist, können finanzielle Überlebensprobleme auftreten.

- Unternehmen mit ähnlichem Hintergrund, die ihre Produkte jedoch in erster Linie an andere Kl-Firmen absetzen. Ein Beispiel dieser Art sind Symbolics oder LMI.

- Etablierte Firmen, die in den KI-Markt diversifizieren. Ein typisches Beispiel sind die Ingenieur- und Beratungsfirmen Bolt, Beranek und Newman (BBN), IBM und Digital Equipment.

Insgesamt dürfte es zur Zeit etwa 100 amerikanische Anbieter geben, die Kl-Produkte vertreiben. Die Tabelle in Abbildung 5 gibt eine Auswahl.

In Deutschland haben die Firmen Siemens und Nixdorf eigene Kl-Abteilungen aufgebaut. Die GMD hat ebenfalls eine Gruppe von Kl-Wissenschaftlern gebildet.

Die geschätzten Marktanteile geben die zukünftige Bedeutung der Kl-Technologie jedoch nur ungenügend wieder. Abgesehen von der Schwierigkeit genau zu sagen, welche Produkte sich als "KI-Produkte" qualifizieren, vernachlässigen sie völlig die Bedeutung, die die informationsverarbeitende Technologie im allgemeinen und die KI im besonderen auf praktisch alle Wirtschaftszweige haben wird.

Eine bessere Einschätzung der wirtschaftlichen Bedeutung wird daher die künstliche Unterscheidung zwischen klassischer Informatik einerseits und Kl andererseits und deren respektiver Marktanteile fallen lassen und statt dessen fragen, welche Bedeutung der Beherrschung dieser neuen Technologien insgesamt zukommt.

Ein Beispiel: Meine japanische Armbanduhr enthält kein einziges mechanisches Teil. Diese auf integrierten Schaltungen basierende Technologie hat innerhalb weniger Jahre einen fest etablierten Wirtschaftszweig einer Nation - die Schweizer Uhrenindustrie - ausgelöscht, dar zunächst mit der informationsverarbeitenden Industrie nichts zu tun zu haben schien.

Der Archäologe, der meine Uhr in einigen tausend Jahren ausgraben wird und dabei auch auf die mechanisch funktionierende, nur zwanzig Jahre ältere Uhr meines Vaters stößt, wird uns trotzdem in zwei verschiedene Zeitalter einordnen: "Präinfo" und "Postinfo" vielleicht.

Technische Entwicklung tritt in neue Phase

Vom mechanischen Kippschalter zum Touchsensor, von den mechanischen Schalt- und Kontrollstangen eines Tonbandgerätes der 50er Jahre zur vollelektronischen Steuerung eines heutigen Videogerätes durchlaufen unsere technischen Produkte und deren Herstellung einen tiefgreifenden Wandel, der spätestens Anfang des nächsten Jahrtausends in eine neue qualitative Phase eintreten wird: Die meisten Produkte werden je nach Preis und Komplexität mit einer gewissen "Eigenintelligenz" ausgestattet sein, und die Beherrschung dieser neuen Technologie wird zur wirtschaftspolitischen Schlüsselfunktion .

Dr. Jörg Siekmann ist Professor an der Universität Kaiserslautern und Spezialist für Künstliche Intelligenz.

Dieser Artikel wurde von Jörg Siekmann als Gutachten im Auftrag des Bundesministeriums für Forschung und Technologie für eine gemeinsame Tagung des BMFT und der OECD erstellt. Die Aufgabe war erstens das Gebiet Künstliche Intelligenz" einem Laien verständlich darzustellen und zweitens Zukunftsperspektiven auch über das Jahr 2000 hinaus zu entwickeln. Der Nachdruck erfolgt mit freundlicher Genehmigung des BMFT.

wird fortgesetzt