Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.05.1990 - 

Objektorientierung wird sich durchsetzen

Neue Prozessor-Technologie revolutioniert die KI-Welt

Die klassische Lisp-Maschine hat auf dem KI-Markt an Bedeutung verloren. Anwender wollten sich mit den mangelhaften Integrationsmöglichkeiten dieser Systeme in den normalen Betriebsablauf nicht abfinden. Ingo Kriescher* geht davon aus, daß in Zukunft auf der Basis einer Koprozessor-Technologie gleichermaßen mit konventionellen wie mit KI-Methoden gearbeitet werden kann.

Die KI-Idee geht zurück auf das Jahr 1956, auf Zeiten des Kalten Krieges und der Ära McCarthy also. Damals, als die ersten mit Transistoren bestückten Logik-Bausteine aufkamen entstand die Idee, Systeme zu entwickeln, die sich in gewissen Teilbereichen "künstlich intelligent" verhalten.

Ziel war es, auch für nicht algorithmisch lösbare Probleme einen geeigneten Lösungsansatz zu finden. Entsprechende Forschungen wurden großzügig von der amerikanischen Regierung unterstützt, denn das militärische Interesse war seinerzeit dominierend. Nur wenige Jahre später, etwa 1960, übernahmen die damaligen Groß-Computer erstmals Aufgaben in der Bearbeitung von Massendaten.

Weitere 15 Jahre vergingen, bis die Japaner mit ihren Ideen der "fünften Computergeneration" die "Künstliche Intelligenz" erstmals in das breite öffentliche Interesse rückten. Nach nochmals fünf Jahren gründeten einige Wissenschaftler amerikanischer Universitäten und neue Unternehmer mit geringem Risikokapital aber vielen Produktideen diverse KI-Firmen.

Ziel dieser Unternehmensgründungen war es, ganz spezielle "KI-dedizierte Systeme" zu entwickeln, zu produzieren und weltweit zu vermarkten. Die am Massachusetts Institute of Technology (MIT) durchgeführten Forschungsarbeiten hatten nämlich ergeben, daß die bis dahin allgemein übliche, serielle Abarbeitung von Verarbeitungsprozessen in der elektronischen Informationsverarbeitung nicht für alle Aufgaben gleichermaßen geeignet waren. Gute Erfolge wurden bei der Bewältigung von Massendaten und auch - nach entsprechender Steigerung der Rechengeschwindigkeit - für die gerade aufkommende Dialogverarbeitung erzielt.

Komplexe, heterogene Abarbeitungssequenzen von Systemen, die dem natürlichen, intelligenten Verhalten entsprechen sollen, konnten aber nur unbefriedigend verarbeitet werden.

Lisp für Probleme der KI geeignet

Weiterhin hatte sich gezeigt daß die, in den frühen siebziger Jahren entwickelte Programmiersprache "Lisp" (List-Processing) zur logischen Strukturierung von Problemen der Künstlichen Intelligenz am besten geeignet war. Aus der Erkenntnis, daß die im Markt verfügbaren Systeme die Abarbeitung von Lisp-Programmen nur unzureichend unterstützten, entwickelte sich die Idee von "Lisp-unterstützenden Systemen" zur Lösung von Aufgaben der "künstlichen Intelligenz".

Fast gleichzeitig kamen verschiedene leistungsfähige Arbeitsplatzrechner, die sogenannten Workstations, basierend auf einer konventionellen Rechnerarchitektur, auf den Markt. Alle Workstations, sowohl die KI-dedizierten als auch die universellen, stießen auf eine große Marktakzeptanz. Für dedizierte Lisp-Workstations wurden innerhalb kurzer Zeit hohe Verkaufszahlen erzielt.

Diese Workstations bildeten eine Basis, auf der an den Hochschulen, Instituten und Großforschungs-Einrichtungen die Methoden und Möglichkeiten der KI zunächst erkannt und später weitgehend untersucht werden konnten. Man nahm an, daß die Lisp-Workstations als Basistechnologie, mit der die ersten praktischen KI-Lösungen mit zum Teil bemerkenswerten Erfolgen entwickelt wurden, auch später im operationellen Unternehmensablauf zum Einsatz gelangen würden.

Anfangs war der Markt für Lisp-Rechner groß

An dieser Stelle sei vorweg genommen, daß diese Entwicklung nicht eintrat, und daß sie beim derzeitigen Stand der Informationstechnologie auch in Zukunft kaum eintreten wird. Damalige Forschungsarbeiten ergaben zwar eindeutig, daß eine Reihe von Problemen des industriellen und verwaltungstechnischen Alltags mit den neuen Methoden der KI entweder erstmalig oder aber um ein vielfaches kostengünstiger gelöst werden konnte als auf konventionellem Wege. Das zentrale Problem war aber, daß der praktische, operationelle Einsatz von dedizierten Workstations in den existierenden und von restriktiven Standards umgebenen Betriebsablauf kaum möglich ist.

Der Einsatz von parallelen Workstations für divergierende Aufgabenstellungen oder die

Beherrschung integraler Arbeitsprozesse mit konventionellen Informationstechnologien war mit diesen produktorientierten KI-Lösungen nicht realisierbar.

KI als eine anspruchsvolle spezifische Lösungsmethode von komplexen Informationsproblemen bewährte sich nicht als Produkt, sondern als eine neuartige Technologie, die auf verschiedenen Produkten eingesetzt werden kann. Daraus ergab sich, daß die damals zeitgleich ablaufenden, beachtlichen Leistungsverbesserungen bei den konventionellen Workstations am Markt nahezu zwangsweise zu einer Bevorzugung der allgemeinen Standardsysteme gegenüber den dedizierten KI-Workstations führen mußte.

Alle Spezialanbieter von dedizierten Hard- und Softwaresystemen sahen sich verstärkten Absatzkrisen gegenüber, während die Anbieter von leistungsstarken Universal-Workstations eine immer größere Marktakzeptanz vorfanden. Beispielhaft sei hier auf die Firma Sun Microsystems verwiesen, die sich in diesem Markt innerhalb von nur zwei Jahren eine führende Position erarbeiten konnte.

Das damals gewonnene KI-Technologie-Verständnis hat dazu geführt, daß der Einsatz dedizierter KI-Produkte zurückging. Plötzlich kamen die inzwischen verfügbaren universellen Hochleistungs-Workstations zum Einsatz. Eine Reihe von Unternehmen verzichtete auf einen weiteren KI-Einsatz.

Die Zielsetzung der Spezialanbieter mußte also unter dem Druck der Absatzeinbußen dahingehend ausgerichtet werden, daß nicht mehr das Produkt als ein KI-Unikat im Mittelpunkt steht, sondern vielmehr die KI-spezifische Deduktionsmethode. Spezielle Softwaremodule, mit deren Hilfe KI-Aufgaben relativ leicht analysierbar, transformierbar und beschreibbar waren, erhielten von diesem Zeitpunkt an hohe Entwicklungspriorität bei den Anbietern.

Hinzu kam eine intensive Nachfrage nach geeigneter Betriebssoftware und nach fundamentaler Hardwaretechnologie, um auch innerhalb einer standardisierten "Gast-Workstation" die KI-spezifischen Hochleistungsfunktionen implementieren zu können. Doch diese Entwicklungen wurden gebremst durch die sich abzeichnenden Standardisierungsbestrebungen. Unix, MS-DOS und Apple setzten jeder für sich Maßstäbe, an denen fortan - vor allem in Europa - jedes neue System bezüglich seiner operativen Applikationsfähigkeit gemessen werden mußte.

Als konsequenter Ausweg bietet sich heute die Koprozessor-Technologie an - eine Technologie, bei der auf einer separaten Platine ein kompletter KI-spezifischer Hochleistungsprozessor mit allen Speicher- und Systemkomponenten integriert ist. Die inzwischen weiter vorangeschrittene Integrationsdichte der Chip-Technologie erlaubte es, einen 40-Bit-Lisp-Prozessor-Chip serienreif zu entwickeln. Dieser "Ivory-Prozessor" bildet das Kernel-System, um den sich das Betriebssystem Genera und verschiedene Entwicklungs-Tools plazieren.

Die Hardware tritt in den Hintergrund

Damit ist ein entscheidender Schritt in der KI-Technologie vollzogen: Die Hardware tritt als additive Komponente standardisierter und marktrelevanter Systeme in den Hintergrund. Neues Gewicht in der industriellen Applikationsforschung erhalten Analyse und informationstechnologische Lösungen.

Hinzu kommt ein anwendungsorientierter Zusatznutzen, der sich aus dem Prinzip der Koprozessor-Technologie ableitet: Beide Verfahren, also die On-Board-Technologie des Lisp-Prozessors und die konventionelle Workstations-Architektur, werden jeweils für sich weiterentwickelt - und damit schneller und leistungsfähiger. Als Folge steigt der integrierte Nutzen beider Technologien überproportional. Da beide Ausgangs-Technologien in gewissen Grenzen kongruent sind, entwickelt sich eine Konkurrenz-Situation. Von ihr profitieren vor allem die Systeme, die nicht nur das "entweder/oder", sondern vor allem das "sowohl/als auch" bieten.

Forderung nach weiteren synergetischen Vorzügen

Viele neuartige Lösungsideen entspringen den bis jetzt vorhandenen integrierten Möglichkeiten: Auf einem einzigen System können standardisierte Basisapplikationen und komplexe KI-Lösungen unter einer gemeinsamen Benutzeroberfläche abgearbeitet werden. Die Übertragung der KI-Technologie in die nach wie vor selbständig und KI-frei arbeitenden Workstations verstärkt die Forderung nach weiteren synergetischen Vorzügen.

Diese können einerseits durch die parallelen , eigenständigen Entwicklungen der nach wie vor getrennten Technologien entstehen oder aber auch durch eine applikationsorientierte Verbesserung der Integration. Die sich dabei ergebenden neuen Software- und Hardwarekomponenten verdienen nicht immer den Begriff der "Künstlichen Intelligenz"; sie sind ein Spiegelbild des veränderten Technologiebedarfs geworden.

Genaugenommen handelt es sich jetzt nicht mehr um einen "KI-spezifischen Lösungsansatz", sondern um ein "objektorientiertes Lösungsverfahren". Die Portabilität von Applikationen in einer heterogenen Systemumgebung ist die Basis, auf der die weitere Verbreitung dieser Technologie aufsetzt.

Deshalb zeichnet sich gegenwärtig eine Renaissance der KI-Forschung und -entwicklung ab. Die Großindustrie, allen voran die Luft- und Raumfahrtunternehmen, die Automobilindustrie, die Werkzeugmaschinenindustrie sowie die Elektronik- und Elektro-Industrie erkennen, daß mittels der objektorientierten Vorgehensweise vielschichtige Probleme nahezu optimal gelöst werden können. Die daraus resultierenden Systeme weisen nur selten eine Unvereinbarkeit mit den betrieblichen Standardisierungsbemühungen auf.

Vor allem bei komplexen Problemen im Produktdesign, bei der Anlagenkonfiguration, im

allgemeinen Planungs- und Scheduling-Prozeß, bei Simulations- und Diagnosesystemen werden zunehmend moderne objektorientierte Lösungen implementiert. So hat sich die Angebotsstruktur der Industrie auf diese spezifischen Anforderungen hin ausgerichtet.

Einen Schwerpunkt bilden heute die gezielte Problemanalyse, die entsprechende Schulung und eine umfassende Beratungsleistung. Wichtig ist auch die Bereitstellung geeigneter Software-Entwickler und der zugehörigen Entwicklungsumgebung zur Bewältigung nicht strukturiert lösbarer Probleme mittels objektorientierter Technologien. Denn die Vorzüge dieser Vorgehensweise werden immer mehr erkannt und entsprechend genutzt.

Unterschiedliche Ansätze bei der Problemanalyse

Schon bei der Problemanalyse ergeben sich unterschiedliche Ansätze: In der konventionellen Vorgehensweise gelangt man über das Grobkonzept zur Systembeschreibung, zur Systemspezifikation und endlich zur Programmspezifikation. Nach der Kodierung und dem Test wird der spätere Anwender erst Monate nach seiner Problemspezifikation wieder mit der EDV-Lösung konfrontiert.

Die daraus resultierenden Enttäuschungen sind bekannt. Ungenutzte Computerlösungen gibt es überall. Die Ursachen für die Diskrepanz zwischen Problemfeld und Lösungsbereich liegen im Konvertierungsprozeß durch anwendungserfahrene Systemspezialisten und im oftmals großen zeitlichen Abstand zwischen Problemidentifikation und Lösung.

Ganz anders ist dagegen das Vorgehen beim Einsatz von modernen, objektorientierten Verfahren: Bereits nach der ersten Problemanalyse erfolgt ein "Rapid-Prototyping", mit dem bereits funktionale Kernelemente der zukünftigen Lösung zielorientiert abgearbeitet werden können.

An diesem System können zu einem sehr frühen Zeitpunkt die späteren Nutzfunktionen, aber auch ein Entwurf-abhängiges Fehlverhalten erkannt und entsprechend korrigiert werden.

Die Universalität und Performance der objektorientierten Methoden, ihrer Tools und der daraus entwickelten Lösungen erlaubt ein Vordringen dieser Technologie in nahezu alle Einsatzgebiete moderner Informations- und Kommunikationstechniken.

Vor allem die in der Bundesrepublik stark ausgeprägte mittelständische Wirtschaft ist gefordert, sich mit dieser Technologie auseinanderzusetzen. Nahezu alle derzeitigen technischen Produkte werden zukünftig mittelbar oder unmittelbar mittels objektorientierter Lösungsverfahren zur Entwicklung

und zum Einsatz gelangen.

*Ingo Kriescher ist Mitarbeiter der Symbolics GmbH in Frankfurt.