Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.04.1990 - 

Zunehmende Akzeptanz auf seiten der Anwender

Objektorientierte Lösungen geben dem KI-Markt Impulse

Die reine Lehre der "Künstlichen Intelligenz" (KI) hat sich als ungeeignet für die DV-Praxis erwiesen. Allerdings entwickelten sich im Dunstkreis der KI-Forschung auch erfolgversprechende Denkansätze wie beispielsweise die Idee der objektorientierten Anwendungsentwicklung. Ingo Kriescher* schildert die Hintergründe.

Die Idee der "Künstlichen Intelligenz" geht zurück auf das Jahr 1956; damals entstand der Gedanke, Systeme zu entwickeln, die sich in gewissen Teilbereichen "intelligent" verhalten. Ziel war es, einen geeigneten Lösungsansatz auch für solche Problemen zu finden, denen mit algorithmischen Mitteln nicht beizukommen war.

Dem natürlichen Verhalten entsprechend

Wenige Jahre später, etwa 1960, übernehmen die damaligen Großcomputer die ersten Aufgaben bei der Bearbeitung von Massendaten. Es vergingen weitere 15 Jahre, bis die Japaner mit ihren Ideen von der "fünften Computergeneration" die "Künstliche Intelligenz" erstmals in das breitere öffentliche Interesse rücken. Und nochmals fünf Jahre dauerte es, bis die ersten KI-Firmen gegründet wurden.

Forschungsarbeiten am Massachusetts Institute of Technology (MIT) hatten ergeben, daß die bis dahin allgemein übliche serielle Abarbeitung von Prozessen der elektronischen Informationsverarbeitung zwar sehr gut zur Bewältigung von Massendaten geeignet war und auch bei entsprechender Steigerung der Rechengeschwindigkeit für die gerade aufkommende Dialogverarbeitung ausreichte. Komplexe, heterogene Abarbeitungssequenzen von Systemen, die denn natürlichen, intelligenten Verhalten entsprechen sollten, konnten hingegen auf diese Weise nur unbefriedigend ausgeführt werden.

Weiter hatte sich herauskristallisiert, daß die in den frühen siebziger Jahren entwickelte Programmiersprache Lisp zur logischen Strukturierung von Problemen der "Künstlichen Intelligenz" sehr gut geeignet war. Aus der Erkenntnis, daß die auf dem Markt verfügbaren Systeme die Abarbeitung von Lisp. Programmen nur unzureichend unterstützend entwickelte sich die Idee von Lisp-unterstützenden Systemen zur Lösung von Aufgaben der "Künstlichen Intelligenz".

Die dedizierten Lisp-Workstations bildeten die Basis dafür, daß an den Hochschulen, Instituten und Großforschungseinrichtungen die Methoden und Möglichkeiten der KI erkannt und untersucht werden konnten. Man ging allgemein davon aus, daß diese Rechner als Basistechnologie später im operationellen Unternehmensablauf zum Einsatz gelangen würden. Es Sei hier vorweg genommenen, daß diese Entwicklung nicht eintrat und daß sie, beim derzeitigen Stand der Informationstechnologie auch künftig für äußerst unwahrscheinlich gehalten werden muß.

Zwar ergaben die damaligen Forschungsarbeiten, daß eine sehr große Zahl von Problemen des industriellen und verwaltungstechnischen Alltags mit den neuen Methoden der KI entweder erstmals überhaupt oder, aber uni ein Vielfaches günstiger gelöst werden könnten. Der operationelle Einsatz von dedizierten Workstations in den existierenden, von Standards umgebenen Betriebsablauf ist aber kaum möglich.

Außerdem war der Einsatz von parallelen Workstations für divergierende Aufgabenstellungen oder die Beherrschung integraler Arbeitsprozesse mit konventionellen Informationstechniken im Sinne von produktorientierten KI-Lösungen nicht realisierbar.

Die KI als eine anspruchsvolle, äußerst spezifische Lösungsmethode von komplexen Informationsproblemen erwies sich nicht als Produkt, sondern als eine neuartige Technologie, die auf verschiedenen Produkten zum Einsatz gelangen kann.

Daraus ergab sich, daß die beachtlichen Leistungsverbesserungen bei den konventionellen Workstations nahezu zwangsläufig zu einer Präferenz der Standardsysteme gegenüber den dedizierten e KI-Workstations führte. Alle Spezialanbieter von dedizierten Hard- und Softwaresystemen sehen sich einer verstärkten Absatzkrise gegenüber, während die Anbieter von leistungsstarken Universal-Workstations eine zunehmende Marktakzeptanz vorfinden.

Es kann an dieser Stelle festgestellt werden, daß das damals gewonnene KI-Technologieverständnis nicht etwa dazu geführt hat, daß die dedizierten KI-Produkte sich weiter ausbreiteten, sondern dazu, daß entweder die inzwischen verfügbaren, universellen Hochleistungs-Workstations zur Anwendung kamen oder daß von einer weiteren Verfolgung des KI-Einsatzes Abstand genommen wurde.

Die Zielsetzung der Spezialanbieter mußte unter dem Druck der Absatzeinbußen dahingehend ausgerichtet werden, daß nicht mehr das Produkt als im Unikat im Mittelpunkt stellte sondern vielmehr die KI-spezifische Deduktionsmethode. Spezielle Softwaremodule, mit deren Hilfe Aufgaben der "Künstlichen Intelligenz" relativ leicht analysier-, transformier- und deskriptierbar sind, haben fortan Entwicklungspriorität bei den Anbietern.

Divergierende Standardisierungen

Hinzu kam die intensive Suche nach einer geeigneten Betriebssoftware und nach einer fundamentalen Hardwaretechnologie, um auch innerhalb einer standardisierten "Gast-Workstation" die KI-spezifischen Hochleistungsfunktionen implementieren zu können.

Diese Entwicklungen werden jedoch gebremst durch divergierende Standardisierungsbestrebungen. Unix, MS-DOS und Apple setzen, jeder für sich, eigene Maßstäbe, an denen fortan vor allem in Europa jedes neue System bezüglich seiner operativen Applikationsfähigkeit gemessen wird.

Als konsequenter Ausweg bietet sich die Koprozessor-Technik an, bei der auf einer separaten Platine im kompletter KI-spezifischer Hochleistungsprozessor mit allen Speicher- und Systemkomponenten integriert ist. Damit ist ein entscheidender Schritt in der KI-Technik vollzogen: Die Hardware tritt als additive Komponente standardisierter und marktrelevanter Systeme in den Hintergrund, und die essentielle Problematik der KI-Technologie - Analyse und informationstechnologische Lösung - rückt in den Vordergrund der industriellen Applikationsforschung.

Hinzu kommt ein anwendungsorientierter Zusatznutzen, der sich aus dem Prinzip der Koprozessor-Technik ableitet: Sowohl die On-board-Technik des Lisp-Prozessors als auch die konventionelle Workstation-Architektur werden jeweils für sich also schneller und leistungsfähiger weiterentwickelt. In der Folge steigt der integrierte Nutzen beider Technologien überproportional an.

Die synergetischen Vorzüge dieser technischen Verbindung können sowohl durch die parallelen, eigenständigen Entwicklungen der nach wie vor getrennten Technologien entstehen oder aber auch durch eine applikationsorientierte Verbesserung der Integration. Die dabei entstehenden neuen Software- und Hardwarekomponenten verdienen nicht immer den Begriff der "Künstlichen Intelligenz", sondern sind ein Spiegelbild eines gewandelten Technologiebedarfs geworden. Genau genommen handelt es sich jetzt nicht mehr um einen "KI-spezifischen" Lösungsansatz, sondern um ein "objektorientiertes" Verfahren.

Gegenwärtig zeichnet sich eine Renaissance der KI-Forschung und -Entwicklung ab. Die Großindustrie, allen voran Luft- und Raumfahrt sowie Automobil-, Werkzeugmaschinen-, Elektronik- und Elektroindustrie, erkennt, daß, mittels der objektorientierten Vorgehensweise vielschichtige Probleme einer nahezu optimalen Lösungsform zugeführt werden können. Die daraus resultierenden Systeme weisen überdies nur selten eine Unvereinbarkeit mit den betrieblichen Standardisierungsbemühungen auf.

Primär bei komplexen Problemen in, Produktdesign, bei der Anlagenkonfiguration, im allgemeinen Planungs- und Scheduling-Prozeß sowie bei Simulations- und Diagnosesystemen werden zunehmend niederen objektorientierte Lösungen implementiert. So hat sich die Angebotsstruktur der Industrie auf diese spezifischen Anforderungen hin ausgerichtet.

Einen Schwerpunkt bilden heute gezielte Problemanalyse, entsprechende Schulung und eine umfassende Beratungsleistung. Wichtig ist außerdem die Bereitstellung geeigneter Software-Entwickler und Entwicklungsumgebung zur Lösung von strukturiert nicht lesbaren Problemen mittels objektorientierter Techniken.

Schon bei der Problemanalyse ergeben sich unterschiedliche Ansätze: In der konventionellen Vorgehensweise gelangt man über das Grobkonzept zur Systembeschreibung, dann zur Systemspezifikation und endlich zur Programmspezifikation. Nach Codierung und Test wird der spätere Anwender - Monate nach seiner Problemspezifikation - wieder mit der DV-Lösung konfrontiert.

Diskrepanz zwischen Problem und Lösung

Bekannt sind die daraus resultierenden Enttäuschungen, die vielerorts zu ungenutzten Computerlösungen geführt haben. Die Ursachen für die Diskrepanz zwischen Problemfeld und Lösungsbereich liegen im Konvertierungsprozeß durch die Systemspezialisten und im oftmals zu großen zeitlichen Abstand zwischen Problemidentifikation und Lösung.

Ganz anders ist das Vorgehen beim Einsatz von modernen, objektorientierten Verfahren: Bereits nach der ersten Problemanalyse erfolgt ein "Rapid Prototyping", mit dem bereits funktionale Kernelemente der künftigen Lösung zielorientiert abgearbeitet werden können.

Anhand dieses Systems können zu einem sehr frühen Zeitpunkt die späteren Nutzfunktionen, aber gleichzeitig auch entwurfsabhängiges Fehlverhalten erkannt und entsprechend korrigiert werden.

Die Universalität und Performance der objektorientierten Methoden, ihrer Tools und die daraus entwickelten Lösungen erlauben ein Vordringen dieser Technologie in nahezu alle Einsatzgebiete moderner Informations- und Kommunikationstechnik.

Ingo Kriescher ist Geschäftsführer der Symbolics GmbH in Frankfurt.