Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.02.1985 - 

Fünfte Generation lernt Sehen, Hören und Sprechen:

Japaner planen die Evolution der Computer

Die konventionelle Computerarchitektur und deren Weiterentwicklung ist inzwischen an einer technisch bedingten Grenze angelangt. Um einen Weg nach vorne zu finden, ist ein neues Rechnerkonzept notwendig, das Funktionen wie eine "natürliche Mensch-Maschine-Kommunikation" und logische Schlußfolgerungen beinhaltet. Eine Vorreiterrolle spielen hier wieder einmal die Japaner mit ihrem Fifth Generation Computer Project.

Bei der Entwicklung der ersten Computer war Hardware teuer und klobig. Ziel der Entwickler mußte es folglich sein, mit einem Minimum an Material ein Maximum an Wirkung zu erzielen. Das Motto lautete also: "Hohe Verarbeitungsgeschwindigkeit und große Speicherkapazität" Eine numerische Orientierung und das Abarbeiten gespeicherter Befehle in sequentieller Reihenfolge sind Charakteristika, die auch heute noch für alle Von-Neumann-Rechner typisch sind.

Der gegenwärtigen Computertechnik fehlen somit die Grundfunktionen für eine Verarbeitung von Sprache, Text, Grafik und Bildern, die nicht allein durch Zustände von null und eins charakterisiert ist. Faktoren wie Lernfähigkeit, Assoziation und Schlußfolgerung, die als wichtige Bereiche der Künstlichen Intelligenz (KI) gelten, sind vor diesem Hintergrund noch Zukunftsmusik.

Zwar ist die Hardware im Laufe der Zeit immer billiger geworden, vor allem seit Einsatz der VLSI-Technik, doch haben diese Kostenersparnisse zu keiner Weiterentwicklung in Richtung KI geführt: Herkömmliche Anwendungen werden heute lediglich auf dem Weg über die Software erweitert und verbessert. Folglich steigen die Kosten für die "Weichware" permanent und wachsen leicht ins Uferlose. Den Schwarzen Peter nicht nur der Software zuzuschreiben, sondern auch die lange vernachlässigte Hardware wieder ins Rampenlicht zu rücken, schien den Experten das Gebot der Stunde. Mit einer neuen Architektur, so die Meinung der "Gurus", würde es möglich sein, die magische Grenze zu überwinden, an der die Parallelverarbeitung stehengeblieben ist.

Forschungsobjekt von nationaler Bedeutung

Den japanischen DV-Forschern erschien das in einer solchen Idee schlummernde Potential bedeutend genug, um daraus ein DV-Forschungsobjekt von nationaler Bedeutung zu kreieren, wie es in einer Informationsbroschüre heißt. So entstand 1982 das Projekt Fifth Generation Computer Systems (FGCS). Als Sponsor zeichnete einmal mehr das Ministry of International Trade and Industry (MITI).

Im April desselben Jahres wurde eine Zentralorganisation gegründet die für die Ausführung des Forschungskomplexes zuständig ist: Das Institute for New Generation Computer Technology (ICOT). Den heutigen Stand der FGCS-Forschung - oder zumindest des Teils, der für die Ohren der Öffentlichkeit bestimmt ist - gaben die japanischen Experten im November 1984 auf der International Conference on Fifth Generation Computer Systems bekannt.

Entwicklung erfolgt in drei Phasen

Das gesamte Projekt ist in drei Phasen eingeteilt. Die erste davon umfaßt die Finanzjahre 1982 bis 1984. In diesem Zeitraum sollen grundlegende Theorien entwickelt werden, auf denen die Forschung der nächsten beiden Abschnitte aufbauen kann. Über die nächsten vier Jahre (1985 bis 1988) erstreckt sich die zweite Phase. Sie zielt darauf, Funktionen zu entwickeln, die es dem System erlauben, auf eine "Wissensbank" zurückzugreifen und "selbsttätig" Schlußfolgerungen zu ziehen Für die Zeit von 1989 bis 1991 schließlich ist die Schlußphase angesetzt. Hier erfolgt, wenn es nach dem Willen der Forscher geht, die Auswertung der bis dahin gemachten Ergebnisse. Außerdem ist geplant versuchsweise die Architektur für den Prototyp eines Rechners der fünften Generation zu entwickeln.

Vier Funktionen sind Basis für das Konzept

Als Grundlage für das Konzept eines solchen Computersystems gelten vier Funktionskategorien:

Die Problem and Inference Function soll den Rechner in die Lage versetzen, Probleme durch Schlußfolgerungen zu lösen. Dabei spielen im System gespeicherte Daten und "Wissensfakten" ebenso eine Rolle wie extern eingegebene Informationen.

In einem Wechselspiel zwischen diesen Komponenten, so ist es zumindest geplant, sucht der Computer einen logisch begründeten Lösungsweg für ein ihm aufgegebenes Problem.

Aufgabe der Knowledge Base Function ist es, neben bereits abgespeicherten Daten auch den bisher angesammelten "Erfahrungsschatz " der Maschine für zukünftige Verwendung in dieser Wissensbank" abzulegen. Beide Möglichkeiten stehen dem System neben der externen Eingabe als Basis für neue Operationen zur Verfügung. Einmal erworbenes "Wissen" verschwindet nicht ein für allemal in der Versenkung, sondern wird fortlaufend aktualisiert.

Den Umgang mit Sprache, Grafik und Bildern soll die Intelligent Interface Function dem Rechner ermöglichen. Eine "unproblematische Kommunikation zwischen Mensch und Maschine in natürlicher Sprache" benennen die japanischen Experten als Ziel dieser Überlegungen.

Mit der Intelligent Programming Funktion könnte die Voraussetzung dafür geschaffen werden, daß ein Computer "selbsttätig" logische Verknüpfungen erstellt. Kurzfristig soll ein modulares Programmiersystem entstehen, das sich selbst kontrolliert und in dafür geeigneten Algorithmen Spezifikationsbeschreibungen erstellt. In der endgültigen Variante wird dann angestrebt, daß der Computer automatisch Problemstellungen in ausführbare Programme umsetzt.

Hauptbereiche von Forschung und Entwicklung

Gegenwärtig konzentrieren sich Forschung und Entwicklung im Bereich der FGCS auf vier Hauptbereiche: .

Zum einen stehen Hardwarearchitektur und Software im Brennpunkt, die Grundlage für die Inference Function sind. Baustein hierfür ist der Inference Mechanism, ein "Schlußfolerungsmechanismus", bei dem die sequentielle Verarbeitung von einem parallelen Konzept abgelöst wird. Hinzu kommt die Basissoftware, die dazu dient, Parallel-Inferences (Parallelschlußfolgerungen) zu verwalten und auszuführen.

Ein weiterer wichtiger Komplex sind Hardwarearchitektur und Software, auf denen die Knowledge Base Function aufbaut. Neben einem Knowledge Base Mechanism ("Wissensbankmechanismus") kommt es hier vor allem auf die Software an, die eine relationale Speicherung von "Erfahrungen" in einem datenbankähnlichen Konzept ermöglichen soll Ferner ist geplant, Software zu entwickeln, die dem Rechner eine intelligente Selbstprogrammierung ermöglichen soll.

Schließlich sind noch Hardwarearchitektur und Software von Interesse, die eine Intelligent Interface Function ("Intelligente Schnittstellenfunktion") ermöglichen. Wichtigster Bestandteil des hier benötigten Intelligent Interface Processor ist ein Sprach- oder Signalprozessor. Hinzu kommt Software, die eine Verarbeitung natürlicher Sprache sowie das Erkennen und "Verstehen" von Grafiken und Bildern gewährleisten soll.

Glaubt somit der Beobachter der Ankündigungen der Experten aus dem "Land der aufgehenden Sonne", so werden Computer noch vor der Jahrtausendwende über Fähigkeiten verfügen, die den Vorgängen bei den menschlichen Sinnesorganen Auge, Ohr und Mund entsprechen.