Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.04.1984

Mit AI lernen Computer selbständig denken

Der Traum vom Computer, der die Denkweise des menschlichen Gehirns durch "künstliche Intelligenz" nachvollzieht, ist fast so alt wie der Computer selbst. Obwohl die künstliche Intelligenz (AI: Artificial Intelligence) noch in den Kinderschuhen steckt, kann man einen Computer schon heute für Aufgaben einsetzen, die früher ohne menschliches Eingreifen undenkbar gewesen wären. So stellen Rechner Diagnosen von Lungenerkrankungen oder beteiligen sich an der Suche nach Bodenschätzen oder Erdölvorkommen. In der kommenden Kommerzialisierung der künstlichen Intelligenz sehen Experten den bedeutendsten Fortschritt auf dem Gebiet der Computertechnologie der letzten 20 Jahre.

Der Ausdruck "künstliche Intelligenz" ist mißverständlich, laßt er doch darauf schließen, daß es sich hierbei um eine unabhängige Reaktion des Computers handelt. Tatsächlich aber wird dem Computer zwar die Fähigkeit "logisch zu denken" "zu urteilen" und sogar "zu lernen" eingegeben, ausschlaggebend sind jedoch allein die technischen Voraussetzungen eines Gerätes hinsichtlich der Speicherung von Daten und der minutenschnellen Auswertung mehrerer hundert Losungsmöglichkeiten. Die logische Programmfolge, in der das Ganze abläuft, ist lediglich eine Art Nachahmung des menschlichen Denkprozesses. Bemerkenswert daran ist allerdings die Geschwindigkeit, mit der die verfügbaren Fakten gesichtet werden.

Diese Nachahmung des menschlichen Denkprozesses ist nicht ohne neue Software denkbar. Herkömmliche Computerprogramme basieren auf sorgfältig erstellten mathematischen Schrittfolgen, die in der vorgegebenen Reihenfolge ausgeführt werden müssen. Die Problemkreise der AI können jedoch nicht mit Hilfe einer starren mathematischen Struktur gelöst werden. Programme für künstliche Intelligenz befassen sich mit Gedanken und Wissen und weniger mit Zahlen. Einige verfahren nach dem Prinzip "Wenn - dann", das heißt, "wenn ein Vogel schwarz ist, dann ist es kein Kanarienvogel". Andere wiederum erstellen ein Netzwerk von Fakten, die alle in Verbindung zueinander stehen, zum Beispiel "ein Hund und ein Elefant haben jeweils vier Beine, aber nur der Elefant hat einen Rüssel".

Gespeichertes Wissen wird koordiniert

Zur Lösung spezieller Probleme wird bei einem AI-Programm das gespeicherte Wissen in der gleichen Art und Weise manipuliert, wie dies beim menschlichen Denkprozeß auch geschieht. Das Programm sortiert das gesamte im Computer gespeicherte Wissen, entnimmt die im speziellen Fall brauchbaren Fakten und bestimmt seinen eigenen Ablauf. Genau hier kommt die "Urteilsfähigkeit" ins Spiel, denn der jeweils folgende Befehl wird durch Auswertung des vorangehenden Sachverhalts ausgelöst und kann im Verlauf desselben Programms variieren, je nachdem, welches spezielle Problem gerade zu lösen ist.

Konzentration auf relevante Daten

Sind die ersten Fakten für ein anstehendes Problem bekannt, befaßt sich das AI-Programm mit den Kriterien und den Programmschritten, die für die Lösung des Problems vorgegeben sind. Danach wird der erste Programmschritt ausgeführt, wodurch gleichzeitig eine dezimierte Datenfolge entsteht (es werden nur die relevanten Daten für den ersten Programmschritt erfaßt). Mit anderen Worten: Handelt es sich um ein medizinisches Programm zur Diagnose von Lungenerkrankungen, so wäre es unsinnig, auch Angaben über den Zustand des Inneren Ohrs eines Patienten zu sichten. Danach folgen weitere Programmschritte, bis die endgültige Lösung vorliegt.

Ein anderes Programm arbeitet im Unterschied zur sequentiellen mit der parallelen Datenverarbeitung. Auch wenn die Programmabwicklung mit Höchstgeschwindigkeit geschieht, führt ein Computer jeweils nur einen Befehl in fortlaufenden Programmschritten aus. Dadurch ist es für ihn schwierig, selbst ganz "banale" Dinge zu erkennen, beispielsweise, ob eine Kiste mit der richtigen Seite nach oben zeigt.

Im menschlichen Gehirn verlaufen die Denkprozesse jedoch parallel. So kann man gleichzeitig Auto fahren, eine Zigarette rauchen, auf Verkehrsschilder achten und dabei auch noch Radio hören. Bei einem Computer mit paralleler Programmbearbeitung hieße dies, daß gleichzeitig vier oder fünf Prozessoren an dem selben Programm arbeiten. Die Schwierigkeit hierbei ist, einen synchronen Ablauf der zentralen Steuerung zu erreichen.

Ein weiteres Programm arbeitet mit Hilfe logischer Programmiersprachen. Dem Computer wird in erster Linie auf einfache Art und Weise Wissen vermittelt. Die Regeln für den Ablauf der einzelnen Programmschritte sowie wissenschaftliche Grundbegriffe werden schon in die Programmiersprache eingegeben. Anstelle umständlicher Erläuterungen in einer mathematisch ausgerichteten Sprache geschieht hier die Steuerung des Computers durch seinen Datenspeicher in einer logischen Art und Weise. Gleichzeitig erhält der Benutzer auf eine logisch gestellte Frage auch eine logische Antwort. Fehlen noch genauere Informationen, so werden diese durch Rückfragen des Computers eingeholte. Hierfür gibt es die bekannten Sprachen Lisp und Prolog, die beide eine eigene Logik besitzen.

In wissenschaftlichen Instituten wird schon über 20 Jahre lang an der Entwicklung der künstlichen Intelligenz gearbeitet, jedoch wird erst in jüngster Zeit das Konzept und der damit verbundene wirtschaftliche Aspekt begriffen. Anerkannte Forschungszentren sind in den USA die Stanford University und das Massachusetts Institute of Technology, in England die Universitäten in Cambridge und Edinburgh sowie das Imperial College in London, ebenso eine Reihe von Universitäten und Forschungsinstituten in Schweden, Deutschland, Frankreich und Italien.

AI verläßt die Forschungslabors

Als Pionier auf diesem Gebiet gilt Stanford, das unter Leitung von Prof. John McCarthy bereits 1963 das "Artificial Intelligence Laboratory" ins Leben rief. Der größte Teil der Forschungsarbeiten für AI wurde auf Computern von Digital-Equipment durchgeführt. Die Universität Erlangen arbeitet beispielsweise mit einem funktionsfähigen Worterkennungs-System, das auf der PDP-11/34 basiert. Auch an der Technischen Universität München, der Heinrich-Hertz-Universität in Berlin, der Ruhr-Universität in Bochum sowie an der Universität in Göttingen wird an ähnlichen Forschungsprojekten gearbeitet. Das Datologische Labor der Universität Uppsala betreibt die AI-Forschung bereits seit 1974. Auch das schwedische Forschungsinstitut für Verteidigung erarbeitet mit einem DEC-System-10 ein in natürlicher Sprache erstelltes Interface. Am Institut für Computerwissenschaft und Informatik der University of Massachusetts setzt man einen Rechnerverbund von 10 VAX-11/750 ein, mit dessen Hilfe man ein intelligentes Büro-Informationssystem entwickeln will.

Günstige wirtschaftliche Prognosen

Die Entwicklung billiger Halbleiter-Chips sowie günstige Preise für leistungsstarke Rechner haben aus dem anfänglichen Forschungsprojekt inzwischen eine Technologie werden und AI heute auch im wirtschaftlichen Bereich Anwendung finden lassen. Einige praktisch anwendbare Neuentwicklungen im Computerbereich hat die subtile wissenschaftliche Atmosphäre jedoch bereits hervorgebracht: Die rechnergestützte Konstruktion (CAD) und Produktion (CAM), Sprachsynthese- und Worterkennungscomputer sowie komplizierte grafische Darstellungen mittels Bildschirm.

Auf wirtschaftlichem Sektor vollzieht sich die Entwicklung auf drei Ebenen, den Expertensystemen, den Robotern und den natürlichen Sprachen. Das Fachwissen, über das früher nur einige besonders intelligente Experten verfügten, wird somit allgemein zugänglich.

Roboter, früher stupide Maschinen, die vorprogrammierte Arbeiten ausführten, ohne Rücksicht darauf, ob das Werkstück da war oder nicht, sind nun soweit, daß sie ihre Tätigkeit sofort unterbrechen, wenn etwas nicht in Ordnung ist. Sie sind inzwischen mit einem künstlichen Auge ausgestattet und können somit optisch erkennen, um was es sich handelt.

Worterkennungs- und Sprachsynthese-Computer kommen dem Ziel, auf Gesprochenes zu reagieren, immer näher. Man versucht, unabhängig von Sprache und Sprecher, einem Computer beizubringen, eine wörtlich formulierte Frage zu verstehen.

Nach Aussage von IRD, einem amerikanischen Marktforschungs-Institut, wird sich der Marktwert für Spracherkennungs- und Synthesecomputer bis zum Ende der 80er Jahre auf über eine Milliarde Dollar belaufen.

Vielfältige kommerzielle Anwendungsbereiche

Inzwischen gibt es bereits ausgereifte AI-Produkte auf dem Markt. So setzt ICI bereits Expertensysteme im entwicklungstechnischen Bereich ein. Die Firma Unilever erarbeitet derzeit ein Expertensystem, mit dessen Hilfe man verpackungstechnische Probleme in den Griff bekommen will. Mit einem Programm namens Xcon erforschen Experten von Digital Equipment Komponenten, die zum Aufbau großer kostengünstiger Computersysteme nötig sind. Das Ganze ist ein Gemeinschaftsprogramm von Digital Equipment und Carnegie Mellon, das 1200 Anweisungen und 500 Bezeichnungen für Einzelteile, Konstruktionsvorschriften und genaue Spezifikationen aufnehmen kann. Bei der Konstruktion eines Großrechners muß XCON mehr als 1000 Daten sichten (siehe Grafik).

Ein Programm mit dem Namen Intellect ermöglicht es Managern, die nicht mit Computern vertraut sind, durch Eintippen von Fragen in einfachem Englisch, Daten abzurufen. Die Formulierung von Fragen im Syntax des Computers entfällt somit.

Prospector, ebenfalls ein Expertensystem, wird bei der Suche nach Mineralien eingesetzt. So wurde im vergangenen Jahr in der Nähe von Washington ein Molybdän-Vorkommen im Wert von mehreren Millionen Dollar entdeckt. Ein weiteres System auf diesem Gebiet ist AL/X, mit dessen Hilfe sich automatische Stillegungen auf Ölbohrinseln feststellen lassen. AL/X wurde an der Universität Edinburgh entwickelt und durch British Petroleum praktisch erprobt.

Expertensysteme als Wunderdoktor

Auch in der Medizin werden verschiedene Expertensysteme eingesetzt. Mit "Puff" lassen sich Lungenerkrankungen feststellen, während "Mycin" zur Diagnose einer Reihe von Infektionskrankheiten bestimmt ist. Puff, eine Gemeinschaftsproduktion von Stanford und dem Pacific Medical Center, besitzt eine Erfolgsquote von 85 Prozent. Mycin entstand 1976 in Stanford und gilt als das Standard Expertensystem schlechthin. Mit seiner Hilfe wählt ein Arzt eine entsprechende antibakterielle Therapieform für Patienten mit Infektionskrankheiten. Mycin bietet über 400 Entscheidungsmöglichkeiten und ist eine Synthese aus klinischen Informationen und verschiedenen Therapieformen.

Das System arbeitet in vier Etappen, indem es die Fragen stellt und gleichzeitig seinen grundlegenden Befehlsvorrat sichtet. Zunächst wird festgestellt, ob es sich um eine ernsthafte Infektionskrankheit handelt und welches das auslösende Organ sein könnte. Danach wird die Gruppe der wirksamsten Medikamente bestimmt und schließlich die bestmögliche Medikation ausgewählt. Der Benutzer kann anschließend an Mycin Fragen stellen, um herauszufinden, auf welche Art und Weise die Lösung zustande kam. Das System wird dann alle angewandten Kriterien darlegen.

Mit dem Caduceus-System, das an der Universität Pittsburgh entwickelt wurde, lassen sich eine ganze Reihe unterschiedlicher Erkrankungen diagnostizieren. Bei diesem System wird eine qualifizierte Beweisführung zur schrittweisen Lösung eingesetzt. Gleichzeitig stellt das System bei Bedarf auch Rückfragen.

Die Stufenleiter zur Effektivität

Die Anwendungsgebiete für AI sind denkbar vielseitig. So kann AI zum Beispiel zur Feststellung von Betriebsstörungen an anderen Computern oder Zusatzgeräten, zur Konstruktion von komplizierten Produktionsanlagen in Chemiefabriken und zur Überprüfung von Konstruktionsentwürfen eingesetzt werden. Ein anderes AI-System liest die eingehende Post und informiert den Empfänger über wichtige Briefe. Außerdem gibt es Systeme, die in Produktionsbetrieben wie automatische Vorarbeiter eingesetzt und durch die Investitionskosten gesenkt und Produktionsengpässe vermieden werden können.

Ehe die Produkte der AI-Forschung noch erfolgreicher eingesetzt werden können, müssen zwei Hauptprobleme gelöst werden. Eines liegt in der mangelnden theoretischen Information, mit der das Verständnis des Menschen für den Umgang mit Informationen gefördert wird, ihm den Sinn und Zweck verdeutlicht und ihm klar macht, wie sich die Information symbolisch darstellen läßt.

Das zweite Problem sind technologische Mängel. Planungen beschreiben deshalb Computer der fünften Generation mit zehn Millionen Transistoren auf einem einzigen Chip. Im Jahr 1990 soll sich die Leistungskapazität der Prozessoren auf etwa eine Milliarde logischer Interferenzen pro Sekunde belaufen. Das wäre etwa 30 000mal schneller als irgendein Computer heute. Durch neue Programmierungstechniken soll ein Computer künftig anstelle einer einzigen möglicherweise falschen Lösung ein ganzes Spektrum von Lösungsmöglichkeiten anbieten.

Verschiedene Firmen entwickeln AI-Systeme, mit deren Hilfe ein Computer unwichtige, durch Sensoren gelieferte Informationen außer acht läßt. Mehrere Universitäten versuchen, das gleiche Konzept bei Systemen anzuwenden, die gesprochene Sätze verstehen, und wiederum andere, einem Computer das Lesen beizubringen. In Yale ist es gelungen, einen Computer so zu trainieren, daß er Zeitungsartikel mit Hilfe einer optischen Abtasteinrichtung liest und auch versteht. Man hofft nun, daß man Computer zu unersättlichen Lesern machen kann, die ihr Wissen ständig auf den neuesten Stand bringen.

Datenbanken, die Expertenwissen speichern und es dem Benutzer über ein Netzwerk in der Art von Bildschirmtext zur Verfügung stellen, wären eine weitere Hilfe. Jeder Geschäftsbereich könnte ein eigenes Expertensystem besitzen. Durch ein Kommunikationsnetz könnten dann alle Geschäftsführer innerhalb eines Unternehmens Zugang zu diesen intelligenten Datenbanken erhalten. Es könnten Btx-Systeme entstehen, die außer beweglichen Informationsseiten auch gebündelte Seiten anbieten, die selbst wiederum Expertensysteme darstellen.

Ein entscheidender Faktor stellt die Größe des Computers dar. Ein durchschnittliches Expertensystem benötigt rund 500 Anweisungen, in einem Mikrocomputer können jedoch nur 50 Befehle untergebracht werden. Durch Einführung der Größenintegration (VLSI = very large scale integration) ist man der Lösung dieses Problems schon einen großen Schritt näher gekommen.

Im zweiten Computerzeitalter, das heißt bei der sogenannten fünften Computergeneration (zu den ersten vier Generationen gehören Bildröhren, Transistoren, integrierte Schaltkreise und VLSI), scheinen eine beträchtliche Anzahl neue Namen durch AI inspiriert zu sein. Tätigkeiten aus dem menschlichen Alltag nachahmen zu können, bereitet Computern keine Schwierigkeiten, aber kompliziert ist das Verstehen gesprochener Wörter oder das Erkennen dreidimensionaler Objekte. Enorm leistungsfähig sind sie, wenn es um Berechnungen geht. Außer dem steigt ihre Kommunikationsfähigkeit ständig, und ihr Gedächtnis ist phänomenal. Gleichzeitig heißt das aber: Sie speichern einfach Daten und befolgen die Instruktionen, die neu eingegeben wurden. Sie sind nicht fähig, etwas selbst zu interpretieren oder eigene Entscheidungen zu fällen.

Der Computer von morgen könnte nicht nur sein eigenes Image völlig verändern, denn durch die AI würden seine Einsatzgebiete wesentlich vielseitiger und in großen Teilen neu definiert. Bisher war es immer der Benutzer, der mit den Eigenarten eines Computers fertig werden mußte. Mit der AI muß nun der Computer selbst herausfinden, was gemeint ist.