Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.03.1989 - 

Ein weites Feld mit verschwimmenden Grenzen, Teil 19 und Schluß:

KI - der Aufbruch ins Ungewisse

Vor fast einem halben Jahrhundert war es soweit: 1941 hatte Konrad Zuse den ersten Computer der Welt fertig. Obwohl der Z3 "nur" ein programmierbarer, elektromechanisher Rechenautomat war, dachte Zuse bereits damals an den Bau einer "intelligenten" Maschine. Heute sind wir mitten in der Entwicklung Künstlicher Intelligentz. Der Weg dorthin und mögliche Anwendungen der KI werden nun im abschließenden Artikel der Serie aufgezeigt.

Es mag manchem der heutigen Jung-Computerfreaks fast schon wie ein Märchen erscheinen - und dennoch: Jener erste Computer der Welt war von Zuse so strikt auf den Verwendungszweck "Rechnen" beschränkt, daß sein Herr und Meister ihm nicht einmal die Fähigkeit zu "bedingten Sprüngen" einbauen mochte. Denn irgendwie war dem jungen Berliner Bauingenieur damals doch ein wenig mulmig zumute, führte er sich die weitreichenden Perspektiven seiner Erfindung gelegentlich in aller Ruhe vor Augen. Denn natürlich: Ein Rechner, der im Programm fast beliebig hin- und herspringen kann - der entwickelt ja fast schon sowas wie Eigenleben. Und vor dem Bau so einer "selbständigen" Maschine schreckte zumindest Zuse vor fast einem halben Jahrhundert eben doch erst mal zurück.

Man mag diese Haltung des deutschen Computer-Pioniers aus heutiger Sicht belächeln und, gemessen an aktuellen Projekten zum Bau "künstlich intelligenter" Systeme, vielleicht sogar schier grotesk finden - doch eines sollte man nicht übersehen: Zuse erkannte wohl klarer als so mancher unter seinen unter seinen flink innovierenden Epigonen, daß mit dem programmgesteuerten Digital-System die Tür zu einer ganz neuen, und 1941 ganz sicher noch völlig unüberschaubaren, Welt aufgestoßen war. Und, daß man sich Maschinen, die in einer gewissen Weise eben doch Denkvorgänge des menschlichen Gehirn nachzuahmen beginnen, besser mit einer gewissen Vorsicht nähern sollte.

Jahrelang wurden alle Ansätze verspottet...

Befaßt man sich heute mit aktuellen Tendenzen und Entwicklungen im - täglich mehr sich ausweitenden - Bereich der Künstlichen Intelligenz, so fällt gerade beim lehrreichen und vielleicht sogar heilsamen Blick in den Rückspiegel auf, wie verbissen jahrelang gerade jene das Denkmuster "künstlich intelligenter Automaten" von sich wiesen, die an den damals aktuellen Computer-Entwicklungen möglichst gut - und von skeptischen Kulturkritikern möglichst ungestört - verdienen wollten. Denn gerade die einschlägige Industrie, und nicht minder zahlreiche jeder Wissenschaftler, die dieser Industrie vielfach auf's Innigste verbunden waren, wurden nicht müde, den Laien ringsum immer wieder das Gleiche einzubläuen: Nämlich, daß Rechner nie und nimmer so etwas wie "Intelligenz" zeigen könnten und daß sie doch schön brav nur immer, wie einstmals Zuses bewußt gedrosseltes Pionier-Instrument, monoton Befehl für Befehl ausführen.

Die Verbissenheit, mit der somit jahrelang alle Ansätze zu denkbaren KI-Systemen verspottet und bekämpft wurden, mit der man frühe KI-Pioniere an den Pranger stellte - zeigt nicht gerade diese Verbissenheit, daß die seinerzeit etablierten Informatiker hier mit aller Gewalt etwas in Wahrheit eben doch höchst Lebendiges zu unterdrücken versuchten? Etwas, das jene Kritiker der Risiken, Unüberschaubarkeiten und Unwägbarkeiten unserer modernen Datentechnik, die heute zu Recht die Frage nach Ziel und Nutzen des immerwährenden "Fortschritts" stellen, vielleicht schon viel früher hätte auf den Plan rufen können...?

...jetzt sucht man händeringend Fachleute

Vielleicht setzt es junge, frisch von Hochschule und Heimcomputer kommende Schüler der gleichfalls jungen Kunst der Computerei in Erstaunen - aber Zuse war noch längst nicht der letzte, dem es bei der Vorstellung von Rechnern immer wachsender Kompliziertheit, immer geringerer Überschaubarkeit und Nachvollziehbarkeit und, letztlich, eventuell sogar quasi-intelligenten Eigenverhaltens doch ein wenig mulmig wurde. Denn beispielsweise in den späten Vierziger- und frühen Fünfzigen-Jahren war, im Zusammenhang mit dem damaligen Modewort "Kybernetik", auch gern vom Mode-Thema der sich selber modifizierenden Programme die Rede. Doch kam man davon bald wieder ab, denn man stellte rasch fest: Wir kommen hier in ausgesprochen schwer überschaubares Fahrwasser. Und allein schon mit dem manuellen Modifizieren all' jener frühen Betriebssystem- sowie Datenbank- und Anwenderprogramme herkömmlich-algorithmischer Machart waren die Altvordern zu Adenauers und Einsehowers Zeiten - und auch noch lange danach - ja sowieso mehr als ausgelastet...

Inzwischen nun, und davon wollte gerade auch die vorliegende CW-Serie Zeugnis ablegen, hat die Welt sich weitergedreht und sind die verspotteten KI-Freaks von einst längst anerkannte, händeringend gesuchte und bitter benötige KI-Fachleute geworden, auf deren Wissen, Können und nicht zuletzt jahrelange Vorarbeit längst ganze Industrien alle Hoffnung setzen. Zeigt sich doch jeden Tag mit wachsender Deutlichkeit, das die Industrie Zukunft im verbissenen, globalen Wettstreit der nationalen Ökonomien allein jenen gehören dürfte, die mit Computern um einiges mehr anzustellen verstehen, als nur eben Löhne und Gehälter auszurechnen und vielleicht auch noch die nächste Generation eines Autos zu konstruieren.

Heute und erst recht morgen und übermorgen wird im Wettlauf um Märkte, Kunden

und Einkommen nur bestehen können, wer Rechnersysteme mit der Fähigkeit, Wissen zu speichern und zu verarbeiten, vorweisen kann. Wer also Computer parat hat, die Texte lesen und gesprochene Worte verstehen können; wer mit Hilfe der Elektronik komplizierte Muster erfassen, erkennen, bewerten, klassifizieren und aus alledem auch noch Prognosen - sei es über das Verhalten des Feindes in einem Krieg, sei es über den Lauf der Börse - abzuleiten vermag; und schließlich gar noch, wer Systeme entwickelt, die in ihrer komplizierten Umwelt autonom Informationen aufnehmen - und mithin fortwährend hinzulernen .

An Hand mehrerer Beispiele hat diese Serie beleuchtet, wie wichtig und nützlich die KI-Technik der sogenannten Expertensysteme schon heute für fortschrittliche Unternehmen ist. Eine Entwicklungsrichtung, die heute mehr und mehr zur Basis komplexerer Installationen und zur Entwicklung ausgefeilter Strategien für künftiges Handeln wird. Und in die man mehr und mehr auch Elemente einfügt, die den Systemen den automatischen oder halbautomatischen Erwerb neuen Wissens ermöglichen sollen. Immer mehr rückt im Felde der KI auch eine Forschungsrichtung in den Brennpunkt, die Computern zum Erfassen und "Verstehen" geschriebener oder sogar gesprochener, natürlichsprachlicher Texte befähigen will.

Herkömmlich Expertensysteme müssen noch ein Frage-Antwort-Wechselspiel mit fachkundigen Menschen durchlaufen und dabei mit deren Expertenwissen "gefüllt" werden. Neuere Entwicklungen zielen längst auf symbolverarbeitende Maschinen ab, die einfach von selber lernen können. Dabei gibt es mehrere Emtwicklungsrichtungen, von denen eine beispielsweise im Bau von Computern besteht die an Hand von Beispielen einander ähnlicher, aber dennoch voneinander verschiedener Objekte lernen können. Und zwar lernen sie, welche Merkmale der Gegenstände jeweils eine dieser Objekte klar bestimmen, und Merkmale diese Klasse eindeutig von den übrigen abgrenzen.

Wie läßt sich Wiesen formaliesieren

Allgemeine verfolgen die Entwickler lernfähiger KI-Systeme heute zwei ausgesprochen weit ausgreifende Zielsetzungen, denn zum Ersten möchten sie mit diesen Techniken gleich auch jene Probleme lösen, die auf den Forscher dann zukommen, wenn er nichtsymbolische Daten, wie er sie beispielsweise in der Sprache und in Bildern vorfindet, behandeln soll. Und zum Zweiten erhofft man sich von lernfähigen Computern Antworten auf die Frage, wie kann man das Wissen menschlicher Fachleute eigentlich treffend und erschöpfend formalisieren? Und wie kann man es dann auch noch "kohärent in Systeme einbringen, die fortan auf Basis dieses Wissens arbeiten und Nutzen bringen sollen?

Heute gängige Verfahren der Wissensaufnahme durch Rechner leiden darunter, daß sie ausgesprochen zeit raubend, aufwendig und überdies problematisch sind: Mit der Qualität dessen, was sie anschließend als "Wissen" zu besitzen vorgeben, und von dem die Güte und die Brauchbarkeit des gesamten Systems ja letztlich entscheidend abhängen, ist es oft nicht eben zum Besten bestellt.

Diese Kritik an den aktuellen Möglichkeiten industriell nutzbarer Systeme erklärt, warum Fachleute sich so dringen Maschinen mit integrierten Lernkomponente wünschen; mit einem Zusatz also, der es erlauben würde, die Wissens-Basen nun endlich konsistent und korrekt zu erzeugen. Und dies auch noch noch bei minimaler Mühe.

Außerdem können Theoretiker sich Wege vorstellen, auf denen besagt Lernkomponente nicht nur durch Fütterung von außen her mehr und mehr an Weisheit anhäuft, sondern gleich noch auf ganz andere Weise. Und zwar dadurch, daß diese Lernkomponente dem Gesamtsystem bei dessen eigener Arbeit kritisch-distanziert vom Hintergrund her zuschaut und immer dann, wenn die Arbeit des KI-Rechners ein Nutzen versprechendes, neues "Stückchen Wissen" hervorgebracht hat, jenes prompt in den Wissensfundus der Maschinerie übernimmt.

So ein neu erarbeitetes Stückchen Wissen könnte etwa die vom System selbst gefundene Aussage "WENN A DANN M" sein, die der Rechner beispielsweise aus Aussagen wie "WENN A DANN C", "WENN C DANN H" und so weiter erzeugt hat.

Lernende Systeme müssen trainieren

Die moderne, an der "KI" orientierte Informatik kennt heute bereits eine ganze Reihe grundlegender Ansätze zum Entwurf von Automaten, die selbstt_TIg immer klüger werden. Anerkannte Experten gehen davon aus, daß viele Arten, auf die Rechner lernen können, eigene "Aktivitäten der Systeme" erfordern. Was wiederum bedeuten würde, so eine Stimme hierzu, der Mensch sei "nicht mehr allein für die Programmierung verantwortlich", denn das System beeinflusse ja selber "in steigendem Maße seine eigene Leistung".

Lernende Systeme, deren vielleicht spektakulärste Ausprägung die verschiedenen Arten neuronaler Netze sind, können Wissen nur dann mehr oder weniger autonom erwerben, wenn sie Gelegenheit haben, an Hand bekannter Fakten und in wechselnden Situationen zu trainieren. Dabei wiederum bestimmen unterschiedliche Lernsituationen, in die man ein System stellt, nun aber nicht allein den Grand der Interaktion mit dem jeweiligen Lehrer, sondern vor allem eine; den Grad seiner Autonomie bezüglich der Ergebnisse des Lernprozesses.

Wenn hochentwickelte Maschinen autonom Neues lernen sollen, so wird von ihnen nicht allein erwartet, daß sie intern Repräsentationen der Wirklichkeit und Konzepte möglicher Zusammenhänge zwischen den Dingen erstellen können; sondern auch, daß sie beispielsweise beliebige Situationen immer dann sicher identifizieren oder klassifizieren wenn ihnen eine ähnliche - und keineswegs unbedingt gleiche - schon früher "von Augen geführt" wurde.

Ein weiterer Aspekt des maschinellen Lernens hat damit zu tun, daß das Studium der denkbaren Arten von Lernvorgängen gleich auch ein Studium möglicher Arten von Problemlösungsverfahren einschließt. Und nebenbei wäre in diesem Zusammenhang auch noch zu erwähnen, daß die Entwicklung maschineller Lern-Techniken die subtilen kognitiven Prozesse in unserem Gehirn immer weiter zu entschleiern hilft.

Heute unterscheiden Fachleute zwischen zwei Paradigmen, die zur Beschreibung kognitiver Prozesse von Nutzen sind. Einmal das symbolische und zum anderen das des Konnektionismus beziehungsweise der neuronalen Netze. Und während der erstgenannte Ansatz intelligent erscheinende Systeme auf der Ebene der Manipulationen von Symbolen beschreibt, spricht der letztere von zahlreichen simplen, wechselseitig miteinander zusammenarbeitenden Subsystemen, will er Konfigurationen mit intelligent wirkendem Tun und Treiben darstellen.

Man geht eher pragmatischer vor

Läßt man die heutige Situation speziell im hochaktuellen und rasch immer mehr Interesse auf sich ziehenden Gebiet des maschinellen Lernens Revue passieren, so muß man, gerade im Vergleich mit anderen Bereichen des Gesamtkomplexes Künstliche Intelligenz, konstatieren: Dieses neue Feld ist heute in etwa dort, wo die allseits beliebten Expertensystemme mit ihren eingebauten Wissensbasen und ihren Schlußfolgerungs- und Erkl_RUngs-Subsystemen wohl vor knapp einem Dutzend Jahren waren. Was man unter anderem auch an der aktuellen Forschungs-Thematik ablesen kann, die beispielsweise immer noch nach generell gangbaren Lösungen für das Problem sucht, im Zuge maschinellen Lernprozesses anfallende Aufgaben zweckmäßig auf moderne - und tendenziell ja höchst preiswerte - Rechner mit hochgrading paralleler Architektur abzubilden. Denn nach wie vor geht hier primär eher pragmatisch vor und sucht einfach von Fall zu Fall nach Verfahren, die momentan optimal erscheinen.

Versucht man einen Ausblick auf die kommenden Jahre, so kann man mit einiger Sicherheit wohl eines sagen: Herkömmliche Systeme, die auf Basis gespeicherten Wissens arbeiten,

werden mehr und mehr um Komponenten beziehungsweise Techniken erweitert, bei denen maschinelle Lernmethoden im Vordergrund stehen. Gibt es doch schon Planungen von Expertensystemen, die um eine automatisch arbeitende Einheit zur Aufnahme neuen Wissens erweitert werden sollen und die überdies noch dadurch erheblich flexibler als heutige Systeme werden sollen, daß man auch ihre sogenannte Problemlösungs-Komponente noch zum Hinzulernen - aus alten Fehlern und aus gelungenen Lösungsversuchen? - befähigt.

Diese ausgebaute, neue Art Rechner wird man quasi als Prototyp kommender Konfigurationen anzusehen haben, die mehr und mehr als Kombieinheiten auftreten werden. Bei diesen Systemen wird man nicht allein gleich mehrere der heute bekannten Lernverfahren in sinnreicher Kombination einsetzen können, sondern besagte Lernmethoden können gleich noch mit anderen Techniken der Künstlichen Intelligenz und der Programmierung im weitesten Sinne zusammengeführt werden.

Wie unterschiedlich die "Begabungen" hier verteil sind, zeigt die Beobachtung, daß neuronale Netze beispielsweise dort besonders viel leisten, wo unmittelbar Bild-, Stimm- und andere Muster verarbeitet oder wiedererkannt werden müssen; oder auch dort, wo scheinbar ganz anders geartete Probleme letztlich doch mit Verfahren der Mustererkennungbehandelt werden können. Während die Klasse der KI-Lernverfahren, also die mit der Manipulation bedeutungsschwangerer Symbole befaßte Technik, natürlich dort den Vorzug erhalten wird, wo es möglich ist, Probleme auf der Ebene entsprechender, symbolischer Repräsentationen darzustellen und abzuhandeln.

Nutzen auch auf anderen Feldern

Wie attraktiv zweckmäßig zusammengestellte Kombinationen beider Verfahren sein dürften, läßt die Skizze eines Systems erahnen, bei dem neuronale Netze Muster erkennen und sie jeweils einem spezifischen Symbol zuordnen sollen. Während herkömmlich aufgebaute Programme oder eben auch Verfahren der - fast möchte man hier schon sagen: "klassischen" - KI diese Symbole dann aufgreifen und aus ihnen weiteres Wissen, weitere Erkenntnisse, neue Strategien und was immer sonst noch gewünscht sein mag, ableiten.

Oder aber man setz in manchen Bereichen sowieso vorzugsweise nur noch neuronale Netze ein. Denn schon jetzt läßt sich sehen, daß diese Netze nicht allein im Bereich der Mustererkennung als schnelle Klassifikatoren Nutzen bringen werden, sondern darüber hinaus auch auf anderen Feldern. Versprechen sie doch interessante neue Systeme zur Steuerung von Robotern, zur Verarbeitung natürlicher Sprache und vielleicht auch zur sparsamen und sinnvollen Verwaltung knapper oder kritischer Ressourcen. Und auch das Steuern verwickelter technischer Prozesse könnte bald schon eine Domäne dieser seltsamen neuen Art quasi-denkender Maschinen werden.

Und da nun wollte Konrad Zuse jenen Draht bewußt lieber nicht legen, der Daten vom Rechenwerk zurück zum Steuerwerk seiner Z3 hätte führen können. Also jenen Draht, der die Fähigkeit zu bedingten Sprüngen geschaffen hätte von dessen letztlich doch unterbliebener Verlegung Zuse einst meinte: "Ich hatte Scheu davor, diesen Schritt zu vollziehen. Denn solange dieser Draht nicht gelegt ist, sind die Computer in ihren Möglichkeiten und Auswirkungen gut zu übersehen und zu beherrschen. Ist aber der, freie Programmablauf möglich, so ist es schwer, die Grenze zuerkennen, an der man sagen könnte: ,Bis hierher, und nicht weiter".