Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

09.11.1990

"Wir kommen mit Riesenschritten weiter - aber in welche Richtung?"

Dipl.-Ing. Manfred Siebert, Vorsitzender des Ausstellerbeirates der Systec, Geschäftsführer der Intergraph Deutschland GmbH

Haben wir Computerhersteller es geschafft, den Computer für den Benutzer verständlich zu machen, der ihn als Hilfsmittel oder Werkzeug benutzt, der aber seine Fachkenntnisse auf einem anderen Fachgebiet hat. Ein Beweis für die Berechtigung dieser Frage ist der Anspruch eines meiner Industriekunden nach einem Messebesuch: "Ich kann diese vielen Unix-Kisten einfach nicht mehr sehen - die ähneln sich doch alle."

Ich will mit meinen Ausführungen versuchen, zumindest ansatzweise diese Fragestellung zu beantworten, und Ihnen darlegen, daß die Angst vor dem Computer immer weniger begründet ist. Dabei nehme ich meine Schlußfolgerung gleich vorweg: ja, wir sind der bedienerfreundlichen Anwendbarkeit der Computer ein großes Stück nähergekommen. Die zumindest theoretischen Grenzen der Machbarkeit liegen jedoch noch weit entfernt."

Komplizierte Computersysteme bedeuten:

- Angst vor dem Computer,

- lange Ausbildungszeiten für daran arbeitende Spezialisten sowie

- schlechte Vernetzbarkeit und damit schlechte Integrationsmöglichkeit.

Dies sind die Kriterien, die der bereits angesprochenen Zielsetzung unserer Kunden zum Einsatz eines Computers entgegenstellen. Statt dessen wollen wir mit Hilfe der Computersysteme ein hochtechnologisches Produkt erzeugen, das auf dem Weltmarkt zu einem vernünftigen Preis zu verkaufen ist.

Der Fortschritt und die Vereinfachung in der Handhabung der Computersysteme geschahen praktisch auf allen Gebieten, jedoch mit unterschiedlichem Erfolg, wie wir im folgenden feststellen werden.

Zum Thema Hardware: Da ich selbst zur Gattung der Computerleute gehöre, werde ich mir gleich selbst widersprechen und nicht über Anwendungen, sondern über Hardware reden. Hier ist der Fortschritt in der Entwicklung besonders augenfällig.

Wie bekannt verdoppelt sich die Leistungsfähigkeit der Elektronikbauteile etwa alle drei Jahre. Dies hat sich in der Entwicklung sehr kleiner und sehr leistungsfähiger Computer bemerkbar gemacht.

Ein Laptop bringt heute schon mehr Leistung als die Großcomputer von vor 20 Jahren. Die Leistungsaufnahme ist so gering, daß man mit einer relativ kleinen Batterie mehrere Stunden netzunabhängig arbeiten kann.

Die sogenannten Workstations sind Spezialentwicklungen für Grafikanwendungen und haben interne RISC-Computer mit bis zu 100 Megahertz Taktrate. Damit machen sie bereits heutigen Großcomputern Konkurrenz. Haben wir also das theoretisch Machbare bereits erreicht?

Ich will versuchen, diese Frage durch einen Vergleich mit dem kompliziertesten Gebilde zu beantworten, das es wohl im Weltall gibt: der Mensch und insbesondere unser Gehirn.

Wie gut unser Gehirn arbeitet, merken wir, wenn wir versuchen, uns an etwas zu erinnern, das wir vergessen haben. Plötzlich fällt uns das Ereignis wieder ein, obwohl wir längst etwas anderes machen. Oder vielleicht gerade deshalb? Hier gibt es sicher Verbindungen zu dem Thema der Kreativität.

Es werden also parallel zum vordergründigen Denkprozeß im Hintergrund ständig neue Assoziationen gebildet. Unser "Münchner" Nobelpreisträger Gerd Binnig hat erst kürzlich über das Thema Kreativität ein sehr interessantes Buch veröffentlicht. Ganz in seinem Sinne könnte man also sagen, daß unser Gehirn aus kleinen, aber sehr leistungsfähigen fraktalen Funktionseinheiten besteht.

Ein Computer hat heute meistens nur eine Zentraleinheit, also eine Funktionseinheit. Sie wird durch schnelle Taktgeber bis auf 100 Millionen oder mehr Funktionsschritte pro Sekunde gebracht. Das Gehirn dagegen hat mehrere Milliarden Gehirnzellen kleinster Bauart, die mit nur zirka 1000 Taktzyklen pro Sekunde arbeiten, aber untereinander stark vernetzt sind. Die Vernetzungsanschlüsse sind variabel gestaltet, so daß die Verbindungen dynamisch geknüpft und wieder geöffnet werden.

Es gibt zwar Entwicklungen im Computerbau, die mit parallel arbeitenden Zentraleinheiten agieren, die Software-Entwicklung liegt hier aber noch sehr im argen. Die neuronalen Netze machen hauptsächlich durch reißerische Artikel auf sich aufmerksam - genauso übrigens wie die Artikel über künstliche Intelligenz. Es scheint also, als ob wir mangelnde Komplexität in der Hardware durch Erhöhung der Taktraten ausgleichen wollen. Das müßte dann jedoch der falsche Ansatz sein.

Meine Schlußfolgerung wäre also hier: Ja, wir kommen mit Riesenschritten weiter, aber wir laufen Gefahr, die falsche Richtung zu wählen.

Zum Thema Software: Die rasante Entwicklung auf dem Hardwaresektor hat die Software-Entwickler neidisch gemacht. Der Fortschritt, zum Beispiel auf dem Gebiet der Programmiersprachen, ist eher mager und allenfalls linear. Man hat sich die Hardware-Entwicklung angeschaut und festgestellt, daß der Hauptgrund des Fortschritts hier die Entwicklung von Modulen war. Der Elektroniker entwickelt Chips, das sind in Kunstharz verkapselte Elektronikbauteile, deren Funktion man in einem kleinen Datenblatt beschreiben kann. Ein Anwender dieser Standardbauteile käme nun niemals auf die Idee, diese Bauteile noch einmal nachzuerfinden oder zu verändern. Genau das wird auf dem Gebiet der Software aber täglich getan.

Ein Ausweg wurde hier durch die Forscherin Adele Goldberg vom Forschungszentrum Palo Alto Research Center, kurz: "Parc", in Kalifornien aufgezeigt. Ihre Programmierumgebung Smalltalk, zu Deutsch: Geplauder, war ursprünglich als Lehrsprache für Kinder gedacht. Die Idee war aber dann so brillant, daß sie sich allgemein durchsetzen konnte. Die Methode wird heute als objektorientierte Programmierung bezeichnet und ahmt in der Tat das Verkapseln von IC-Schaltkreisen nach.

Auf dem Gebiet der Software-Innovationen wären noch die Forscher Brian W. Kernighan und Dennis M. Richie zu nennen, die das Betriebssystem Unix und damit zusammenhängend die Programmiersprache C entwickelt haben. Der Entwickler Bjarne Stroustroup hat die Prinzipien von Smalltalk weitergeführt und sich die objektorientierte Sprache C + + erdacht.

Mit diesen Ansätzen ist anzunehmen, daß wir in einigen Jahren tatsächlich aus der Softwarekrise kommen und wieder etwas produktiver werden.

Zum Thema grafische Benutzeroberflächen: Auch aus dem Hause Parc und auch von Adele Goldberg kam die Idee der grafischen Benutzeroberflächen. Und damit sind wir dann wirklich auf einem Gebiet, das dem gelegentlichen Computerbenutzer echte Vorteile bringt. Selbst Kinder können heute sehr einfach und ohne lange Anlernphase mit Mäusen, Flip-Down- und Pull-Up-Menüs, mit Fenstern und Icons umgehen. Offensichtlich wurde hier das Lernen ganz entscheidend erleichtert.

Es wäre sicher zu wünschen, daß die Bemühungen um X-Windows, X-Open, Motif etc. zu einer Vereinheitlichung führen, die dann den Lernaufwand für unsere Kunden nachhaltig verringern könnten. Wir können das Problem des Lernens teuer lösen, indem wir immer mehr Universitäten, Volkshochschulen und sonstige Institute schaffen, die dann von den Arbeitsämtern bezahlt werden müssen. Wir können aber auch unsere Computer, zumindest von außen gesehen, einfacher machen. In diesem Sinne haben

grafische Benutzeroberflächen unsere Workstations einfacher gemacht.

Zum Thema Grafik: Grafische Benutzeroberflächen deuten schon an, daß unsere Computerwelt sich stark in Richtung Grafik bewegt. Dieses Feld ist sicher für den typischen Systec-Besucher von besonderer Bedeutung. Wir Ingenieure haben ja immer schon grafisch denken lernen müssen. Als Hilfsmittel haben wir dafür das zweidimensionale Reißbrett benutzt, das heißt, man hat uns beigebracht, die dreidimensionale Welt in zweidimensionalen Schnitten oder Ansichten zu sehen.

Es ist übrigens manchmal für eingefahrene Ingenieure gar nicht so leicht, sich wieder in der dreidimensionalen Welt, die der Computer jetzt ermöglicht, zurechtzufinden. Junge Menschen haben damit natürlich kein Problem. Die Hardware-Entwicklungen auf dem Gebiet der Farbmonitore mit bis zu zwei Millionen Farbpunkten und bis zu mehreren Millionen Farben pro Bildpunkt ermöglichen uns heute, realistische Bilder auf den Bildschirm zu zaubern, die von einer Fotografie kaum zu unterscheiden sind. Und das alles mit einer durchaus akzeptablen Geschwindigkeit.

Die Ausnutzung dieser Eigenschaften ermöglicht jetzt die Simulation unserer Umwelt im Computer. Es können Crash-Versuche simuliert werden, die weder Menschen gefährden noch kostbares Material vernichten. Konstruktionen lassen sich genau vorberechnen. Und vor allem hat der Ingenieur die Möglichkeit, mehrere Varianten seiner Konstruktion theoretisch auszuprobieren, um in einem wahrhaft kreativen Prozeß neue Lösungen zu finden.

Die Darstellung der Geometrie als Splines, Bi-Splines oder Nurbs ermöglicht uns, das alte Vorurteil über die Computerfachleute abzubauen, das aus der Euklidischen Mathematik stammt: Ihr seht alles nur viereckig! Die Natur ist eben fraktal, und wir sind heute dabei, diese Gesetze immer besser zu verstehen.

Erst mit Hilfe der grafischen Computer sind wir in der Lage, gefällige Konstruktionen mit vernünftigem Aufwand herzustellen und dabei trotzdem in einem vorhersehbaren Kostenrahmen zu bleiben. Dabei ist ganz im Sinne der Computerintegration der gesamte Weg vom Entwurf über die Konstruktion bis hin zur Arbeitsvorbereitung, Fertigung und Materialverwaltung in einem kontinuierlichen Fluß zu bewältigen.

Zum Thema Datenbanken: Wer so arbeitet, wie gerade beschrieben, wird viele Daten erzeugen. Der Vorteil wäre immerhin, daß die Daten nicht mehrfach angefaßt werden müssen, sondern in einer zentralen Datenbank landen. Das Thema Datenbank hat die Computerbenutzer in den letzten Jahren noch am meisten verschreckt. Da gibt es Indizes, Tabellen, Pointer, Fifo-Strukturen, Ringe, Hash-Codes, investierte Datenbanken etc. Kein Mensch blickt da noch durch.

Dabei stellte sich heraus, daß verhältnismäßig kleine Fehler im Design der Datenbank katastrophale Folgen für die Datenhaltung und die Zugriffszeiten haben können. Ich bin davon überzeugt, daß mancher Hardwarehersteller von falsch designten Datenbanken ganz gut lebt.

Der Mathematiker Codd hat 1970 hier eine wesentliche Vereinfachung gebracht. Zwar sind Datenbanken innen immer noch genauso kompliziert wie vorher, aber von außen gesehen wird alles ganz einfach. Ein Vergleich mit den grafischen Benutzeroberflächen drängt sich hier auf. Auch hier wird a ein innen kompliziertes System außen einfach dargestellt.

Die relationale Datenbank war geboren. Sie stellt sich dar als eine Ansammlung simpler zweidimensionaler Tabellen, bei denen die Verbindung mit anderen Tabellen über Schlüsselfelder definiert wird. Im Nu kann so eine sehr komplexe Datenbank entstehen. Natürlich besteht immer noch die Gefahr der falschen physikalischen Organisation auf dem Speichermedium. Aber hier haben einige große standardisierte Datenbankhersteller Erstaunliches geleistet.

Mit diesen Datenbanken, fast alle arbeiten mit der standardisierten SQL-Abfragesprache, können Daten praktisch nicht mehr ganz falsch organisiert werden. Außerdem kann die Datenstruktur jederzeit neu überdacht werden. Ich halte diese Entwicklungen für einen der größten Fortschritte in der EDV-Industrie.

Natürlich sind wir damit unserem Fernziel, dem menschlichen Gehirn, nur ein winziges Stück nähergekommen. Unser Gehirn arbeitet assoziativ. Aber dazu ist, wie gesagt, eine völlig andere Hardwarestruktur notwendig. Als Nahziel deutet sich hier schon eher die verteilte Datenbank an. Bis jetzt gibt es aber noch keine vernünftig arbeitenden Produkte auf diesem Sektor, die meinen Vorstellungen entsprechen. Des weiteren wird heute über wissens- und regelbasierte Datenbanken gesprochen. Ich kann mir vorstellen, daß man - hier schon eher auf produktionsreife Produkte stoßen wird.

Zum Thema Netzwerke: Zur Computerintegration gehören natürlich die Netzwerke. Sie sind ein schönes Beispiel dafür, wie man durch mangelnde Standardisierung ein an sich einfaches Problem kompliziert machen kann. Wer jemals versucht hat, an seinen Computer einen Drucker anzuschließen wird wissen, was ich meine. Die Deutsche Bundespost hat in der Vergangenheit noch das ihrige dazu beigetragen, das Problem zu einem richtigen Alptraum zu machen.

In Amerika hatte man es wesentlich leichter. Und so gibt es drüben Netzwerke, von denen wir hier nur träumen können. Die Arpa-Forschungsagentur hat schon früh einen Standard erzwungen, der vielen inzwischen als TCP/IP geläufig ist. Es gibt in Amerika schon so viele Mailboxen, daß man es sich gar nicht mehr vorstellen kann, jemand sei nicht mindestens an eine angeschlossen. Die Deutsche Bundespost hat ja kürzlich mit der Liberalisierung des Fernmeldewesens einen Schritt in die richtige Richtung getan, und wir können ihr dazu nur gratulieren.

Nach Gerd Binnig ist alles in der Natur Kommunikation. Sie ist der wesentliche Triebfaktor einer fraktalen Gesellschaft. Wenn wir eine solche Gesellschaft wollen, dann müssen -wir Netzwerke aufbauen.

Dazu möchte ich gerne noch zwei Zitate aus Gerd Binnigs Buch "Aus dem Nichts" erwähnen: "Der Diktator und sein Stab verdummen, weil sie die wichtigen Informationen von der Basis nicht erhalten." "Unsere Welt ist deshalb fraktal, weil dies die beste Art der Informationsverarbeitung ist."

Zum Thema Normen: Ich hatte schon mehrfach die Bedeutung der Normen und der Standardisierung angesprochen. Hier gilt es wirklich, dafür zu sorgen, daß unsere Computerprodukte menschenfreundlich werden.

Manche Firmen verwenden ja bewußt Nicht-Standards, um ihre Kunden an sich zu binden. Andere wiederum setzen ein an und für sich schlechteres Produkt durch Marktmacht durch und errichten so einen neuen "Marktstandard". Ich denke da insbesondere an den PC-Markt oder aber auch an den Video-Markt (VHS gegen Video-2000, Dolby gegen Hycom).

Ganz schlimm wird es natürlich dann, wenn ein sogenannter "Marktstandard" (das heißt gewöhnlich: die zweitbeste Lösung) auch noch durch Patente abgeschottet wird.

Wir Deutschen waren ja in der Entwicklung von Standards führend in der Welt, wie auch das Deutsche Museum in München eindrucksvoll beweist. Die Deutschen Normen werden in der Zwischenzeit weltweit angewandt, zum Teil mit geringen Abwandlungen. Auf dem Gebiet der Computertechnologie ist sicher bereits einiges gemacht worden, aber mir geht das alles zu langsam, und es ist auch zuwenig.

Mit obigen Ausführungen habe ich versucht darzustellen, daß in bezug auf die Anwenderfreundlichkeit der Computer und die Industrie gewaltige Fortschritte verzeichnen konnten und Ansätze zur Vereinfachung gefunden wurden, die es lohnen, weiter verfolgt zu werden. Von dem Fernziel der menschlichen Intelligenz sind wir jedoch noch Lichtjahre entfernt.

Nahziel sollte es sein, die gewaltigen Lernaufwände zu reduzieren, die es einem Unternehmer heute immer noch schwer machen, sich für den Einsatz eines Computers im Produktionsprozeß oder in seiner Entwicklungsabteilung zu entscheiden.

Hinsichtlich der Kommunikation zwischen den Systemen und damit sind wir wieder bei der Computerintegration bringen die heute gegebenen Vernetzungsmöglichkeiten gewaltige Vorteile mit sich. Hier ist deutlich die Forderung nach weiterem Ausbau und stärkerer Standardisierung zu erheben.

In den weiter zu entwickelnden Datenbanken stecken die zweitkostbarsten Werte eines Unternehmers: die Informationen. Diese müssen geschätzt und gepflegt werden.

Aus der Begrüßungsrede zur Eröffnung der Systec 1990 am 21. Oktober 1990 in München