Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.10.1991 - 

US-Analyst erläutert die aktuellen Entwicklungen in der IBM-Welt

Big Blue muß Trend zu offener Rechnerarchitektur anerkennen

FRANKFURT (qua) - Dem Trend zu kleineren Systemen und verteilten Anwendungen kann sich auch die IBM nicht mehr verschließen. Anläßlich einer Kundenveranstaltung der ECS Deutschland GmbH erläuterte Dale Kutnick, Präsident und Forschungsdirektor der Meta Group, die jüngsten Ankündigungen des blauen Riesen und die Konsequenzen für die traditionell Mainframe-orientierten "IBM-Shops".

Zum Ausgangspunkt seiner Überlegungen machte der US-Analyst das am 11. September dieses Jahres erfolgte breitangelegte IBM-Announcement. Dabei sei zum einen deutlich geworden, daß der Marktführer im Mainframe-Bereich weder bei der Hardware noch bei der Software Preiszugeständnisse an den Markt machen werde.

Von der in Aussicht gestellten "aggressiven Rabattpolitik" dürften allenfalls die größten Anwender profitieren.

Steckerkompatible Rechner sind laut Kutnick keine Alternative, solange die darauf lauffähige Software dem Monopol der IBM unterliege.

Die Anwender sollten vielmehr ihre Ressourcen dezentralisieren und neue Anwendungsentwicklungs-Architekturen auf der Grundlage von Workstations und PCs implementieren (Stichwort: Client-Server). Allerdings werde sich ein solches Downsizing frühestens in zwei Jahren auszahlen, da zunächst Investitionen in Technik und Ausbildung erforderlich seien.

Großrechner bleibt als zentraler Punkt erhalten

Zum anderen hat Kutnick zwischen den Zeilen der IBM-Ankündigung gelesen, daß der Branchenriese seinen bislang auf den Mainframe konzentrierten Blickwinkel erweitern wolle: So seien Workstations und PCs Jetzt auch in der IBM-Welt als Entwicklungsplattformen zulässig, neue Schnittstellen würden breitere Verknüpfungen ermöglichen, und die PCs seien nunmehr Teil der Verarbeitungsarchitektur. Daß die Mainframe-Umsätze schlagartig wegbrechen konnten, glaubt der Marktforscher allerdings nicht: "Jeder, der das Repository und DB2 einsetzt, wird immer noch genügend Mainframe brauchen ".

Außerdem (Kutnick: "IBM gibt nicht auf") bleibt der Großrechner als zentraler Punkt für den Informationszugriff sowie das System- und Netz-Management erhalten. Sowohl das "Information Warehouse"- als auch das "Systemview"-Konzept basieren auf Mainframe-Applikationen - auch wenn dies nach Ansicht des Meta-Group-Präsidenten nicht zwingend ist: "Wir meinen, daß es keinen Grund dafür gibt, warum EDA/SQL auf dem Mainframe laufen muß - im Gegenteil, das ist ineffizient."

Ähnlich verhält es sich mit dem System- und Netz-Management. Wie Kutnick aus IBM-nahen Kreisen erfahren hat, wurde die "Netview"-Software beim IBM-Labor im texanischen Austin versuchsweise auf eine RS/6000 portiert. So prophezeit der US-Analyst dem RISC-System denn auch gute Chancen als Collector und Consolidator für die Netzverwaltung - "aus politischen Gründen allerdings mit einer Schnittstelle "nach oben", sprich: zum Mainframe.

Insgesamt sieht Kutnick im Netzwerk- und System-Management eine der künftigen Aufgaben für RISC-basierte Unix-Systeme. Ansonsten werde Unix bei kommerziellen Anwendungen bis Mitte der 90er Jahre keine nennenswerte Rolle spielen: "Es gibt einfach noch zu viele Anwendungen, die nur auf dem Mainframe laufen."

Bislang nur für große IBM-Hosts ausgelegt ist auch das Kernstück des AD/Cycle-Konzepts, der Repository Manager. Weit entfernt davon, ausgereift zu sein, wird das Informationsgewinnungs- und -verwaltungswerkzeug, so Kutnick, weltweit von nur 40 Anwenderunternehmen genutzt - und die seien auf Unterstützung durch die Entwicklungsabteilungen der IBM angewiesen. Um das Tool auf breiter Basis einsetzbar zu machen, werde IBM noch zwei bis drei Jahre benötigen.

Teile des Repositorys sollen ausgelagert werden

Bis dahin dürften die Anwender jedoch soweit sein, daß sie ihre Applikationen nur noch auf Arbeitsplatz-Rechnern entwickeln. Die fertigen Anwendungen werden dann jeweils mit dem Mainframe-Repository abzugleichen sein. Greifen aber 20 bis 30 Anwendungsentwickler - beispielsweise während der Mittagspause - auf das Repository zu, so dürfte es zu einem gewaltigen Overhead kommen.

Kutnick hält es deshalb für sinnvoll, Teile des Repositories auszulagern, so daß die Entwickler interaktiv damit arbeiten können. Im übrigen sei auch die IBM bereit, sich dieser Argumentation anzuschließen: Ihr Business-Partner Intersolv beschäftige sich derzeit damit, ein LAN-basiertes Repository zu entwickeln.

Grundsätzlich beurteilt Kutnick die hinter AD/Cycle stehende Vision positiv: Der Trend gehe vom integrierten (I-) CASE zum komponentenbasierten (C-) CASE in Richtung "offenes" CASE. Und die Partner, mit denen IBM derzeit kooperiere seien schlicht "die besten".

Allerdings werde ein solches C-CASE sicherlich weniger homogen sein als eine I-CASE-Umgebung, beispielsweise die Information Engineering Facility (IEF) von Texas Instruments. Negativ fielen auch die hohen Kosten und die späte Verfügbarkeit ins Gewicht - ganz davon abgesehen, daß bislang weder eine Client-Server-Architektur noch objektorientierte Technologien unterstützt würden und die versprochene Connectivity derzeit ebenfalls fehle.

Schlechte Noten vergab Kutnick auch für das zur physischen Speicherung der Repository-Daten vorgesehene Datenbank-Management-System DB2. Das relationale DBMS-Produkt sei "weiterhin fürchterlich innefizient". Da es nicht über entprechende Gateways verfüge, eigne es sich auch nicht als Entscheidungsunterstützungs-System. Um diese Einschätzung zu belegen, führte der Meta-Group-Chef ins Feld, daß zur Realisierung des "Information Warehouse" ein Fremdprodukt (EDA/SQL von Information Builders) notwendig sei.

Warnung vor übertriebener Eile

Das "richtige" DB2 wird einer Meta-Group-Prognose zufolge ohnehin erst in zwei bis drei Jahren verfügbar sein; bis dahin soll nämlich die "Summit"-Architektur voll zum Tragen kommen - mit einem transaktionsorientierten Modell und einer Echtzeit-Entscheidungsunterstützung sowie einem speziell für DB2 ausgelegten Koprozessor und Kanalgeschwindigkeiten von bis zu 50 MB/s. Vor 1992 sei auch nicht damit zu rechnen, daß das DBMS-Flaggschiff der IBM eine echte verteilte Datenhaltung unterstütze.

In der Zwischenzeit, so rät Kutnick den Anwendern, sei es sinnvoller, bei den alten Dateisystemen zu bleiben als groß angelegte Konvertierungen zu starten. Bislang verbrauche DB2 nämlich noch etwa doppelt so viele Ressourcen wie IMS/DB.

Auch in puncto Client-Server-Architektur warnt Kutnick die Anwender vor übertriebener Eile: Aufgabenkritische Anwendungen sollten vorerst in den "zentralisierten" Systemen belassen werden. Wichtig sei jedoch, daß das IS Management "auf hoher Ebene" in die Entwicklung einer verteilten Informationsverarbeitungs-Struktur involviert werde.

Im Bereich Anwendungsentwicklung bestehe die am wenigsten riskante Strategie darin, zunächst in preiswerte PC-basierte Upper-CASE-Tools zu investieren und gleichzeitig die Datenadministration zu verstärken, um auf den Repository-Einsatz vorbereitet zu sein. Wer ein übriges tun wolle, könne auch schon mit der Schulung der Mitarbeiter bezüglich einer Software-Entwurfsmethode beginnen. Ob es bereits sinnvoll sei, vollkommen auf die Codierungs-Handarbeit zu verzichten, zieht Kutnick in Zweifel: "Ich habe nicht eben häufig gesehen, daß das funktioniert." +