Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

20.05.1977

Eine Lanze für das Tuning

Man muß nicht erst Taschenrechner- und Digitaluhr-Beispiele bemühen, um deutlich zu machen, wohin die Entwicklung auf dem Halbleitersektor geht: Sind heute 16 KB auf einem Silizium-Plättchen noch das Äußerste, was die Large-Scale-Integration-Technik ermöglicht, so werden es in nicht allzu ferner Zukunft (sind es zwei Jahre, sind es drei Jahre?) 32 KB, 64 KB, 128 KB, 256 KB, 512 KB, 1024 KB Mindestausbaustufen auf Prozessor-Ebene sein. Wer wagte da noch zu behaupten, "die meisten installierten Zentraleinheiten sind nicht ausreichend ausgelastet" (der berühmt-berüchtigte Overselling-Vorwurf). Wer zöge noch sein Erfolgserlebnis daraus, bei der Programmierung mit dem letzten Bit zu geizen? Die "Rasierapparat-Argumentation" geringen "Auslastung" seines "Schabers" zu stoßen) geht gar so weit, das Grosch'sche Gesetz in Frage zu stellen, das bekanntlich besagt, eine Rechenoperation ließe sich um so wirtschaftlicher durchführen, je größer die dafür eingesetzte Anlage sei. Die Gefahr ist groß, diesen "dialektischen Doppelboden" für tragfähig zu halten.

Indes, daß Speicherkapazitäten nicht mehr unbegrenzt teilbar sind; nicht länger, dem individuellen (Speicher-) Bedarf entsprechend, "paßgenau" konfiguriert werden kann, widerlegt Grosch nicht: Wer mit seinem Bedarf dicht an die neuen Memory-Sprung-Grenzen kommt, datenverarbeitet allemal wirtschaftlicher - nur haben sich eben die Kostenlevels (nach unten) verschoben, wird das "Gesetz der abnehmenden Überkapazitäten" wirksam. Was das mit Tuning, mit Leistungsmessung zu tun hat? Sicher soviel, daß "Performance-Messen und daraus Konsequenzen ziehen" nach wie vor einen Vorsprung verschafft - auch wenn er nicht mehr so groß ist: Eine Lanze für das Tuning. Überdies hat der Hardware-Preisverfall noch eine andere Initialwirkung: Hersteller wie Anwender sind aufgefordert, ihre Aktivitäten verstärkt in die Software zu verlegen. Sonst könnte in der Tat der Fall eintreten, daß sich die EDV-Wirklichkeit Zerrbild nähert: "... die Organisation von vorgestern mit der Software von gestern auf der Hardware von morgen." Soweit ist es allerdings noch nicht: Das Interesse für Hardware- und Software-Monitoring nimmt zu; statt auf "allerneueste" Technologien zu schielen, nutzen viele EDV-Leiter die Chance, ihr eingefahrenes System auf Effizienz hin abzuchecken. "Immer langsam voran" ist gewiß besser als in Erwartungsangst erstarren.