Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.01.1997 - 

Thema der Woche

1997: Vom Hype zur Internet-Wirklichkeit

Viele Anwender werden 1997 vor allem von der Umstellung ihrer Datumsangaben auf das Jahr 2000 und der Vorbereitung der betriebswirtschaftlichen Anwendungen auf die Euro-Einführung in Anspruch genommen sein. Gleichzeitig ringen die Hersteller um wegweisende Techniken und Standards, die die Entwicklung und Benutzung von Applikationen entscheidend verändern sollen. Damit im Zusammenhang steht, daß sich auch im Anwendungsbereich das Gewicht von den Rechner- und Betriebssystem-Plattformen auf das Netz verlagert. Erstmals seit Jahren kommt dabei das Erfolgsunternehmen Microsoft unter Druck. Die zentrale Rolle spielen Middle- und Componentware. In beiden Bereichen treibt der Internet-Boom die Entwicklung. Konkret hoffen die Konkurrenten, Microsofts speicherfressenden Anwendungen mit schlanken Komponenten vor allem auf Java-Basis die Zukunft versperren zu können. Bei der Middleware geht es darum, den Aufstieg Microsofts aus der Desktop-Welt auf die Server-Ebene zu bremsen. Die Verbindung zwischen den Applikationen auf verschiedenen Systemen soll nicht, wie Bill Gates möchte, mit OLE-Techniken geschaffen werden, sondern mit offenen Standards wie der seit Jahren etablierten Common Object Request Broker Architecture (Corba).

Weniger spektakulär, aber ebenso wichtig ist die Rückkehr des Qualitäts-Managements bei der Software-Entwicklung. Der Client-Server-Boom der letzten Jahre hat das Rapid Application Development zum Quick-and-dirty-Verfahren verkommen lassen. Solange es um Benutzeroberflächen ging, war wenig gegen diese mit Windows-Tools entwickelten Wegwerf-Programme zu sagen. Nun geht es jedoch um unternehmenskritische Anwendungen. Die hier nötige Dauerhaftigkeit und Robustheit hat 1996 zu einer Belebung des Marktes für Test-Tools und Entwicklungs-Workflow gesorgt. Die anderen Qualitätsbereiche werden folgen.

Zehn Jahre nach der Freigabe der ersten OS/2-Version will die IBM nun wissen, ob das Betriebssystem auf eigenen Beinen stehen kann. Statt 32-Bit-Windows-Programme zu emulieren, ermutigt man die Entwickler durch Tools, ihre Anwendungen auf OS/2 umzustellen - mit ungewissem Ausgang. Auch für Microsofts Windows NT zeichnen sich Grenzen des Wachstums ab. Fast alle großen Hersteller haben sich inzwischen festgelegt: NT ist gut als Workgroup-Server, für anspruchsvollere Aufgaben ist Unix das System der Wahl. Unklar ist die Zukunft des Apple-Betriebssystems "Mac-OS". Hier soll Altstar Steven Jobs Kunden, Partner und Mitarbeiter mit überzeugenden Visionen und Next-Technik bei der Stange halten. Aber auch Produkte müssen folgen - noch in diesem Jahr.Hermann Gfaller

Um es gleich vorwegzunehmen, im Bereich der Unternehmenskommunikation dürfte 1997 wenig Sensationelles anstehen. Auch dieses Jahr wird in puncto Asynchronous Transfer Mode (ATM) eine Hängepartie, selbst wenn uns die Anbieter etwas anderes suggerieren möchten. Daran ändern vermutlich auch die Fleißaufgaben des ATM-Forums nichts, das Ende 1996 mit dem Private Network to Network Interface (PNNI) noch eine wichtige Spezifikation auf den Weg gebracht hat. Das Routing-Protokoll soll die Interoperabilität von Switching-Geräten verschiedener Hersteller garantieren.

Ein Faktor, der die ATM-Entwicklung lähmen könnte, ist Gigabit Ethernet. Über das ultraschnelle Verfahren wurde bereits im vergangenen Jahr viel spekuliert. Ob Gigabit Ethernet aber halten kann, was sich viele davon versprechen - nämlich eine taugliche Alternative zu ATM zu sein -, ist fraglich. Zunächst bleibt diese Technologie graue Theorie, für 1997 sind keine umfassenden Spezifikationen zu erwarten.

Trotzdem dürfte bereits die bloße Diskussion um Gigabit Ethernet in manchen Unternehmen ausreichen, die ATM-Pläne vorerst auf Eis zu legen, auch wenn das Turbo-Ethernet für die Sprachkommunikation nicht geeignet ist. Viele IT-Manager erhoffen sich von Gigabit Ethernet wegen des Investitionsschutzes eine durchgängige Migration, das heißt, nach dem Schritt von Ethernet auf Switched- und Fast Ethernet soll dann der zur noch schnelleren Variante folgen.

Bis auf weiteres wird hierzulande in Sachen ATM also die Devise gelten: Abwarten und auf Fast Ethernet sowie Switching setzen. Der 1996 bereits eingeleitete Trend zu diesen Verfahren, soviel ist sicher, zementiert sich heuer. Schlechte Karten haben allerdings VG-Anylan und der Token Ring. Der von Hewlett-Packard vorangetriebene Standard VG-Anylan hat keine Chance, sich gegen Fast Ethernet zu behaupten, und wird vom Markt verschwinden. Token-Ring-Anwender, die mehr Bandbreite im Netz wollen, können mit dem De-facto-Standard Dedicated Token Ring (32 Mbit/s) kaum glücklich sein und müssen wohl in andere Lager wechseln.

Mit den derzeit am Markt angebotenen Switching-Techniken werden sich die DV-Manager weiterhin über die Runden retten, bis mittelfristig dann die Entscheidung für oder gegen ATM ansteht. Diese Taktik ist auch insofern sinnvoll, als die meisten Anwender im LAN mit dedizierter Bandbreite ausreichend bedient sind. Was das Switching zwischen LANs betrifft, dürfte das sogenannte intelligente Switching Boden gutmachen, das heißt Routing mit abgespeckten Sicherheitskriterien, während das Vertrauen der Netzwerker in virtuelle LANs wohl weiter auf sich warten läßt.

Interessant dürfte das neue Jahr unter dem Aspekt des deregulierten TK-Marktes werden. Bislang sind die alternativen Netzbetreiber dem Anwender schlüssige Konzepte schuldig geblieben - fast hat man den Eindruck, sie konzentrieren sich mehr auf die öffentliche Sprachkommunikation, wo das Monopol der Telekom Anfang 1998 fällt. Peter Gruber

Was bringt 1997 bezüglich neuer Hardware? DV-Manager dürften mit Interesse die Anstrengungen von Systemherstellern verfolgen, die ihre Unix-basierten Server mittels Cluster-Technologien als veritable Mainframe-Alternativen positionieren wollen. Allerdings konkurrieren verschiedene Cluster-Technologien miteinander. Es wird sich zeigen, ob Microsoft mit "Wolfpack" einmal mehr zur integrativen Marktmacht wird.

Die Anbieter herkömmlicher Großrechner und insbesondere die IBM schlafen derweil nicht: Nicht nur werden ihre CMOS-Implementationen zunehmend die noch bestehende Differenz in der Rechenleistung zu ECL-basierten Großrechnern ausgleichen können - bei erheblich niedrigeren Nebenkosten für Energieverbrauch, Infrastruktur etc. Big Blue arbeitet auch vehement daran, seine S/390-Maschinen in Sysplex-Verbindungen zu clustern. Bis zu 32 der Großrechner ergäben, so die Theorie, ein System, das sich für den Anwender verhielte wie eine einzige Maschine.

Am unteren Ende der Rechnerskala wird man vor allem Intel beobachten müssen. Nicht nur treibt der Prozessormonopolist die Entwicklung des gemeinsam mit HP geschmiedeten "Merced"-Chips vehement voran.

Mindestens genauso interessant ist, wie die Andrew-Grove-Company zunehmend als Techno- logieintegrator fungiert: Neben der Multimedia-Implementierung "MMX" auf dem Pentium-Pro-Chip dürfte das kalifornische Unternehmen gezielt daran arbeiten, weitere Technologien etwa für Videokonferenzen, TV und Audio auf einem einzigen Chip unterzubringen.

Für den Endanwender wird mit der DVD-Technologie (DVD = Digital Versatile Disk) eine neue Epoche der Datenkonservierung anbrechen, die vor allem auch in den Unterhaltungselektronikbereich hineinstrahlen wird. Mit entsprechenden Geräten, die im übrigen auch die bisherigen Silberscheiben abspielen können, lassen sich Datenmengen bis zu 8,5 GB auf einem einzigen Rundling lagern. Da abzusehen ist, daß auch in diesem Bereich die Preise drastisch fallen werden, könnte die Kombination von PC und DVD erhebliche Auswirkungen auf den Markt für heimische Film- und Fotoverarbeitung haben.

Neuerungen stehen auch in der Display-Technologie bevor: Es ist - wenn auch wahrscheinlich noch nicht 1997 - damit zu rechnen, daß Flachbildschirme mit hoher Auflösung und großen Bilddiagonalen auf den Markt kommen werden, die man sich buchstäblich an die Wand hängen kann. Prototypen mit einer Bildschirmdiagonale von 102 Zentimetern wurden bereits vorgeführt, sind aber mit rund 20 000 Mark noch sehr teuer.

PC, DVD und Flachbildschirme etc. werden zudem einem weiteren Trend Vorschub leisten: der Integration von TV, Computer, Telefon etc. zu einem einzigen Informationsterminal für den Hausgebrauch.Jan-Bernd Meyer

Mit nur fünf Mitarbeitern, so erzählt MIT-Professor Thomas Malone, habe Nokia in den USA den Markt für Bildschirme aufgemischt. 1992 investierte Mahyar Motraghi sein gesamtes Startkapital in die amerikanische Niederlassung. Mit einem Umsatz von 160 Millionen Dollar habe er heute sechs Prozent des landesweiten 17-Zoll-Monitor-Marktes erobert. Motraghi kümmert sich mit zwei Assistenten um Marketing und Vertrieb, zwei Mitarbeiter befassen sich mit den finanziellen Angelegenheiten. Ansonsten besorgen vor allem lokale Vertriebspartner das Geschäft. Auf den internationalen Aufbau des Unternehmens soll hier nicht eingegangen werden, was aber Nokia in den USA auszeichnet und seinen Wettbewerbsvorteil ausmacht, ist laut Malone Geschwindigkeit, Flexibilität und eine schlanke Organisationsstruktur.

Wird so die Arbeitswelt von morgen aussehen - alles nur Kleinunternehmer und Selbständige? Zumindest so ähnlich, meinen amerikanische Management-Gurus. Kaum ein Thema beschäftigte im letzten Jahr auch die deutsche Öffentlichkeit so sehr wie die Zukunft der Beschäftigung. Zu Recht, denn die Zahl der Arbeitslosen stieg hierzulande auf vier Millionen und soll auch 1997 weiter zunehmen.

Herausgekommen ist bei den zahlreichen Diskussionen indes nicht viel. Politiker und Interessenvertreter denken immer noch in starren Kategorien und fechten die Kämpfe von gestern aus. Zumindest statistisch gesehen, ging die Krise auf dem Arbeitsmarkt zwar an der IT-Branche vorbei. In den ersten Monaten des letzten Jahres stieg das Angebot an IT-Jobs um etwa 80 Prozent gegenüber dem Vorjahr, und auch als gegen Jahresende das Interesse der Firmen an Computerfachleuten nachließ, betrug der Zuwachs immerhin noch 40 Prozent. Dennoch stehen auch hier große Veränderungen bevor: Die Rede ist von einer Krise der Arbeitskräfte. Es mangelt, so war oft zu hören, an erfahrenen Experten mit dem aktuellen IT-Know-how, umgekehrt haben die jungen Profis noch nicht viel Erfahrung.

Zwei miteinander zusammenhängende Entwicklungen kristallisieren sich heraus, die auch in diesem Jahr das Bild der Branche bestimmen werden:

1. Die Zahl der Selbständigen und die der kleinen Firmen wird zunehmen.

2. Einstellen werden in erster Linie Beratungs- und Softwarehäuser, die Anwender halten sich zurück.

Vor allem für Berufseinsteiger, aber auch für alle anderen Beschäftigten hat diese Entwicklung die Konsequenz, daß die beruflichen Anforderungen enorm steigen. Wer fachlich und von der Sozialkompetenz her nicht absolut fit ist, wird bei den Nokias dieser Welt kaum unterkommen, und ob ihn ein Großunternehmen wie Siemens nimmt... wer weiß? Hans Königes