Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.04.2007

Rettungsversuche für das Internet

Wissenschaftler fürchten, dass die Infrastruktur des weltweiten Netzes künftigen Anforderungen nicht standhalten wird. Sie arbeiten an einem grundlegenden Umbau.

Von CW-Redakteur Manfred Bremmer

Das ist bei einem Neuanfang zu klären:

• Wie werden Nutzer und Dienste identifiziert?

• Wie stellt man sicher, dass Angaben vertrauenswürdig sind?

• Wie lässt sich eine höhere Verfügbarkeit (99,999 Prozent) als jetzt erreichen?

• Wo im Netz werden Sicherheit, Mobilität und Dienstgüte gewährleistet?

Kritische Stimmen

Als Argumente für einen erforderlichen Neuansatz für das World Wide Web werden die aktuellen Herausforderungen angeführt - etwa Viren und Spam sowie der Mangel an Sicherheit. Robert Kahn, Internet-Pionier und Miterfinder von TCP/IP, findet die Idee gut, weist jedoch darauf hin, dass auch eine nagelneue Architektur nicht alle Probleme beseitigt. Was als Spam oder Pornografie einzuschätzen sei, hänge immer stark vom Betrachter ab, erklärt Kahn, mittlerweile CEO der Corporation for National Research Initiatives (CNRI), gegenüber der CW-Schwesterpublikation "Computerworld". Käme hier eine rein technische Lösung zum Einsatz, würden schnell Bedenken hinsichtlich mangelnden Schutzes der Privatsphäre und Zensur laut.

Links

Geant2: www.geant2.net;

Geni: www.geni.net;

Find: http://find.isi.edu/;

Clean Slate Design for the Internet (CSD): http://cleanslate. stanford.edu/.

Die Hauptprobleme - und wie sie zu lösen sein könnten

• Sicherheit: Ausgehend von den Anfängen des WWW wurde Datenverkehr im Netz prinzipiell als freundlich angesehen, und die Absender galten als identifizierbar. Heute ist es angebracht, vom Gegenteil auszugehen. Möglicher Lösungsansatz: Einbau von Quarantänefunktionen, Entschärfung von DoS-Attacken, Identifikation des Verursachers, Trusted Relationships.

• Wirtschaftlichkeit: Während kommerzielle Überlegungen in den Anfangszeiten des Internets keine Rolle spielten, haben Netzbetreiber inzwischen damit zu kämpfen, dass sie mit dem öffentlichen Internet-Betrieb kein Geld verdienen. Möglicher Lösungsansatz: Es müssen neue Wertschöpfungsketten und Geschäftsmodelle entwickelt werden, eventuell durch Zusatzdienste (zum Beispiel Express-Service für wertvolle Daten) oder ein Zwei-Klassen-Internet.

• Mobilität: Das Internet in seiner jetzigen Ausprägung ist primär für die Kommunikation von Host-Computern an den Endpunkten ausgelegt. Möglicher Lösungsansatz: Angesichts der wachsenden Zahl von Sensoren und mobilen Endgeräten sind statische Hosts künftig eher Ausnahme als Regel; Unterstützung von ortsabhängigen Diensten und Seamless Handover.

• Architektur: Die Struktur ist primär für die einfache Weiterleitung von Paketdaten (IP) an festgelegte Adressen ausgelegt. Neue Funktionen wurden nur als Reaktion auf akute Probleme und Engpässe hinzugefügt, etwa DHCP oder NAT. Bis zur Einführung von Multicast oder IPv6 vergeht mehr als eine Dekade. Möglicher Lösungsansatz: Priorisierung des Transports von Datenströmen, Adressierung von Personen oder Diensten anstelle von physikalischen Instanzen, stärkere Flexibilität.

Gemessen an seinen Ursprüngen ist das Internet in seiner heutigen Form als klarer Erfolg zu werten. Tagtäglich wird es von Hunderten von Millionen Menschen für geschäftliche oder private Zwecke genutzt. Viele Bewohner der westlichen Welt können sich ein Leben ohne Web-Zugang kaum noch vorstellen. In einem schlechteren Licht erscheint das "Netz der Netze" allerdings, wenn man Robustheit und Sicherheit als Maßstab nimmt oder überlegt, welche Anwendungen dem Internet künftig im großen Stil zugemutet werden.

Skeptiker gehen davon aus, dass das Web schon bald an seine Grenzen stößt. Verantwortlich dafür seien die zu erwartenden Multimedia-Anwendungen sowie die zahlreichen Endgeräte, die künftig am Internet angebunden sein werden. Die Palette reicht von mobilen Gadgets über Telefone, Autos, Haushaltsgeräte bis hin zu RFID-Tags. Zuvor könnten aber bereits die Massen von Spammern, Hackern, Phishern und Cyberterroristen die Herrschaft über das Internet ergreifen.

Verknöcherte Struktur

Zu den Eigenschaften, die derzeit am dringlichsten vermisst werden, zählen Sicherheit, Zuverlässigkeit und Verfügbarkeit. "Vor zehn Jahren hatten viele gedacht, das Internet in naher Zukunft für alle möglichen Aufgaben nutzen zu können, von der Kontrolle des Flugverkehrs bis hin zur Telechirurgie", erklärt Nick McKeown, Assistenzprofessor für Informatik an der Stanford University. "Wäre es so weit gekommen, würde ich persönlich nicht mehr fliegen geschweige denn mich remote operieren lassen."

Als Leiter des Forschungsprojekts "Clean Slate Design for the Internet" beschäftigt sich Mc-Keown damit, Wege zu finden, die Engpässe im World Wide Web ein für alle Mal zu beseitigen. Die zentrale akademische Fragestellung lautet dabei, wie man - basierend auf dem heute vorhandenen Wissen - eine weltweite Kommunikationsinfrastruktur neu aufbauen würde. Ausgehend von der resultierenden Blaupause könne man anschließend überlegen, wie sich dieses Modell realisieren lässt, erklärt McKeown. Dass sich die aktuellen Missstände auf Dauer mit konventionellen Methoden beheben lassen, bezweifelt der Wissenschaftler. Das World Wide Web sei inzwischen so verknöchert, dass es nicht mehr reiche, wenn ein paar weitere Löcher gepatcht oder zusätzliche Workarounds entwickelt würden.

Der besondere Vorteil des experimentellen Clean-Slate-Ansatzes sei dessen Ergebnisoffenheit, legt die bei den Deutsche Telekom Laboratories und an der TU Berlin tätige Professorin für Informatik, Anja Feldmann, dar. "Man darf noch einmal von vorne beginnen, nichts ist vorgegeben, alles darf in Frage gestellt werden, jedes Experiment ist erwünscht", erläuterte die Expertin für Netztechnik das Konzept auf einer Veranstaltung des Geschäftskundenbeirats der Deutschen Telekom (Telekomforum). Selbst die Erkenntnis, dass das bestehende Internet das beste aller möglichen Netze ist, sei nicht ausgeschlossen. Denkbar wäre aber auch, so Feldmann, dass sich ein neues Internet als "Net of Networks" entwickelt, das aus zahlreichen neuen experimentellen Netzen zusammenwächst.

Mehrere Projekte am Start

Entsprechende Clean-Slate-Forschungsansätze gibt es bereits, in den USA etwa das von der National Science Foundation (NSF) initiierte Geni-Projekt (Global Environment for Network Innovations). Das Directorate for Computer and Information Science and Engineering (Cise) der Wissenschaftsstiftung baut dazu für 300 bis 400 Millionen Dollar ein riesiges, über die USA verteiltes Testlabor mit verdrahteten und drahtlosen Rechnern, Routern, Switches, Management-Software und verschiedenen Subnetzen auf. Es soll auf einem Glasfaser-Backbone basieren und zunächst gut 200 Universitäten anschließen. Nach der Fertigstellung, irgendwann nach 2010, können Forscher einen kleinen (virtuellen) Teil davon als private Testumgebung nutzen. Das Besondere daran: Hard- und Software werden so flexibel ausgelegt sein, dass nahezu jedes Networking-Konzept getestet werden kann, nicht nur solche, die auf Paketvermittlung, TCP/ IP, Routern und anderer Ausstattung des heutigen Internets basierten, erklärt Allison Mankin, Program Director bei der NSF.

Daneben fördert die Stiftung im Rahmen des Find-Programms (Future Internet Network Design) eine Reihe von Forschungsprojekten von denen manche nach der Fertigstellung auf dem Geni-Netz getestet werden sollen. Die EU hat zwei ähnliche Forschungsinitiativen ins Leben gerufen, Engine (Experimental Next Generation Internet in Europe) sowie Géant2, das zum europäischen Gegenstück von Geni ausgebaut werden soll.

Das Warten lohnt sich

Für Feldmann verspricht der Clean-Slate-Ansatz die Aussicht auf ein neues, besseres Netz, in dem die Nutzer leichter Zugang zu relevanten Informationen finden und in dem Verfügbarkeit und Zuverlässigkeit höher sind. Angesichts der Tatsache, dass sich die geplanten Veränderungen bis hin zu den Endgeräten und Host-Anwendungen auswirken, ist der Zeitrahmen von 15 bis 20 Jahren möglicherweise sogar zu knapp. Sollte die neue Netzarchitektur auch das gegenwärtige E-Mail- und Spam-Problem in den Griff bekommen, würde sich die Wartezeit allemal rentieren.