Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.08.2001 - 

Dezentrales Modell auch für geschäftliche Anwendungen von Nutzen

Peer-to-Peer ergänzt zentrale Internet-Dienste

Das erste umfassende Buch über Peer-to-Peer ist im O´Reilly-Verlag erschienen. Neben einer umfangreichen Darstellung wichtiger Peer-to-Peer-Projekte behandelt die Hälfte des über 400 Seiten starken Buches technische Fragen, beispielsweise Metadaten-Management, Performance, Abrechnungsfragen und Sicherheit. Von Inge Steutzger*

Vom Verleger Tim O´Reilly selbst, der auch eine eigene News-Site für Peer-to-Peer (http://www.openp2p.com) betreibt, kommt einer der Überblicksbeiträge. Nach seinem Geschmack gleichen die Argumente pro und kontra P-to-P bisher einer Schwarzweiß-Malerei. Anhand einer Übersicht erläutert er die vielfältigen Möglichkeiten von P-to-P, bei dem jeder Rechner die Server- und Client-Funktion übernehmen kann. Demnach hat dieses Konzept viel mehr zu bieten als den Austausch von Dateien à la Napster: So folgen die von der Industrie derzeit propagierten Web-Services ebenfalls einem P-to-P-Konzept, da-rüber hinaus eigne es sich für Instant Messaging, Server-to-Server-Peering und die Koordination von Open-Source-Projekten. Die vollkommene Dezentralisierung des Internet scheint aber nach seiner Meinung dennoch nicht bevorzustehen. Vielmehr könnte sich zukünftig eine Mischung aus dezentralen und zentralen Architekturen durchsetzen.

Zu diesem Schluss kommt auch der Beitrag "Listening to Napster". Napster, an dem sich inzwischen Bertelsmann beteiligte, ist auch deshalb so schnell gewachsen, weil es sich nicht um reines P-to-P handelt. Die Stärke Napsters besteht demnach aus der Kombination von einem zentralen Verzeichnis der Musiktitel und dezentralisiertem Content. Auf diese Weise hat die Internet-Firma den konventionellen "Flaschenhals der Verteilung" aufgelöst. Die geradezu hysterische Reaktion der Musikindustrie scheint dies zu bestätigen.

Das File-Sharing von Freenet dagegen erprobt ein reineres Modell von P-to-P als Napster. Über "Nodes", Rechner, auf denen Freenets Software läuft, werden Botschaften ausgetauscht. Die Nutzeranfragen, "Requests", versehen mit einer eindeutigen ID, laufen so lange von Node zu Node, bis ein Rechner mit den nachgefragten Daten antwortet. Perfekte Anonymität wird der Effektivität zuliebe nicht gewährt.

Ähnlich wie Freenet bietet Gnutella File-Sharing an, wobei es sich nicht um Software, sondern um Protokolle auf Basis von TCP/IP handle, um eine Mischung von Code Division Multiple Access (CDMA) und Message Routing. Der Autor betont die größere Flexibilität Gnutellas, wohingegen bei Freenet das Einsparen von Bandbreiten- und Speicherplatz im Vordergrund steht.

Ein vergleichsweise brachliegendes Potenzial nützt SETI@home, nämlich Rechenzeit. Viele PCs werden mit einem Bildschirmschoner beschäftigt, wenn es sonst nichts zu tun gibt. Jener von SETI@home nutzt die CPU aber nicht für Animationen, sondern für die Suche nach Signalen von außerirdischen Wesen. Das Client-Programm verarbeitet dabei Informationen, die es vom Daten-Distributions-Server erhält. Angestrebt wird eine "Demokratisierung der Wissenschaft": Projekte mit großem Bedarf an Rechenleistung könnten öffentlich ausgeschrieben werden und so die nötigen Kapazitäten ergattern.

Nach der Besprechung bedeutender P-to-P-Projekte beschäftigt sich das Buch mit technischen Themen, etwa dem Metadaten-Management. Ein einfaches Beispiel dafür ist die Verknüpfung von Songtitel und seinem Interpreten bei Napster. Mit Hilfe ausgefeilter Metadaten-Konzepte können sehr flexible P-to-P-Applikationen geschaffen werden. Als nützlich können sich dabei Standards wie das Resource Description Framework (RDF) erweisen.

Entscheidende Kriterien für P-to-P-Systeme sind wie bei Client-Server-Anwendungen Performance, Fehlertoleranz und Skalierbarkeit. Anhand vergleichender Fallstudien wird deutlich, dass Freenet auf hohe Skalierbarkeit und effiziente Suche setzt, worunter aber die Performance leidet. Gnutella dagegen opfert Effizienz für schnellere Suche und bessere Worst-case-Garantien.

Ausführlich kommt schließlich noch die Abrechnungsproblematik zur Sprache. Der Autor diskutiert zwei Lösungsansätze: beschränkten Zugang und Schutz vor Angriffen sowie die Auswahl von favorisierten Nutzern.

Insgesamt empfiehlt sich der in Englisch vorliegende Band für all jene, die in P-to-P mehr sehen als ein Modell zum Tausch von MP3-Dateien.*Inge Steutzger ist freie Autorin in München.

Andy Oram (Hg.): Peer-to-Peer. Harnessing the Power of Disruptive Technologies. Sebastopol: O´Reilly 2001. 432 Seiten, 65 Mark.