Peer-to-Peer: die neue alte Killerapplikation

26.07.2001
Oracle-Chef Larry Ellison gibt Peer-to-Peer (P2P) keine Chance: "P2P ist völliger Unsinn. Es ist ja ganz nett, ein paar Musikfiles zu tauschen, aber für Unternehmen taugt das nicht. Sie brauchen eine globale Datenbank." Gartner-Analyst Nikos Drakos hingegen geht davon aus, dass das P2P-Modell langfristig Rechenzentren überflüssig machen wird. Und nicht zuletzt hoffen Content-Anbieter auf neue, schnelle Vermarktungsmöglichkeiten für ihre Produkte.

Hinter dem neuen Hype "Peer-to-Peer" verbirgt sich ein bestechend einfaches Prinzip: die direkte Kommunikation zwischen Rechnern. Alle Beteiligten innerhalb eines P2P-Netzwerkes verwenden eine spezielle Client-Software, die auf den jeweiligen Festplatten einen Bereich für den Datenaustausch mit den Peers, also den gleichberechtigten Nutzern, einrichtet. In der reinen P2P-Form kommunizieren die einzelnen Clients direkt miteinander. Servergestützte P2P-Modelle hingegen halten Inhalte und Peer-Adressen zentral vor. Sobald ein Client also den gewünschten Partner gefunden hat, stellt der Server den Kontakt zwischen den einzelnen Peers her (siehe Grafik "Peer-to-Peer"-Modelle).

Diese Idee an sich ist letztlich so alt wie das Internet: Anfang der sechziger Jahre ließ das US-amerikanische Militär ein Informationsnetzwerk aus Tausenden von Computern errichten. Wegen seiner dezentralen Struktur bot dieser Rechnerverbund potenziellen Ha-ckern keinen zentralen Angriffspunkt, wie ihn etwa ein einzelner Zentralserver darstellen würde. Außerdem war damit sichergestellt, dass nach Verlust einer Netzkomponente die Funktionstüchtigkeit des Netzes weit gehend er- halten blieb.

Seine Renaissance erlebte P2P mit dem Online-Dienst Napster, der als kostenlose Tauschbörse für Musikstücke in die Schlagzeilen kam. Geliebt von den Online-Nutzern, gehasst von der Musikindustrie, konnte Napster zu seinen besten Zeiten rund 80 Millionen regis-trierte Nutzer vorweisen, die an den Plattenkonzernen vorbei ihre Musiktitel tauschten.

Revolution im Vertrieb

Die Folgen sind hinlänglich bekannt: Im März verfügte ein US-Gericht, dass Napster die Rechte der Musikindustrie verletze und Filter einsetzen müsse, um den Austausch strittiger Titel zu blockieren. Klägerin war die Recording Industry Association of America (RIAA). Seit dem 2. Juli ist der Dienst lahmgelegt, offiziell um eine neue Software zu implementieren und künftig über Abonnements Titel zu verkaufen. Wann Napster wieder zum Leben erweckt wird, bleibt noch abzuwarten.

In der Zwischenzeit bastelt das Unternehmen an einem Abonnement-Modell. Unterstützt wird das Naps-ter-Team im Übrigen seit Oktober vergangenen Jahres vom Gütersloher Medienkonzern Bertelsmann, der die ehemalige MP3-Börse für den digitalen Vertrieb seiner Produkte nutzen möchte. Mittlerweile versuchen weitere Online-Tauschplattformen von Musikstücken Boden zu gewinnen; dazu gehören unter anderem Aimster oder Audiogalaxy.

Auch der Burda-Konzern hat in den vergangenen Monaten kräftig in die P2P-Technologie investiert - durch eine 50,1-prozentige Beteiligung an Carracho, einer früheren Softwareschmiede, die im Februar 1999 ein gleichnamiges Netzwerk für Macintosh-User ins Leben rief. Mittlerweile umfasst das Carracho-Netzwerk laut den Gründern Jörn und Mirko Hartmann rund 300.000 Nutzer; die Software gibt es in der Zwischenzeit auch als Windows-Version, und in einigen Monaten könnte Carracho sogar Linux-Clients offen stehen.

Allerdings sollen die neuen Entwicklungen nicht mehr in die kostenlose Carracho-Version gesteckt, sondern als Gesamtpaket an Kunden verkauft werden. Diese wiederum können mit der Lösung eigene Communities zur Kundenbindung bilden - aber auch digitalen Content verkaufen (siehe Interview auf Seite 44).

Professionelle P2P-Anwendungen

Weniger öffentlichkeitswirksam als Napster & Co. und bislang noch auf den Forschungsbereich zugeschnitten ist die Bündelung der Kapazitäten verschiedener Rechner. Das Schlagwort lautet hier Distributed Computing. Dabei stellen mehrere PCs ihre Ressourcen wie etwa Prozessorleistung oder Festplattenspeicher via Intra- oder Internet für Rechenaufgaben zur Verfügung. Ein Master-Server kontrol- liert die beteiligten Rechner und koordiniert die verschiedenen Jobs. Seine Aufgabe ist letztlich, die verschiedenen Einzelergebnisse zusammenzufassen. In der wissenschaftlichen Forschung wird dieses Verfahren schon seit Jahren genutzt. Der Vorteil: Komplexe Berechnungen lassen sich auf kostengünstigen PCs erledigen.

Der zur Zeit schnellste Supercomputer mit einer Leistung von rund fünf Teraflops kostet derzeit über 100 Millionen Dollar, eine vergleichbare P2P-Lösung ist bereits für etwa eine Million Dollar zu haben - und das mit einer zehnmal höheren Leistung. Unterstützt wird dieser virtuelle Supercomputer im Übrigen von Intel.

Im Unternehmen lässt sich P2P im so genannten Collaborations-Bereich einsetzen. Die Mitarbeiter können über das Intranet mit Hilfe von Instant-Messaging, Chat und Dokumenten-Management-Systemen gemeinsam ihre Aufgaben erledigen. Der Vorteil: Die jeweiligen Teams können standortunabhängig effizient zusammenarbeiten, der gemeinsame Zugriff auf die jeweils aktuelle Version von Dateien erhöht die Produktivität aller Be-teiligten. Außerdem reduzieren Collaborations-Lösungen den E-Mail- Verkehr, da die Dateien nicht mehr an jedes Teammitglied einzeln verschickt werden müssen, und sie entlasten zusätzlich die Speichersysteme.

Nicht zuletzt können sich Unternehmen teure virtuelle private Netze (VPNs) sparen, da bei der Teamarbeit Daten ohnehin verschlüsselt über das Internet übertragen werden. Zu den Anbietern von Collaboration-Software gehören unter anderem Groove Networks oder Mangosoft.

www.aimster.com

www.audiogalaxy.com

www.groovenetworks.com

www.mangosoft.com

www.napster.com

ComputerPartner-Meinung:

Glaubt man den Marktforschern der Gartner Group, so werden in den nächsten zwei Jahren 30 Prozent der Unternehmen bereits mit P2P-Applikationen experimentieren. Zudem gehen die Analys- ten davon aus, dass die Hälfte der heutigen Server-basierenden Content-Management-Anbieter im Jahr 2005 P2P-Funktionen anbieten wird. Sicher ist, dass Medienkonzerne schon heute über Beteiligungen in Peer-to-Peer investieren, um frühzeitig in den Markt einzusteigen. Und die Mediengiganten werden auf jeden Fall die finanziellen Ressourcen bereitstellen, um die bislang existierenden Sicherheits- und Copyright-Probleme technisch zu lösen. Erste Ansätze dazu gibt es bereits. (wr)

Weitere Informationen

Peer-to-Peer-Organsiationen

www.jxta.org: Wurde von Sun eingerichtet und bietet Hinter-grundmaterial wie "White Papers", FAQs (frequently asked questions) und mehr.

www.openp2p.com: Ist die Platt- form für die Autoren des O#Reilly-Networks; hier werden aktuelle P2P-Entwicklungen kommentiert.

www.peer-to-peerwg.org: Die Peer-to-Peer Working Group hat sich die Standardisierung von P2P-Lösungen zum Ziel gesetzt - die Initiative kommt von Intel.

www.gridforum.org: Zu Wort kommen hier die Forscher und Entwickler, die das Internet für Distributed Computing nutzen.

www.globus.com: Eine weitere Plattform für Distributed Com-puting.

Zur Startseite