Sieci p2p


Z Wikipedii, wolnej encyklopedii
P2P (od ang. peer-to-peer - równy z równym) - model komunikacji w sieci komputerowej, który gwarantuje obydwu stronom równorzędne prawa (w przeciwieństwie do modelu klient-serwer).
W sieciach P2P, każdy komputer może jednocześnie pełnić zarówno funkcję klienta, jak i serwera.
W najpopularniejszej implementacji modelu P2P, jaką są programy do wymiany plików w Internecie każdy węzeł sieci (czyli komputer użytkownika) odgrywa rolę serwera przyjmując połączenia od innych użytkowników danej sieci, jak i klienta, łącząc się i pobierając dane z innych maszyn działających w tej samej sieci.
Wymiana danych jest zawsze prowadzona bez pośrednictwa centralnego serwera.
Sieć P2P charakteryzuje się także płynną strukturą, która zmienia się w zależności od tego jakie komputery są w niej aktualnie zalogowane.

Dlaczego powstały sieci P2P?


Pierwotnie idea Internetu była zbliżona do sieci P2P - wszystkie hosty pełniły równorzędną rolę w procesie wymiany informacji. W wyniku gwałtownego rozwoju, symetria Internetu została złamana. Rolę dystrybutorów przejęły firmy i instytucje, które było stać na utrzymanie stałych łącz o bardzo dużej przepustowości i zakup silnych komputerów, zdolnych obsługiwać ruch o dużym natężeniu.
Konsumenci informacji, których liczba od połowy lat 90-tych zaczęła gwałtownie wzrastać, musieli się zadowolić połączeniami modemowymi o małej przepustowości.
Asymetrię umocniło pojawienie się asynchronicznych łącz abonenckich ADSL, które charakteryzowały się dużą szybkością pobierania informacji z Internetu i niewielką przepustowością zwrotną. Współcześnie są one najpopularniejszą formą stałego podłączenia do Internetu w przypadku komputerów klienckich.
Asymetryzacja Internetu, jeśli postępowałaby dalej, mogła w pewnym momencie doprowadzić do tego, że zwykły użytkownik mógłby jedynie korzystać z zasobów, nie zaś je udostępniać. Ponieważ udział komputerów zdolnych do udostępniania zasobów by spadała, konieczna byłaby koncentracja mocy obliczeniowej i przepustowości w rękach niewielu, co upodobniłoby Internet coraz bardziej do "tradycyjnych mediów", z wszystkimi ich wadami.

Scentralizowany Internet ułatwiał kontrolę nad elektronicznym rozpowszechnianiem materiałów chronionych prawem autorskim. Zaostrzenie kontroli Internetu, związane m.in. z jego komercjalizacją, zbiegło się ze wzrostem zainteresowania utworami muzycznymi przekształconymi na postać cyfrową za pomocą algorytmu kompresji stratnej MP3. Kompresja pozwoliła na zmniejszenie utworów do rozmiarów umożliwiających ich dystrybucję przez Internet, nawet za pośrednictwem wolnych łącz modemowych.
Publikowanie plików muzycznych MP3 w scentralizowanym Internecie nie było możliwe, gdyż ich zawartość, w większości wypadków, naruszała prawa autorskie. Scentralizowana i stabilna struktura ułatwiała zidentyfikowanie publicznego serwera z plikami i zamknięcie go przy pomocy instrumentów prawnych. Szybko stało się jasne, że Internet rozumiany jako sieć witryn WWW i serwerów FTP nie nadaje się do tego, czego pragnęli zwykli użytkownicy, czyli wymieniania się posiadanymi plikami z muzyką.
Na takim gruncie jesienią 1999 roku pojawiła się pierwsza sieć P2P - Napster, założony przez Shawna Fanninga, który umożliwiał każdemu, kto pobrał i zainstalował aplikację, na udostępnienie wybranych zasobów swojego komputera innym użytkownikom w Internecie.
Ważną cechą Napstera, która przyczyniła się do gwałtownej popularyzacji, była łatwość obsługi. Żeby stać się węzłem sieci nie trzeba było wykazać się żadną wiedzą techniczną. Dzięki temu miliony ludzi mogły zaangażować się w udostępnianie i pobieranie plików MP3.
Masowość wykorzystania sieci Napstera, a także płynność jej topologii (węzły zmieniały się w zależności od tego kto aktualnie był zalogowany), była dla użytkowników swoistym parasolem ochronnym przed roszczeniami koncernów muzycznych. Nawet najbogatsza firma nie była by w stanie ponieść kosztów wyśledzenia milionów użytkowników, a następnie zapewnienia obsługi prawnej podczas procesów przeciwko łamiącym prawo autorskie uzytkownikom sieci P2P.
Ten mechanizm ochronny działa cały czas. Mimo pozwów wobec losowo wybranych, większość użytkowników sieci P2P czuje się bezpiecznie w swojej masie.

Działanie sieci P2P


Najpopularniejsze sieci P2P służą do współdzielenia plików w Internecie. Można wyróżnić dwie odmiany. Pierwszą, sieci bez centralnego serwera, które nie mają centralnej bazy o zasobach, oraz sieci z centralnym serwerem/serwerami, które przechowują informacje o użytkownikach podłączonych w danej chwili do sieci, oraz w niektórych wypadkach, o udostępnianych zasobach. Centralne serwery oferują czasami także dodatkowe usługi, jak np. chat.
Sieci wyposażone w centralny serwer są znacznie bardziej efektywne, gdyż nowy użytkownik podłączający się do sieci otrzymuje na wstępie listę wszystkich użytkowników podłączonych do danego serwera, ma także dostęp (najczęściej) do indeksu dostępnych plików, który może błyskawicznie przeszukać.

IRC


Najprostszym w budowie systemem P2P jest P2P oparte o IRC (sam IRC nie jest zbudowany jako P2P). Na specjalnym kanale znajdują się boty posiadające pliki. Można wejść na kanał i zadać zapytania, zwykle w formie !find szukany_plik lub podobnej.
Boty posiadające plik pasujący do opisu drukują ich listę na kanał lub częściej w prywatnej rozmowie z szukającym. Wtedy szukający prosi o plik pisząc na kanale lub w bezpośredniej rozmowie żądanie w formie !nazwa_bota ścieżka_pliku lub podobnej. Żądania są ustawiane w kolejce i kiedy przyjdzie czas wysyłane za pomocą DCC. Niektóre boty pozwalają też na logowanie się na nich przez DCC CHAT, upodobniając się trochę do serwerów FTP.
Ostatecznie jednak plik jest wysyłany przez DCC. Ma ono możliwość kontynuacji przerwanego ściągnięcia. P2P bez tej możliwości należą już do przeszłości. Zresztą dotyczy to nie tylko P2P - (serwery HTTP nie posiadające tej zdolności spotyka się coraz rzadziej).
Oczywistą wadą jest to, że o wiele łatwiej jest ściągać niż udostępniać. Metoda ta nie jest też zbyt skalowalna - zwykle na kanale udostępnia jedynie kilkanaście góra kilkadziesiąt botów. Kanały są jednak tematyczne, więc ogół dostępnych zasobów może być całkiem duży. Kanały takie istnieją zarówno na ogólnych serwerach IRC jak i na serwerach istniejących specjalnie w celu wymiany plików.
Do zalet należy m.in. automatyczne udostępnienie dobrego chata (którym jest sam IRC), rozpowszechnienie programów do ściągania oraz to że wiele serwerów NAT (szczególnie serwery linuksowe) potrafi analizować DCC i umożliwia tym samym odbierania połączeń DCC wszystkich komputerom w podsieci.

Napster


Inny lecz również bardzo prosty system wybrał Napster. Na komputerze należało zainstalować specjalne oprogramowanie, które łączyło się z serwerem, wysyłało mu listę udostępnianych plików (w tym przypadku tylko muzyki, lecz nowsze sieci oparte na systemie Napstera - takie jak OpenNap - umożliwiają udostępnianie również innych typów plików), i stanowiło jednocześnie interfejs użytkownika sieci P2P.
Serwery Napstera umożliwiały wyszukiwanie plików.
Użytkownik na podstawie listy pasujących plików wybierał, co i od kogo chce ściągać, po czym program łączył się z komputerem udostępniającym plik i ściągał go.
Serwis stał się prawdziwym przebojem wśród internautów. Swą popularność zawdzięcza m.in. procesom sądowym wytaczanym przez artystów, których utwory znalazly się w Napsterze przed oficjalną premierą (przykładem "wycieku" było pojawienie się w czerwcu 2000 r. nieautoryzowanej wersji utworu Madonny "Music", co spowodowało konieczność przyspieszenia jego premiery na rynku).
Początkowo Napster nie potrafił wznawiać połączenia w razie przerwania, co skutkowało w wielu nie do końca ściągniętych plikach. Często też takie pliki były przez nieuwagę udostępniane, przez co nawet ściągając plik do końca można było się później rozczarować. Nowsze wersje Napstera oraz wszystkie systemy pochodne mają zdolność wznawiania.
Napster wymagał serwerów centralnych, był jednak dość dobrze skalowalny i umożliwiał każdemu nie tylko ściąganie plików, ale również udostępnianie ich. Integrację użytkowników zapewniał wbudowany w program chat.
W 2001 r., po czasowym wprowadzeniu filtrów w wyszukiwarce utworów, w wyniku przegranych procesów sądowych serwis zakończył działalność, powracając jako legalny, płatny serwis pod koniec 2003 r.

Audiogalaxy


Audiogalaxy jest innowacyjna nie tyle ze względu na strukturę, ile na interfejs użytkownika. Sam program P2P nie ma żadnego interfejsu. Wszystkie operacje wykonywane są za pomocą strony internetowej, która umożliwia wyszukiwanie wg tytułu lub autora, po czym można wybrać wersję, żądaną jakość (łącznie z opcją "najpopularniejsza"), inne piosenki tego samego autora, autorów popularnych wśród osób ściągających piosenki danego ("jeśli podobała ci się muzyka A, zapewne polubisz też B, C i D"). Posiadał też rozbudowany system forów dyskusyjnych.
Sam program P2P (tzw. satelita) również należał do lepszych i najbardziej zautomatyzowanych. Użytkownik jedynie wybierał piosenki przez WWW, cała reszta - łącznie z wyborem źródła i przełączaniem na inne, jeśli ściąganie z danego zostało przerwane - odbywało się bez interwencji użytkownika.
Pełna automatyzacja, dobra wydajność i wygodny interfejs czyniły z Audiogalaxy jeden z najlepszych systemów P2P.
Jednym z kosztów była jednak bardzo wysoka specjalizacja - wiele rozwiązań, które doskonale nadawały się do muzyki nie sprawdziłoby się w przypadku innych rodzajów danych.
W obliczu zagrożenia procesem sądowym wytoczonym przez RIAA, w maju 2002 r. zaostrzył system filtrowania utworów do pobrania (wcześniej łatwy do obejścia), po czym ostatecznie zablokował możliwość wymiany mp3 w ramach serwisu.

Gnutella


Systemem który przyjął zupełnie inną postać była Gnutella. W Gnutelli nie ma w ogóle centralnych serwerów. Żeby połączyć się z Gnutellą należy zainstalować odpowiednie oprogramowanie i znaleźć dowolny host należący do sieci. Jeśli host nie ma wolnych miejsc, podaje adresy następnych hostów, do których można próbować się połączyć. W końcu znajduje się hosta chętnego do nawiązania połączenia. Program zachowuje listę wszystkich napotkanych hostów w sieci, dzięki czemu łatwiej będzie się podłączyć następnym razem.
Każde wyszukiwanie jest wysyłane do hostów, z którymi ma się bezpośrednie połączenie. One natomiast przesyłają je dalej. Ewentualne rezultaty wysyłane są bezpośrednio do inicjatora, podobnie sam transfer odbywa się bez pośredników.
Gnutella bardzo słabo się skaluje. Ponieważ każdy host otrzymuje wszystkie wyszukiwania, szybko zaczynają one zajmować całe łącze.
Ograniczenie ilości skoków które maksymalnie wykonuje wyszukiwanie, wprawdzie ogranicza obciążenie, ale jednocześnie uniemożliwia znalezienie wielu dostępnych przecież zasobów.
Proponowano wiele różnych metod polepszenia wyników Gnutelli - takich jak różnicowanie roli hostów zależnie od ich przepustowości, caching wyników wyszukiwań czy automatyczne modyfikacje topologii, która polepszałaby pewne właściwości sieci. Umożliwiło to znaczną poprawę skalowalności w nowych sieciach tego typu takich jak EDonkey czy FastTrack (z której korzysta Kazaa).

FastTrack


FastTrack ma opinię dobrej i szybkiej sieci pozwalającej na wymianę plików różnych typów. Można wymieniać się plikami wszystkich typów, takimi jak: muzyka, filmy, gry itd.
Wyprzedza wielu swoich konkurentów dzięki mechanizmom, które zostały zastosowane, lecz głównym mankamentem programu jest lokalne przechowywanie informacje o stosunku downloadu i uploadu. Można zatem bardzo łatwo je sfałszować. Istnieje wiele dodatków pozwalających na zmianę naszego ratio. Wiele alternatywnych klientów pozwalających na łączenie się z tą siecią. Nie musimy korzystać z oryginalnego klienta, którym jest Kazaa Media Desktop, promowany przez firmę Sharman Networks. Do alternatyw należą m.in. Kazaa Lite, K-Lite, Mammoth, Grokster, iMesh.
Sieć FastTrack jest 'samoorganizującą się siecią dystrybucyjną'. Sieć FastTrack jest siecią wielowarstwową przez co komputery dysponujące większą mocą stają się 'super-węzłami' (SuperNodes).
Dowolny użytkownik sieci FastTrack, jeśli spełnia kryteria mocy procesora, przepustowości łącza internetowego itp., może stać się 'super-węzłem'.
Zarządzanie siecią FastTrack jest w 100% automatyczne - przyznawanie i odbieranie statusu 'super-węzłów' odbywa się dynamicznie.

Freenet


Freenet wybrał metodę, która jest najmniej efektywna, a jednak zapewnia najwięcej prywatności.
Wszystkie połączenia są szyfrowane. Nie istnieje żadne wyszukiwanie, a żeby ściągnąć plik należy znać jego identyfikator w systemie (identyfikator zawiera wynik funkcji haszującej żeby uniemożliwić sfałszowanie).
Ściągając plik wysyła się żądanie do sąsiednich hostów. Jeśli posiadają go one, wysyłają jego kopie do ciebie, w przeciwnym razie pytają dalej. Jeśli w końcu plik się znajdzie kopia wędruje host po hoście, a każdy może lecz nie musi jej cache'ować (wybór ten dokonywany jest losowo).
W domyślnych ustawieniach nawet właściciel hosta nie wie co jest składowane w cache'u.
Sieć taka zapewnia dużą prywatność, jednak kosztem funkcjonalności - brak opcji wyszukiwania właściwie uniemożliwia szersze wykorzystanie Freenetu.

Direct Connect


Direct Connect zamiast na małych specjalistycznych serwerach opiera się na niewielkich serwerach (tzw. hubach) udostępniających jedynie prostego czata i pośredniczących w przekazywaniu wyników wyszukiwania. Hub sam nie posiada indeksu.
Najważniejsza w Direct Connect okazała się nie sama technologia przesyłu plików, a technologia umożliwiająca kontrolę przestrzegania zasad.
Żeby wejść na huba należy udostępniać daną minimalną ilość zasobów związanych z tematem huba. Czasem jest to jedynie 500 megabajtów, czasem 100 gigabajtów, typowe są wartości z przedziału 2-10 gigabajtów.
Należy też udostępniać odpowiednią minimalną liczbę slotów, czyli limit użytkowników którzy mogą jednocześnie ściągać, zwykle jest to 2 lub 3 dla połączeń ISDN/SDI, oraz spełnić wszystkie inne konieczne warunki, które ustala administrator huba.
Przestrzegania zasad pilnują operatorzy huba, dzięki czemu unika się leecherów - użytkowników, którzy jedynie wykorzystują innych nic w zamian nie udostępniając. Za nieprzestrzeganie grozi kick (wyrzucenie, kopniak), ban na określony czas lub ban bezterminowy.
Direct Connect obsługuje dwa tryby:
* aktywny (gdy można użytkownika wywołać po konkretnym zazwyczaj publicznym IP wraz z numerem portu),
* pasywny (zwykle oznacza użytkownika w sieci za firewallem lub ruterem NAT bez przekierowania portu).

Dwóch pasywnych użytkowników nie może (z przyczyn technicznych) ściągać od siebie nawzajem, wyniki wyszukiwania są odpowiednio filtrowane tak, żeby pasywni wyszukiwacze widzieli tylko aktywne wyniki.
Wystarczy jednak przekierowanie jednego dowolnego portu, żeby można było łączyć się w trybie aktywnym.
Zwykły klient Direct Connect ma małe możliwości techniczne. Jednak dla systemów windows i linux powstało wiele modyfikacji podstawowego klienta.

eDonkey


Sieć eDonkey z punktu widzenia użytkownika jest podobna do sieci FastTrack. Wymieniać można w niej pliki dowolnego typu.
Do skorzystania z sieci wymagane jest posiadanie programu klienckiego. Istnieje wiele klientów sieci eDonkey, najbardziej znanymi są eDonkey2000, eMule i klony (xMule, aMule), MLDonkey.
Użytkownik sieci eDonkey podłącza się do jednego z serwerów sieci. Serwery odpowiedzialne są za indeksowanie i wyszukiwanie plików posiadanych przez klientów. Serwery łączą się ze sobą, dzięki czemu możliwe jest przeszukanie całej sieci z dowolnego serwera.
Każdy klient posiada kolejkę, w której na możliwość ściągnięcia pliku mogą czekać inni klienci. Pozycja w kolejce uzależniona jest od stosunku uploadu do downloadu czekającego oraz priorytetu żądanego pliku.
Ściąganie rozpoczyna się po osiągnięciu pierwszego miejsca w kolejce. Pobieranie odbywa się porcjami wielkości 9 MB. Możliwe jest pobieranie różnych porcji pliku od różnych klientów. Ponadto każda z porcji pliku jest osobno haszowana, co uniemożliwia ściągnięcie pliku w uszkodzonym stanie.
Zaletą sieci eDonkey jest bezbłędny transfer plików oraz uniemożliwiające oszustwa lokalne przeliczanie stosunków uploadu do downloadu.
Wadą jest konieczność długiego czekania w kolejkach przed rozpoczęciem ściągania mniej popularnych plików.

eXeem


eXeem jest to program Peer-To-Peer (P2P) stworzony przez przedstawicieli serwisu SuprNova.org oraz firme Swarm Systems Inc.
Program korzysta z protokołu BitTorrent oraz zdecentralizowanej sieci. Jest to coś w rodzaju połączenia BitTorrenta oraz programu Kazaa.
Program jest na licencji adware, choć istnieje wersja stworzona przez polskich programistów pozbawiona wszelkich reklam.

Pocztowe P2P


Pojęcie to pojawiło się niedawno, jest odpowiednikiem f3f (wymiana plików między znajomymi poprzez dodatkowy serwer składujący dane), nie ma zbyt wiele wspólnego z klasycznym Peer2Peer - najprawdopodobniej wyewoluowało z samej idei wymiany plików przez sieć.
Już dawno ktoś zauważył, że pliki można przesyłać przez pocztę elektroniczną, ale operacja ta była praco i czasochłonną sekwencja skomplikowanych czynności - podzielenia pliku na części objętościowo akceptowane przez serwer pocztowy, wysłanie ich do adresata e-mailami z załącznikiem, oraz ewentualna kontrola, czy wszystkie części dotarły do adresata.
Wystarczyło więc zaprojektować aplikację, która tego typu czynności wykonuje automatycznie. Głównym "katalizatorem" pomysłu wymiany plików przez pocztę były darmowe konta e-mail o dużej pojemności oferowane przez różnych dostawców, które można wykorzystać jako swoistego rodzaju e-dyski do składowania bądź wymiany danych.
Tak powstały Peer2Mail a później E-Dek. W obu programach przed rozpoczęciem udostępniania należy założyć konto pocztowe akceptowalne przez dany program, następnie załadować na utworzoną przestrzeń pliki i w zależności od programu - udostępnić dane o skrzynce (adres, login, zakodowane hasło - lub w przypadku E-Dek'a - specjalny plik podobnie jak w sieci bittorrent).
Nieco dalej poszedł autor programu E-Dek - dając możliwość zarządzania takimi E-dyskami (w tym wyszukiwanie), oraz tworząc eksperymentalny pocztowy protokół E-Swapp, który automatyzuje udostępnianie listy plików, oraz żądanie transferu między skrzynkami pocztowymi.
Zaletą "pocztowych P2P" jest niezaprzeczalnie dostępność pliku nawet po wyłączeniu programu (de facto ten plik leży w skrzynce pocztowej).
Problematyczne jest nadal wyszukiwanie - jak na razie wspomagane przez fora dyskusyjne.
Innymi dobrymi programami typu P2P są Durie i Openp2M.

Wymiana plików


Udostępniane pliki to głównie to, czego nie można znaleźć na publicznych serwerach WWW. Często udostępniane są różne utwory, na które nie ma zgody właścicieli praw autorskich, takie jak:
* muzyka
* filmy
* książki w postaci elektronicznej
* programy komputerowe

Wiele z nich jednak to utwory trudne do dostania oficjalnymi kanałami, takie jak anime lub utwory mniej znanych muzyków.
Wiele plików jest udostępnianych za zgodą właścicieli praw autorskich (np. anime music video, różne fanfiki, tapety), na które prawa autorskie nie są aktywnie chronione (m.in. wiele remixów, stare programy), nie obejmują ich prawa autorskie ze względu na upływ czasu (muzyka klasyczna, elektroniczne wersje starych książek) lub są na P2P z przyczyn nie mających żadnego związku z prawami autorskimi (P2P może być wykorzystane dla ominięcia cenzury, ograniczeń na materiały o treści erotycznej itp.).
Budzącym największe kontrowersje, szczególnie ze strony autorów, wytwórni płytowych i filmowych jest wykorzystywanie sieci P2P do pobierania treści zastrzeżonych prawem autorskim.
Organizacje reprezentujące producentów i autorów podejmują działania mające na celu zwalczenia tego zastosowania sieci peer-to-peer.
Niektóre firmy udostępniają swoje produkty za pomocą P2P, jak Red Hat.

Sytuacja prawna


Sytuacja prawna jest trudna ze względu na kontrowersyjne wyroki sądowe w sprawie Napstera.
Systemy P2P same niczego nie rozpowszechniają, więc mogą być oskarżone co najwyżej o "współudział" lub "czerpanie korzyści".
Systemy P2P próbowały stosować system opt-out - blokując utwory z listy dostarczonych przez właścicieli praw autorskich. Jednak sąd w sprawie Napstera stwierdził że "to za mało". Niewątpliwie możliwe było nadal znalezienie niektórych blokowanych utworów, np. wpisując do wyszukiwania nazwy z błędami ortograficznymi.
Sąd nakazał stosowanie opt-in czyli blokowanie wszystkich utworów na które P2P nie ma zgody właścicieli praw autorskich wyrażonej na papierze.
Samo ściąganie plików przez P2P, zgodnie z polskim prawem autorskim nie jest jednak nielegalne. Świadczą o tym przepisy o tzw. dozwolonym użytku w polskiej ustawie o prawie autorskim i prawach pokrewnych.
Dopiero połączenie tego działania z rozpowszechnianiem utworów jest naruszeniem prawa.

Przyszłość P2P


Przyszłość P2P można rozpatrywać od dwóch stron - technicznej i prawnej. Ponieważ P2P są coraz bardziej zdecentralizowane i kończą się łatwe cele do procesów, nawet całkowity zakaz (mniejsza już o to, kto mógłby taki zakaz wydać i pod jakim pretekstem) nie zakończyłby istnienia P2P, a pewnie nawet nie mógłby go znacząco ograniczyć.
Od strony technicznej konkurują ze sobą systemy małych hubów specjalistycznych (Direct Connect) i duże systemy rozległej sieci o zaawansowanej topologii (FastTrack). Należy się też spodziewać rozpowszechnienia szyfrowania danych i innych funkcji poprawiających prywatność. Te priorytety realizują między innymi sieci Freenet, MUTE czy GNUnet.
Ponieważ łącza będą coraz szybsze, zmieni się charakter przesyłanych plików. Muzyka, pierwotnie jeden z głównych materiałów P2P, już przy SDI i dobrej kompresji (np. Ogg Vorbis) może być ściągana w dobrej jakości w czasie rzeczywistym, więc przesyłanie muzyki będzie coraz mniejszym problemem. Coraz częściej przesyłane są filmy i należy oczekiwać, że ten trend utrzyma się w przyszłości.
W sprawie programów komputerowych utrzymują się dwie sprzeczne tendencje - z jednej strony łącza są coraz lepsze, z drugiej jednak programy coraz bardziej się rozrastają.
Można też oczekiwać innych zastosowań systemu P2P - np. mirroring plików (takich jak różne dystrybucje Linuksa), czy prowadzenie osobistej strony internetowej rozpowszechnianej za pomocą takiego systemu (możliwe w sieci Freenet, lecz prawie nieużywane).

do góry