Skocz do zawartości
mrknow

VPS ruch 50 TB / m-c

Polecane posty

Te kilka VPSów, spięte oczywiście skryptami i nic więcej nie kombinuj. Może i to wygląda nieprofesjonalnie, ale jest najtańsze i w przypadku kilku(nastu) VPS dość bezpieczne jeżeli chodzi o dostępność. Do tego 1-2 VPSy mogłyby służyć za load-balancery, które odbijają klientów jakimś 301/302 na pozostałe VPSy i za 150-200zł masz "infrastrukturę", która spełni Twoje wymagania. Kupowanie pojedynczego serwera nie wyjdzie ani taniej, ani lepiej w tej sytuacji.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Tydzień za późno, ale temat mnie wcześniej ominął.

 

Jak pisze @Misiek08, jeśli chcemy mieć nad tym rzeczywistą kontrolę czyli nie używać GitHuba, SF czy Google Drive to najtaniej wyjdzie zakup najmniejszych VPSów, najlepiej z OVH (bo nie wiem czy jakaś inna firma ma transfery na poziomie 5-10 TB / mc przy 100 mbps) i zrobić własny load-balancing. Takie 10 VPSów wyjdzie w okolicach ~200 zł, a zapewni w teorii ok. 500-600 mbps co najmniej, i 50 TB na miesiąc + po przekroczeniu wszystko nie runie, a zostanie na 10 mbps / VPS.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

P2P nie zawsze jest rozwiązaniem, wszystko zależy od potrzeb. Ja też uważam, że łatwiej to wrzucić na jakieś GD/GitHuba/SF i dodać logike, która będzie ciągnąć stamtąd, ale jednocześnie jestem w stanie sobie wyobrazić zastosowanie, w którym musimy mieć pełną kontrolę nad tym co się dzieje, chociażby w przypadku gdy chcemy mieć pewność, że nikt oprócz konkretnych maszyn nie będzie w stanie tych plików pobrać, implementując jakieś extra security.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

p2p to jest najgorszy pomysł i nikt mnie nigdy nie przekona, że jest inaczej. Nie wyobrażam sobie, żeby klienci oprogramowania musieli być zależni od dostępności peerów. Argument: postaw kilka serwerów, p2p rozpropaguje dane. No to fajnie, ale P2P wymaga otwartych portów (przynajmniej aktywnego UPnP), UDP i innych kwiatków. Jak widzę napis "oprogramowanie" to znaczy, że jest to poważniejsza sprawa i mogą tego używać ludzie w korporacjach, gdzie ruch P2P jest odbijany jeszcze przed budynkiem firmy. Pomijam kwestie jak dostęp do trackera, wszelkiej maści ataki na protokół (Torrent Poisoning jeżeli dobrze pamiętam), implementacja tego w aplikacji (HTTP jest dostępne w większości języków używanych do tworzenia używanego oprogramowania), tłumaczenie serwerowni, że te torrenty są legalne itd. Same kłopoty.

 

Kilka VPS, lub duży serwer z łączem 1Gbps (np. Hetzner) i wszystko gotowe. Nawet można się pokusić o dosłownie 2-3 VPS i odpalanie np. w DigitalOcean instancji przez API jak ruch wzrasta. Jest teraz 8 serwerów, dokupienie 4 to dobry pomysł, bo koszta nadal mniejsze niż dedyk z prawdziwym 1Gbps, a OVH jak na razie dostarcza łącze do VPSów bez problemów.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

+1 dla P2P :)

 

Tam gdzie ktoś nie będzie mógł skorzystać z sieci Torrent, to mieć w zapasie 2-3 VPSy i po HTTPSie ciągnąć.

 

Ciekawe ile $$ musieliby by wyłożyć na łącza producenci takich gier jak Metin czy WoT (innych przykładów nie znam), w momencie wydania aktualizacji i "strzału".

  • Upvote 1

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

+1 dla P2P :)

 

Tam gdzie ktoś nie będzie mógł skorzystać z sieci Torrent, to mieć w zapasie 2-3 VPSy i po HTTPSie ciągnąć.

 

Ciekawe ile $$ musieliby by wyłożyć na łącza producenci takich gier jak Metin czy WoT (innych przykładów nie znam), w momencie wydania aktualizacji i "strzału".

Mniej jak zyski ,które są jak kropla w morzu ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się


×