Skocz do zawartości
kndr

Co Sądzicie O Nowej Ofercie Kei?

Polecane posty

Cytat:

 

"Dzięki wiedzy naszych administratorów oraz programistów nowe serwery Luna II będą działać w całkowicie wydzielonym środowisku. Dla każdej z platform zostanie ustawiony limit obciążenia maszyny dzięki czemu przeciążenie jednej platformy nie będzie wpływać na pracę platform innych Klientów znajdujących się na tej samej maszynie. Jest to pierwsze tego typu rozwiązanie w Polsce znacznie zwiększające bezpieczeństwo serwerów, a jednocześnie przedstawiające ofertę rzetelnie i uczciwie."

 

Ze strony: http://kei.pl/?stronka=luna

 

Obciążenie: każde 10 GB transferu to 1 % obciążenia maszyny wzorcowej (podstawowa wersja Luna II z 50GB transferu to możliwość obciążenia serwera w 5%).

 

Bazy danych: każdy 1 GB powierzchni to 5 baz danych (podstawowa wersja Luna II z 10 GB powierzchni to 50 baz danych).

 

Ciekawe.

 

A jak wygląda u Was obciążenie? Czy generując 100GB miesięcznie zmieścilibyście się w 10% obciążenia maszyny?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Buehehehehe :):):):) chcieli wyjść na profesjonalistów, lecz coś im nie pykło :-) Pozdr.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Bartosz Gadzimski

Idealny przykład jakich informacji nie należy podawać na stronie firmowej. Ja sam się "zakręciłem" starając się zrozumieć o co im chodzi.

Nie chce sobie wyobrażać jak duża musi to być przeszkoda dla mniej zaawansowanej osoby.

 

Dla panów/pań z kei - czy aby na pewno podawanie informacji w takiej formie to dobry pomysl?

 

Czy nie wystarczyłoby napisanie, że posiadacie państwo dodatkowe zabezpieczenia gwarantujące wysoką stabilność rozwiązań?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Tyle że determinowanie obciążenia na podstawie ruchu jest zupełnie od d**y strony. Te pojęcia nijak się do siebie nie mają.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Bartosz Gadzimski

Ja myślę, że oni tak to przyjęli dla "uproszczenia". Uśredniając typowy ruch wyszły im takie parametry.

 

Pomysł ciekawy ale pewnie wprowadzi więcej zamieszania niż korzyści.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

W tym wszystkim chodzi prawdopodobnie o to, żeby klient w ramach wybranej opcji nie obciążał zbyt mocno serwera. Załóżmy, że ktoś kupuje 50 GB transferu. Podstawia sobie zatem tę liczbę do "magicznego" wzoru :P i otrzymuje:

 

MAX_OBCIĄŻENIE_SERWERA = (50 / 10 ) * 1%

 

czyli

 

MAX_OBCIĄŻENIE_SERWERA = 5%

 

Oznacza to, że wszystko co klient uruchomi na swojej platformie nie może obciążać całego serwera więcej niż 5%. Jednocześnie KEI gwarantuje, że w ramach 5% obciążenia klient może robić co sobie chce a oni nie wypowiedzą mu umowy bo "Pana platforma zbyt mocno obciąża nasz serwer", jak ma to miejsce w innych hostingach. Chyba o to chodzi w tej ofercie:)

 

Jednak rodzi się kilka pytań:

 

1. Jak jest mierzone graniczne obciążenie?

2. Co się stanie gdy ten próg obciążenia zostanie przekroczony?

3. Jakie serwisy mogę uruchomić mając do dyspozycji jedynie 5% mocy?

 

Dlatego ciekawy jestem, czy gdyby Wam przydzilić 100 GB transferu i 10% mocy serwera to co moglibyście z tym zrobić?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość adamszendzielorz
Jednak rodzi się kilka pytań:

1. Jak jest mierzone graniczne obciążenie?

2. Co się stanie gdy ten próg obciążenia zostanie przekroczony?

3. Jakie serwisy mogę uruchomić mając do dyspozycji jedynie 5% mocy?

 

Jest tylko jedna mozliwosc aby zmierzyc obciazenie generowane przez serwer danego usera - zliczac CPU TIME kazdego z uruchomionych procesow (serwer www, skrypty php, serwery ftp, uruchamiane skrypty shellowe etc etc etc etc etc etc etc....). CPU TIME jest w koncu mierzalne - serwer ma ok. 720 godzin czasu procesora do zuzycia w ciagu miesiaca, zakladajac ze ktos wykupi 5% - moze zuzyc 36 godzin czasu procesora :P

 

Calkiem mile, proste i logiczne (przynajmniej dla mnie, administratora ;-). Pod warunkiem, ze wszystkie platformy sa na identycznych maszynach, bo 100% CPU TIME slabej jedno procesorowej maszyny nie jest rowne 100% mocnego dual xeona i ktos moglby sie czuc pokrzywdzony :)

 

Poki co nie znam szczegolow ich nowego rozwiazania, moze zrobili to zupelnie inaczej - to tylko moje czysto teoretyczne rozwazania :)

pozdr.

 

Dodam jeszcze, ze mi osobiscie podoba sie ten sposob podejscia - kiedys wiekszosc ofert hostingu byla "bez limitu transferu", pozniej standardem stalo sie podawanie konkretnego limitu. Moze zaczynamy dorastac rowniez do konkretnego okreslania limitu obciazenia maszyn dla danego serwera wirtualnego ?

 

Inne obciazenie maszyny generuje serwis malej firmy, a inne serwis gieldowy posiadajacy baze SQLowa wielkosci 2GB.

 

Choc z drugiej strony taki limit raz ze jest scisle uzalezniony od transferu (wiekszy transfer == w wiekszosci wypadkow liniowe zwieszenie uzycia maszyny), a dwa ze bardzo ciezko uzytkownikom bedzie ustalic wymagana dla ich strony wartosc i wprowadza to spore, chyba troche niepotrzebne zamieszanie.

 

pozdr.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dodam jeszcze, ze mi osobiscie podoba sie ten sposob podejscia - kiedys wiekszosc ofert hostingu byla "bez limitu transferu", pozniej standardem stalo sie podawanie konkretnego limitu. Moze zaczynamy dorastac rowniez do konkretnego okreslania limitu obciazenia maszyn dla danego serwera wirtualnego ?

 

Masz racje.

Kiedys nie bylo ograniczenia w transferze (ludzie uzywali glownie modemow) a teraz są w kazdej firmie te limity. Limity sztywne pojawily sie wtedy kiedy 'limity umowne' lub 'bez ograniczen' byly przekraczane.

Teraz na serwerach znacznie czesciej sa przekraczane obciążenia CPU/RAM niż transfer.

Kiedyś skrypty pisalo sie w cgi (C/Perl) i nie robili tego tacy amatorzy jak teraz.

W dziejszych czasach jest wielu 'programistow' ktorzy wysyłają np zapytania do bazy w pętli np 200 razy.

 

Sumując: Jestem wielkim zwolennikiem wprowadzenia calkowitego odzielenia zasobów na serwerach wirtualnych miedzy klientami. Kilka forum na serwerze potrafi uprzykrzyć życie setce pozostałych klientow. A dlaczego tak ma byc skoro kazdy placi tyle samo za konto?

 

Kiedys większość tron była umieszczana pod adresami www/domena.pl/~nick a teraz standartem sa serwery wirtualne. Myślę że za 3-4 lata standartem na kontach hostingowych będzie oprogramowanie typu Virtuozzo z przydzielonymi zasobami dla klienta.

 

Ed

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ciekawe co by się stało, gdybym im tam odpalił N skryptów jadących non stop i generujących parę bajtów ruchu... według ich dziwnego sposobu liczenia obciążam maszynę w 0%.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość adamszendzielorz
Ciekawe co by się stało, gdybym im tam odpalił N skryptów jadących non stop i generujących parę bajtów ruchu... według ich dziwnego sposobu liczenia obciążam maszynę w 0%.

 

Nie nie, przeciez ten ich "sposob liczenia" to tylko wzor do obliczenia ile dostaniesz od nich % mocy maszyny do dyspozycji w zaleznosci od tego ile sobie kupisz transferu. I nic wiecej.

Nie popadajmy w paranoje :P

 

pozdr.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ale czy to wogóle realne aby platforma generująca 100GB ruchu w miesiącu zjadała tylko te 10%? Co to ma być sam html?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Też nie mam pojęcia, jaki rodzaj serwisu przy 100GB transferu wykorzystywałby jedynie 10% czasu procesora. Idąć tym tropem wychodziłoby, że cały serwer może wygenerować ok. 1TB transferu. Nie wiem, nie znam się dobrze na serwerach ale z tego co czytałem w różnych dyskusjach to przeciętna maszyna może mieć duże problemy z wygenerowaniem takiego transferu. A to oznaczaoby, że 10% próg na 100GB jest zbyt rygorystyczny.

 

Z drugiej strony, sama idea jest niezła. Tylko te limity jakby z kosmosu.

 

Ciekawy jestem jakie obciażenie generuje strona www.kei.pl Mogliby podać dla przykładu :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość adamszendzielorz
Też nie mam pojęcia, jaki rodzaj serwisu przy 100GB transferu wykorzystywałby jedynie 10% czasu procesora. Idąć tym tropem wychodziłoby, że cały serwer może wygenerować ok. 1TB transferu. Nie wiem, nie znam się dobrze na serwerach ale z tego co czytałem w różnych dyskusjach to przeciętna maszyna może mieć duże problemy z wygenerowaniem takiego transferu.

 

Masz racje. Kazdy serwis typu forum, czy jakis wiekszy portal ktory robi 100GB transferu na pewno nie zmiesci sie w 10% wykorzystania CPU. Wiem, ze zoptymalizowany soft, skrypty pisane pod konkretne rozwiazania, jakis zintegrowany z serwerem www keszer bez problemu dalby rade na jednej tego typu maszynie wygenerowac 1TB miesiecznie. Ale to jest hosting wirtualny i soft musi byc bardziej uniwersalny - kosztem mniejszej wydajnosci. I marnie widze ten stosunek 10GB transferu <> 1% CPU.

 

Szkoda, ze nie podali jakie to sa konkretnie maszyny - jakie / ile CPU, ile RAMu -> bo 4 x Xeon i >=4GB RAM dalby na pewno rade :P

 

pozdr.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

O, dyskusja tu sie toczy, a ja sie dopisalem w innym miejscu :-). No to linkuje:

http://www.webhostingtalk.pl/index.php?showtopic=4994

 

Jesli chodzi o sprzet KEI to trudno mi sie wypowiadac jako wylacznie ich klient, ale widzialem juz u nich rozne maszyny, od Athlon 2GHz 1 GB RAM, po podwojne Opterony Dualcore z bodajze 4 GB RAM. Nie sa to jednak na pewno dane reprezentacyjne dla calego ich parku maszyn, ktorego nie znam. Ale nawet patrzac na to, tak bardzo naciagane wydaje mi sie podejscie z wartosciami wzglednymi. Na oko widac, ze 5% w jednym i drugim przypadku to rozne wartosci bezwzgledne.

 

Zastanawiaja mnie tez limity zuzycia w kontekscie ich stwierdzenia o wysokiej wirtualizacji i oddzieleniu platform klientow. Jak wiadomo, im wieksza wirtualizacja, tym wiekszy narzut na wydajnosc.

 

 

Kierunek zmian oceniam jednak pozytywnie. Jasne reguly pomagaja zachowac jakosc, oraz szacowac koszty i ceny uslug, a co za tym idzie - zachowac lepszy stosunek ceny do tego co otrzymuje (czyli nie place za innego klienta). I to jest dobre. Poza tym, latwiej takim konkretnym wyznacznikiem wytlumaczyc klientowi, ze jego serwer generuje zbyt duze obciazenie. Bo standardowy zapis regulaminowy nie poparty zadnymi liczbami daje w odczuciu klienta duze pole do naduzyc.

 

W dobie taniejacego hotelingu wydaje sie, ze nadszedl czas by uzytkownicy uswiadomili sobie do czego sluzy hosting, a kiedy wlasciwym i jedynym rozsadnym rozwiazaniem jest juz serwer dedykowany / kolokacja.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ze strony kei:

Obciążenie maszyny wyliczane jest w stosunku do maszyny wzorcowej (konfiguracja serwera na jakim w danej chwili są instalowane platformy). Serwerem wzorcowym jest serwer w konfiguracja FX+ (aktualnie AMD Athlon 64 X2 Dual Core 4200+, 2 GB pamięci RAM).

 

 

Obciążenie: każde 10 GB transferu to 1 % obciążenia maszyny wzorcowej (podstawowa wersja Luna II z 50GB transferu to możliwość obciążenia serwera w 5%).

 

Bazy danych: każdy 1 GB powierzchni to 5 baz danych (podstawowa wersja Luna II z 10 GB powierzchni to 50 baz danych).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się


×