Skocz do zawartości

pleple

Użytkownicy
  • Zawartość

    253
  • Rejestracja

  • Ostatnio

Posty napisane przez pleple


  1. Podaj mi jakiegoś hostingodawcę, który wykreuje kilka UIDów systemowych dla pojedynczego konta :)

    Ja nie wiem czy czytanie ze zrozumieniem to taki duży problem? Przecież ja nie piszę, że on ma sobie tak skonfigurować system w usłudze shared hosting. Jedyni usługodawcy, którzy zgodziliby się na takie zmiany dla pojedynczych użytkowników to Ci posiadający bardzo mało kont. Kiedy bowiem jest ich wiele ważna jest unifikacja konfiguracji.

     

    Bo inaczej - jeśli wszystkie vhosty chodzą na jednym, to co da ci to zabezpieczenie?

    Tak jak wcześniej mówiono - konto resellerskie i wtedy każdemu osobne konto z osobnym UIDem.

    O, a tu potwierdzasz to co napisałem (i do czego się przyczepiłeś..).


  2. Trzeba by dokładniej zbadać sytuację. Najlepiej na szybko skonfigurować sobie coś prostego monitorującego system w niewielkich odstępach czasowych. Jeśli jakiś program ma wyciek pamięci to będzie to ładnie widać na wykresach - ilość zużytej pamięci będzie stopniowo rosnąć z czasem aż zacznie działać oom killer w jądrze i zabijać procesy. Zrzucanie cache tak jak to robisz na pewno nie jest dobrym rozwiązaniem. Właściwie to nie jest w ogóle rozwiązaniem, co najwyżej może być uznane za obejście problemu (choć wątpię w jego skuteczność).

    Ważnym jest też określenie co oznacza niedostępność. Nie da się otworzyć strony WWW na tym serwerze (zabity httpd), nie da się połączyć po SSH czy w ogóle serwer nie odpowiada na pingi. Jeśli nie wycinasz ICMP na firewallu (a w tym wypadku tak bym zrobił) to nawet jeśli OOM killer pozabija Ci procesy, powinieneś dostawać odpowiedź na pingi. Jeśli natomiast system przekręcił się na poziomie jądra to możliwe są dwa główne źródła problemu - albo to bug w kernelu albo, co jest wielokrotnie bardziej prawdopodobne, jest to błąd sprzętowy.


  3. Jeszcze raz przeczytaj wartości zwrócone przez ping, które przytoczyłeś. Jak Ci pięknie ertcap zaznaczył, średni czas jaki pakiet potrzebuje na dotarcie do pingowanego hosta wynosi 0.448 ms. Minimalny czas to 0.131 ms a odchylenie standardowe wynosi 0.863 ms. Oznacza to, że połowa wszystkich pingów wykonała się w czasie od 0.131 do 1.311 ms. Najdłuższy ping czekał na odpowiedź 16.846 ms. Ale zważywszy na resztę wyliczeń (niska średnia, niewielkie odchylenie), tych dużych czasów musiało być bardzo niewiele.


  4. root może więcej :P Można sobie zdefiniować w systemie plików obszar dysku dostępny tylko dla roota. W ten sposób gdy skończy się miejsce, najważniejsze procesy (a więc te działające z UID 0) będą dalej mogły działać. Jak wywalisz odpowiednio dużo to zobaczysz, że to 100% spada.


  5. vncserver :-))

    Najlepiej NX. Jest DUUUŻO lepsze ale nieco trudniejsze w konfiguracji.

     

    (chociaż podobno KDE4 jest wydajniejsze, wiecie coś o tym?).

    Jest zdecydowanie. Choćby dzięki przejściu z QT3 na QT4. Jest jednak również jeszcze niezupełnie ukończone (część komponentów ciągle nie jest gotowa). Nadaje się już jednak do użytku a wiadomo że najlepiej testować na użytkownikach końcowych, dla tego oznaczone jest jako wydanie stabilne (wtedy więcej użytkowników przetestuje:)).


  6. Znalezienie darmowego "hostingu", który teoretycznie daje takie parametry, nie jest takie trudne. W praktyce jednak nigdy nie dostaniesz nawet 10% z tego bo wcześniej Twoje konto zostanie usunięte lub zablokowane. Nie łudź się, im więcej darmowy hosting Ci oferuje, tym w praktyce na gorszym poziomie są u nich usługi.


  7. Trochę teraz ją poprawili chyba ;p

    Niezupełnie... Nadal są takie kwiatki jak "Monthly Bandwidth - 2Mbit"

     

    Ja nic nie naprawiałem i jakoś działa ;-)

     

    Uuu, z tym brakiem SSH to rzeczywiście D-N-O !

     

    Ja na razie więc mam szczęście... bo wszystko chodzi w miarę OK

    Moje uwagi dotyczyły oferty na Xen a nie na OpenVZ. Pozgłaszałem wszystkie bugi ale nic nie zostało naprawione. Zamiast tego oferta ta została po prostu usunięta a wszystkich przeniesiono na OpenVZ.

     

    Otworzyłeś mi oczy... wcześniej logowałem się przez http do hypervm nawet na to nie zwracając uwagi!

    Jak większość osób, przykładasz widocznie małą uwagę do bezpieczeństwa. Dla tego uważam iż dla dobra klientów HTTPS powinno być domyślne.

     

    BTW, aby korzystać z https trzeba po prostu dać https:// i numer portu 8887

    Tak tylko, że większość ludzi nie zrobi tego sama. Zresztą ten numer portu to trzeba albo zgadnąć albo dopytać się albo jakoś googlać specjalnie. Ponadto, używają nieprawodłowego cerytfikatu co jest po prostu żałosne (chyba że poprawili to niedawno bo komentarz, który wygrzebałeś ma już pół roku).


  8. i wcale nie musi to stać na apache tylko na czymś lżejszym ... ;)

    Serwer HTTP nie ma tutaj za dużego znaczenia. Przede wszystkim poprawnie skonfigurowany Apache jest wcale niewiele wolniejszy niż te "lekkie" serwery, po drugie największym problemem jest obciążenie dysków (a ta, przy takim workloadzie nie może zostać praktycznie w żaden sposób zmniejszona przez zmianę serwera HTTP). Oczywiście obciążenie CPU też ma znaczenie ale i tak w głownej mierze powodowane jest przez PHP, liczenie statystyk (np. spróbuj sobie odpalić takiego awstats lub jakikolwiek inny parser logów apacha kiedy masz tyle stron), szukanie nielegalnych plików i tego typu prace "poboczne" (oczywiście mówie ogólnie, nie wiem czy akurat yoyo ma jakieś statystyki albo przeszukuje dyski w poszukiwaniu plików na których hostowanie nie pozwala.. bo można się bez tego obejść).


  9. Wydajność - żmudnie kompiluj

    A na końcu miej problemy z zauważeniem różnicy.. O tak, być może zyskasz te parę procent ale nawet ważniejsze będzie, że uda Ci się wychwycić nowe bugi objawiające się tylko przy niestandardowych opcjach kompilacji. Świetnie ale czy na pewno tego właśnie chcemy na maszynie produkcyjnej? Śmiem wątpić..

     

    Od wielu lat używam Gentoo jako podstawową dystrybucję na desktop więc wydaje mi się, że nieco wiem o rekompilacji pakietów. Zarządzałem też kilkoma serwerami na Gentoo i nie twierdzę, że takie podejście jest zawsze złe. Uważam jednak, że bardzo często zyski są niewspółmierne do strat.


  10. Jeśli chcesz założyć coś jak yoyo to generalnie żaden z wymienionych wyżej się nie nada. CBA używa natomiast http://isp-control.net/ jeśli dobrze pamiętam. Jest on jednak architekturą podobny do DA, CPanel, Plesk itp więc nastawiony jest raczej na setki kont na jednym serwerze niż tysiące. Znam pewien panel, który jest dedykowany do darmowych hostingów ale nie podbam nazwy bo zdecydowanie go nie polecam. Wniosek - potrzebny jest autorski panel, niestety.


  11. NFS potrafi być stabilny i wydajny.

    Oczywiście, nigdy nie przeczyłem. Może ale nie musi, trzeba się o to postarać i spełnić trochę warunków. Jak sam zauważyłeś, trudno to jednak zrobić w przypadku usługi takich RPS-ów, kiedy niezupełnie można kontrolować co robią użytkownicy zasobów. Wprowadzenie (jeśli dobrze rozumiem) darmowych testów to bardzo dobry pomysł, dzięki temu będą mogli przynajmniej przygotować się na występujące problemy i być może pomyśleć o próbach rozwiązania. Czego by nie zrobili, skoków loadu i blokad procesów korzystających z I/O nie da się w pełni wyeliminować w takim środowisku.


  12. byloby fajnie gdyby ktos z ovh sie wypowiedzial co moze byc tego przyczyna, bo az mnie ciekawi ;)

    NFS, oczywiście ;) Procesy NFS nie mogą się dobić do serwera (ze względu na przeciążenie NAS), w związku z tym się blokują i czekają w kolejce. SSH próbuje coś odczytać z dysku (lub pewnie raczej jakiś proces odpalony w SSH, jak powłoka), NFS nie może dostarczyć, więc proces również się blokuje w oczekiwaniu na dane. Dla czego nie w home? Ciężko powiedzieć gdy nie znam konfiguracji...

     

    Przyglądam się temu wątkowi od początku i w sumie póki co, sprawdziły się moje wszystkie przewidywania. Każdy administrator prawdopodobnie wie, że filesystemy sieciowe oznaczją problemy, tutaj nie można więc było ich uniknąć.

×