Skocz do zawartości

mcbarlo

Firma
  • Zawartość

    513
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    4

Wszystko napisane przez mcbarlo

  1. No właśnie nie jestem do końca przekonany co do ekonomicznego uzasadnienia tej tezy choć macierz w rozumieniu klasycznym mi się w ni cholery nie zapina finansowo. Czasem nie da się dorzucić dysków na wyrost, bo serwery mają ograniczoną ilość ramek, a te co mają ich więcej są droższe. Być może na pewnym poziomie skali opłaca się stosować zróżnicowanie funkcji pełnionych przez konkretne maszyny tj. mocne serwery 1U do obliczeń + słabsze wieloramkowe na storage. Największy stres jest z przestrzenią SSD, bo jest droga choć szybko tanieje. Wówczas instalowanie przestrzeni na zaś to obarczanie usługi niepotrzebnymi kosztami. Może być nawet tak, że nigdy tch dysków nie wykorzystam, bo stwierdzę, że trzeba zamiast SATA instalować już NVMe. Ceph to taki złoty środek, a jako bonus daje środowisko HA co nie jest bez znaczenia. W jakich okolicznościach Ceph Ci się sypnął? Bardzo mnie to interesuje w perspektywie moich prób popsucia testowego klastra. Dodam jeszcze, że nie mam zamiaru robić pierdylion-node'owych klastrów. Myślę, że 5 serwerów na klaster daje wystarczającą elastyczność żeby skutecznie zapobiegać marnacji miejsca i takie systemu można potem powielać.
  2. Celem jest optymalizacja wykorzystania miejsca na dyskach. Mam serwery gdzie jest sporo miejsca, ale jest kiepsko z pamięcią albo procesorami, a są takie gdzie procek dłubie w nosie, a na dysku ciasno. Rozumiem, że można było to lepiej zaplanować, ale to nie jest rozwiązanie. Potrzebuje czegoś co da się lepiej skalować niż autonomiczne systemy. Rozumiem argument o straszliwych skutkach potencjalnej awarii i szczerze mówiąc właśnie on mnie zniechęca do scentralizowanych rozwiązań. Obecnie mam klaster testowy na którym badam Cepha i póki co jest moim faworytem.
  3. Tylko jak mam wyjść poza wbudowane porty jak więcej serwerów się w obudowę nie wrzuci niż producent przewidział? Ze switcha FC na zewnątrz wystarczą mi dwa. Sposób podłączenia obu rozwiązań jest przecież identyczny. W przypadku Flexa nie ma opcji z SAS-em, a przynajmniej o niej nie wiem. Jest albo FC albo iSCSI.
  4. Jeśli mam zastosować FC to w Flexie od Lenovo. Tam switch FC wbudowany w budę jest dość tani i node'y też mają wbudowane HBA. Dlatego po stronie storage'u inwestuję tylko i wyłącznie w HBA. Tani jest FC 8 Gbps, szybsze faktycznie wyrywają z butów. Okazuje się, że inwestycja w sprzętową macierz typu S3200 jest większa niż w CAŁĄ infrastrukturę w Flexie. Mam na myśli obudowę na 14 node'ów, zasilanie, switche FC i ethernet. Inne znane mi rozwiązania są faktycznie bardzo drogie.
  5. Już byłem w zasadzie zdecydowany na S3200 od Lenovo, ale szale przeważyła konieczność stosowania dysków z błogosławieństwem. Mam kilkadziesiąt różnych dysków na półce, a żadnego z nich nie mógłbym wykorzystać.
  6. Jednak potrzebuje sporej wydajności. 40G to nic innego jak zagregowane 4x10G w jeden port choć nie sądze żeby to mogło być wąskim gardłem. Zastanawiam się jaką przewagę daje zamknięta macierz nad serwerem z Linuxem? Poza prostotą wdrożenia są chyba same wady. Duże koszty, konieczność używania brandowanych dysków co jeszcze bardziej zwiększa koszty, zamknięte rozwiązanie co pogarsza elastyczność. Może wydajność i bezpieczeństwo danych? Myślę, że tu może być podobnie.
  7. Nigdzie nie napisałem, że to ma być jeden node. Choć masz rację, Ceph lepiej się sprawdzi jak będzie rozproszony po node'ach obliczeniowych. Choć wtedy zamiast systemu typu blade do obliczeń + macierz trzeba skorzystać z wieloramkowych serwerów w obudowach 2U+ co może zająć więcej miejsca i zjeść więcej prądu. Co nie oznacza, że inwestycja będzie sporo tańsza i właśnie to może skompensować nieco wyższe koszty utrzymania. Wtedy też odpada cała zabawa z FC, bo wystarczy 10GE.
  8. Przy małym budżecie proponuję router postawić na zwykłym serwerze z Birdem. Najlepszy stosunek wydajności do ceny i zużycia energii.
  9. CCR 1009 ogarnie już wiele, a kosztuje około 1500 zł. Aczkolwiek na BGP raczej bym nie polecił.
  10. Dodam tylko, że routerowi nie robi większej różnicy ile adresów IP obsługuje. No i pytanie co ma ten router robić? To ma być BGP na którym rozgłosisz tę adreację? Jak nie to ja nie wiem czy w ogóle jakikolwiek router jest potrzebny.
  11. DirectAdmin - nowa skórka

    Jest o wiele nowocześniej niż obecnie pod kątem samego wyglądu. Niestety nie poszło to w ogóle w parze z czytelnością i użytecznością. Choć koncepcja widgetów mi się bardzo podoba i może być to główna siła nowej skórki. Biała czcionka na jasnoszarym tle to oczywiście pomyłka. Zresztą na forum DA sporo osób na to zwracało uwagę.
  12. Obraz systemu w RAID 1. Czym ?

    Jak kontroler jest sprzętowy to możesz macierz traktować jako pojedynczy dysk.
  13. 6 lub 8 rdzeni

    A musi być Intel czy może być ARM?
  14. U nas mamy 42 dyski 2 TB SATA w jednej macierzy. Kiedyś były to Seagate'y, ale przez 3 lata ponad połowa z nich padła, więc teraz jest mix Segate'ów i WD. Wszystkie były z jednej partii i chyba mieliśmy pecha zwyczanie. Może paleta kurierowi spadła? Generalnie ma reguły i najlepiej nie kupować wszystkiego u jednego dystrybutora z klejnymi serialami. Poza tym 20k godzin pracy na dysk serwerowy to niemależe dotarcie.
  15. Jesteś pewien, że sam ZFS tą pamięć zużył? Może zwyczajnie to bufory dyskowe i cache?
  16. [Opinie] Zenbox.pl

    Odbiegając lekko od tematu w kwestii RAID5 to faktycznie jedyną jego zaletą jest to, że jest tani. Innych nie widzę. Ani wydajność, ani bezpieczeństo. Dlatego tak jak piszesz każdy RAID jest dobry do danego zastosowania, a pod kopie RAID5 to na pewno dobry pomysł. Trzeba też się mieścić w zadanym budżecie, bo firma jest od zarabiania, a nie stosowania przerostu formy nad treścią jak w budżetówce.
  17. To jest fakt. Tablice partycji masz w formacie gpt dlatego użyj sgdiska albo ustaw na pustym dysku partycje z ręki w tych samych sektorach co na pierwszym.
  18. Może trochę nie na temat, ale czemu nie użyjesz ZFS-a, który jest wbudowany w Proxmoxa i daje podobną funkcjonalność?
  19. Można podejrzeć proces bootowania? Jeśli tak to zobaczy nie ma jakiegoś błędu, który by mógł naproawdzić na rozwiązanie.
  20. serwer www niedziała - prośba o pomoc

    Jakbyś się tak logami podzielił to może by się dało wymyślić.
  21. Mam do sprzedania trzy Xeony E5-2620v3. Procesory pochodzą z serwerów Lenovo RD550 i RD650. Pracowały od kilku tygododni do kilku miesięcy. Wymieniliśmy je na E5-2630Lv4 i chcemy je sprzedać w cenie 1500 zł na sztukę. Cena dotyczy samego procesora bez osprzętu do serwera typu radiator, wentylatory itp. Informacje na temat procesora: https://ark.intel.com/pl/products/83352/Intel-Xeon-Processor-E5-2620-v3-15M-Cache-2_40-GHz BTW można oczywiście kupić pojedyncze sztuki.
  22. Brak konieczności autoryzacji może powodować to, że adres zdalnego serwera jest na white liście. Poszukaj w jakich okolicznościach tam trafił.
  23. VPS z DA

    Zapraszam do IDHosting: https://idhosting.pl/vps.html Licencja DA to koszt 19 zł brutto miesięcznie.
  24. Hosting www do 50 zł

    Nasz pakiet Niebieski się mieści: https://idhosting.pl/wirtualne.html
×