Skocz do zawartości

mcbarlo

Firma
  • Zawartość

    513
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    4

Wszystko napisane przez mcbarlo

  1. Zastanawiam się nad doborem systemu storage'owego dla kilkunastu serwerów. W związku z tym, że dyski w każdym serwerze osobno to często marnacja miejsca chciałbym to jakoś skonsolidować. Techonologia jaką chce łączyć dyski z serwerami to fibre channel. Na rynku jest sporo tzw. sprzętowych macierzy choć bardziej bym je nazwał zamkniętymi. Oczywiście lista ficzerów jest imponująca nawet dla prostrzych modeli takich jak Lenovo S3200. Mam jednak dylemat w przypadku takich rozwiązań, bo na pewno jest pięknie jak wszystko działa, ale co jak zaczną się problemy? Na wsparcie producenta tak do końca nie liczę, a materiałów w sieci jest niewiele. Przez zamkniętość jest też niewielkie pole manewru. Dodatkowo spore koszty zakupu + konieczność korzystania z dysków z nalepką co jeszcze zwiększa koszty. Przy rozwiązaniu typu zwykły serwer + linux panuje w 100% nad wszystkim, ale trzeba sporo wysiłku żeby to wszystko poskładać do kupy. Są też gotowce typu FreeNAS lub OpenMediaValult, które wyglądają bardzo obiecująco. Pytanie tylko jak bardzo dopracowany i stabilny jest SCST czy inne targety dla FC w Linuxie i BSD? Cała reszta nie odbiega znacząco od konfiguracji lokalnych dysków. Czy ewentualnie postawić na Cepha zamiast ZFS-a czy software RAID-a? Jeśli macie doświedczenie z powyższymi rozwiązaniami w praktyce to bardzo proszę o opinie.
  2. Ceph to bardzo fajny projekt, ale mało jest informacji na jego temat na naszym rodzimym podwórku. Czy wykorzystywaliście ten typ storage u siebie? Jeśli tak to z jakim skutkiem? W szczególności interesuje mnie jego współpraca z Proxmoxem, który od niedawna ma obsługę Ceph przez GUI. Ciekawi mnie też czy ktoś z Was miał już awarie dysku i z powodzeniem przetrwał ją bez utraty danych? Link do strony projektu: http://ceph.com
  3. zróbmy testy swoich VPS

    A co zapewnia lepszą?
  4. Przekierowanie subdomeny na oddzielny serwer(DA)

    Czy na serwerze docelowym masz dodaną tę subdomenę? Serwer musi wiedzieć co zrobić z zapytaniem, więc vhost jest niezbędny.
  5. Pytanie jeszcze jak dawno miało miejsce zdarzenie. Dostawca hostingu nie ma obowiązku logowania czegokolwiek. Chyba, że się coś zmieniło?
  6. zróbmy testy swoich VPS

    @MarekCPU tak w kwestii formalnej poczytaj o interfacie u.2. Wcale nie trzeba slotu PCI-E żeby podłączyć dysk działający z wykorzystaniem protokołu NVMe. Są rozwiązania storage'owe, które pozwalają zainstalować nawet 48 dysków NVMe w obudowie 2U. Tak na marginesie to wcale nie wiadomo czy webh korzysta w ogóle z klasycznego RAID-a. Przy usłudze typu VPS może to być rozproszony storage np. Ceph. Zapewnia to mega wydajność, skalowalność i bezpieczeństwo.
  7. VPS poszukiwany pod traccar

    Możesz pochwalić się co to za rozwiązanie? Drąże tematy różnych rozwiązań shared storage w połączeniu z wirtualizacją KVM od tych komercyjnych po darmowe typu Ceph+Proxmox i ciężko jest mi wyciągnąć jakieś spektakularne wyniki.
  8. IPv10

    IPv6 było, jest i zawsze będzie przyszłością Internetu.
  9. Cenowo chyba najkorzystniej wypada TP-Link T1600G-52TS.
  10. Szukam sprawdzonego i dobrego wykonawcy aplikacji webowych. Zależy mi przede wszystkim na tym żeby osoba lub osoby pracujące na projektem myślały. Nie chce być beta testerem projektu, nie chce zgłaszać ciągle banalnych poprawek, nie chce sprawdzać czy jedna poprawka nie zepsuła innej. W związku z powyższym priorytetem jest jakość, a nie cena. Szukam kogoś do ciągłej współpracy. Jeśli znacie firmę godną polecenia to bardzo proszę o namiary.
  11. Dobry wykonawca aplikacji webowych

    Szukam na stałe do 2-3 projektów. Czy są duże czy małe to kwestia punktu odniesienia. Jak na moje warunki duże, ale obiektywnie nie sądzę. Pewnie jakieś poboczne mniejsze tematy w trakcie również się pojawią. Jak się zdecyduje na kogoś to na pewno chce żeby to była współpraca na lata.
  12. Platforma - na wielu serwerach

    Do konfiguracji nowych hostów możesz użyć Ansible. Również polecam zbudowanie całości w maszyncha wirtualnych albo w kontenerach. Jak to posadzisz np. na Cephie to możesz mieć snapshoty całych systemów., dobrą wydajność i nadmiarowość.
  13. Jeśli relacja jest b2b to żadne prawa konsumenckie nie obowiązują. Zresztą osobiście jestem za tym żeby ludzie zwyczajnie czytali umowy i podejmowali wybory świadomie, a nie potem płakali, bo czegoś nie wiedzieli. Wszystkie prawa konsumenckie oduczają myślenia, bo ludzie naiwnie myślą, że państwo ich ochroni. Ale to już temat na inną dyskusję. Paweł P. napisał, że jest z firmą wiele lat, więc pytanie jak traktować odnowienie usługi? Czy jako nową umowę gdzie zatwierdza się od nowa regulaminy jak jest np. w Arubie czy tylko odnowienie z warunkami obowiązującymi z czasów rejestracji.
  14. Nie oceniam, nie popieram, ani nie neguje tego co opisałeś. Ale tak z drugiej strony pomyśl, że firma hostignowa też ponosi koszty z tytułu większego obciążenia serwera i łącza jak Twoje konto generuje większy ruch. Nie sądzę żeby były jakiekolwiek regulacje poza umową (regulaminem) na który się zgodziłeś podczas rejestracji usługi i potem pewnie na jego zmiany po drodze. Także to jest kwestia dogadania klienta z firmą. Ty wolisz żeby Ci zablokowali stronę, a inny woli zapłacić więcej, ale chce mieć koniecznie usługę utrzymaną online. Nie ma to nic wspólnego z etyką, bo to zależy od potrzeb. Być może jest jakiś limit przekroczenia powyżej którego nakładana jest blokada. Podobnie działają operatorzy telekomunikacyjni. Jak masz abonament i dużo wygadasz to naturalne jest, że masz większą fakturę, ale do pewnego momentu. Jak kwota osiąganie, strzelam, 1500 zł to rozmowy wychodzące zostaną zablokowane.
  15. nowe środowisko- migracja

    Lenovo RD650 w obudowie 6+9. Chyba jednak z najbardziej elastycznych rozwiązań na rynku i wcale nie jest strasznie drogie.
  16. Co to za CPU

    Normalną wersję z 4 rdzeniami i HT mam w dwóch Solarach obecnie. Link prowadzi do 404. EDIT: spacja się wkradła do URL-a, po usunięciu działa.
  17. Jeszcze wydajnościowo nie testowałem. Chce dograć temat sieci na gotowo, bo to implikuje zachowanie przy różnych scenariuszach awarii.
  18. Jasne. Robiłem pętle, raz pomyliłem adresacje do monitorów i nieświadomy tego faktu próbowałem zreanimować storage. Tu faktycznie po ustawieniu wszystkiego miałem część zdegradowanych PG, ale ogarnęło się samo w kilka minut. Wyrywałem kabel z prądem ze wszystkich node'ów w jednej chwili. Tu odrazu health ok po starcie. Póki co kombinuje z różnymi konfiguracjami, psuciem na poważnie zajmę się później.
  19. Wracając do tematu pomęczyłem nieco testowy klaster na Proxmoxie 5 z Cephem. Mimo wielu prób jeszcze go nie zepsułem. Zastanawiam się nad rozwiązaniem sieci przy trzech node'ach. Cel jest taki żeby uniknąć dwóch drogich switchy 10G i mieć fail-over. Zrobiłem to tak, że każdy node ma 2 sieciówki dla Cepha i spiąłem je w ringu. Wszystkie te interface'y są w bridge'u OVS i żeby nie było pętli włączone jest RSTP. W zasadzie działa to sprawnie. Kiedy wypnę jakiś link to wszystko żyje. Aczkolwiek RSTP jak nie trudno się domyślić zawsze kładzie jedno połączenie przez co ruch z pierwszego do trzeciego serwera musi iść przez drugi, a to marnowanie pasma. Druga opcja to Linux Bond broadcast. Tutaj powyższy problem konieczności przechodzenia ruchu nie występuje, ale znowu nie ma fail-overa co jest niedopuszczalne. Obie metody są problematyczne podczas rozbudowy klastra. Czy według Was jest szansa żeby to skonfigurować w taki sposób żeby nie marnować przepustowości, mieć fail-over i może nawet load-balancing?
  20. Czy można definiować zakresy dat rozpoczęcia działalności?
  21. Jesteś tego pewien? Seria SM to odpowiednik S3700, czyli maksymalna wytrzymałość. Współczynnik TBW ma na poziomie 6160. Seria PM ma 1366 TBW i w tym wypadku wydajność, a nie wytrzymałość jest priorytetem. Seria Pro ma 300 TBW. Jakie tam ktoś wsadził kości to nie ma znaczenia tak do końca. Można przecież zbudować wytrzymały dysk na TLC albo mało wytrzymały na MLC. Samsungi PM są rozsądnym wyborem tylko zawsze jak kupowałem dyski to nie były dostępne.
  22. Samsung Pro to konsumencki dysk. Pro to on jest tylko z nazwy. Nie mam odwagi ich stosować choć klienci moi mają i żaden nie padł, a są egzemplarze co mają kilka lat. Choć to były raczej jeszcze 840 Pro. W każdym razie ze względu na zaporową cenę Intela DC S3700 wybrałem Samsungi SM863.
  23. Jak jest live migration to musi być współdzielony storage oraz możliwość skorzystania z HA. Zależy co masz na myśli mówiąć HA. Czy podniesienie wirtualki po padzie node'a czy jej magiczne przerzucenie bez restartu. Takie rzeczy ma vmware, ale i eksperymantalnie w KVM-ie. Ten 1 TB za 1.5k netto to SSD? Co to za model, bo jakiś podejrzanie tani?
  24. Replikacji w czasie rzeczywistym nie traktuje jako backupu, ale w przypadku sprzętowego padu da bardzo szybki czas reanimacji - to fakt. Jak jakieś herezje zaczną dziać się po stronie systemu plików to one również się zreplikują i tu ważny jest backup, który odzyskuje się dłuuugo. Choć przy nie przesadzaniu w wielkością wirtualek może nie być dramatu choć niekoniecznie. Piszesz o łatwym przenoszeniu wirtualek, ale rozumiem, że nie masz na myśli live migration? HA przy swej całej za***istości jest cholernie skomplikowane co może powodować problemy, ale w końcu trzeba przeskoczyć ten level wyżej i sprawdzić to rozwiązanie w praktyce. Jeszcze słówko na temat wolnych dysków. Nie chce zajechać ich na 99%, ale sam pewnie wiesz, że są takie przypadki gdzie wręcz nie ma szans skorzystać z zainstalowanego storage i to jest według mnie marnowanie przestrzeni. Przy konsolidacji mogłaby zostać użyta przez inny system, a bez klastra jest to upierdliwe, a na produkcji nie możliwe (nie teoretycznie, ale praktycznie).
×