Skocz do zawartości

elcct

WHT Pro
  • Zawartość

    1166
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    19

Posty napisane przez elcct


  1. Jak kogoś interesuje, wynik UnixBench tego najtańszego VPS:

    ------------------------------------------------------------------------
    Benchmark Run: Wed Mar 19 2014 19:06:36 - 19:34:38
    1 CPU in system; running 1 parallel copy of tests
    
    Dhrystone 2 using register variables       26810355.0 lps   (10.0 s, 7 samples)
    Double-Precision Whetstone                     3800.7 MWIPS (9.6 s, 7 samples)
    Execl Throughput                               3632.9 lps   (30.0 s, 2 samples)
    File Copy 1024 bufsize 2000 maxblocks        553338.8 KBps  (30.0 s, 2 samples)
    File Copy 256 bufsize 500 maxblocks          169629.2 KBps  (30.0 s, 2 samples)
    File Copy 4096 bufsize 8000 maxblocks       1040089.8 KBps  (30.0 s, 2 samples)
    Pipe Throughput                             1387231.3 lps   (10.0 s, 7 samples)
    Pipe-based Context Switching                 200156.3 lps   (10.0 s, 7 samples)
    Process Creation                               8320.3 lps   (30.0 s, 2 samples)
    Shell Scripts (1 concurrent)                   6600.3 lpm   (60.0 s, 2 samples)
    Shell Scripts (8 concurrent)                    889.0 lpm   (60.1 s, 2 samples)
    System Call Overhead                        1383226.6 lps   (10.0 s, 7 samples)
    
    System Benchmarks Index Values               BASELINE       RESULT    INDEX
    Dhrystone 2 using register variables         116700.0   26810355.0   2297.4
    Double-Precision Whetstone                       55.0       3800.7    691.0
    Execl Throughput                                 43.0       3632.9    844.9
    File Copy 1024 bufsize 2000 maxblocks          3960.0     553338.8   1397.3
    File Copy 256 bufsize 500 maxblocks            1655.0     169629.2   1024.9
    File Copy 4096 bufsize 8000 maxblocks          5800.0    1040089.8   1793.3
    Pipe Throughput                               12440.0    1387231.3   1115.1
    Pipe-based Context Switching                   4000.0     200156.3    500.4
    Process Creation                                126.0       8320.3    660.3
    Shell Scripts (1 concurrent)                     42.4       6600.3   1556.7
    Shell Scripts (8 concurrent)                      6.0        889.0   1481.7
    System Call Overhead                          15000.0    1383226.6    922.2
                                                                       ========
    System Benchmarks Index Score                                        1086.3
    
    

    VPS działa na Opteronie 4386

     

    edit:

     

    Dla porównania najtańszy droplet z DigitalOcean:

    Benchmark Run: Wed Mar 19 2014 18:41:56 - 19:10:20
    1 CPU in system; running 1 parallel copy of tests
    
    Dhrystone 2 using register variables       26707476.4 lps   (10.0 s, 7 samples)
    Double-Precision Whetstone                     2648.6 MWIPS (10.0 s, 7 samples)
    Execl Throughput                               3132.6 lps   (29.6 s, 2 samples)
    File Copy 1024 bufsize 2000 maxblocks        945036.9 KBps  (30.0 s, 2 samples)
    File Copy 256 bufsize 500 maxblocks          256427.4 KBps  (30.0 s, 2 samples)
    File Copy 4096 bufsize 8000 maxblocks       1550360.7 KBps  (30.0 s, 2 samples)
    Pipe Throughput                             1599299.3 lps   (10.0 s, 7 samples)
    Pipe-based Context Switching                 253368.1 lps   (10.0 s, 7 samples)
    Process Creation                               9438.1 lps   (30.0 s, 2 samples)
    Shell Scripts (1 concurrent)                   6116.4 lpm   (60.0 s, 2 samples)
    Shell Scripts (8 concurrent)                    797.5 lpm   (60.0 s, 2 samples)
    System Call Overhead                        3389284.8 lps   (10.0 s, 7 samples)
    
    System Benchmarks Index Values               BASELINE       RESULT    INDEX
    Dhrystone 2 using register variables         116700.0   26707476.4   2288.6
    Double-Precision Whetstone                       55.0       2648.6    481.6
    Execl Throughput                                 43.0       3132.6    728.5
    File Copy 1024 bufsize 2000 maxblocks          3960.0     945036.9   2386.5
    File Copy 256 bufsize 500 maxblocks            1655.0     256427.4   1549.4
    File Copy 4096 bufsize 8000 maxblocks          5800.0    1550360.7   2673.0
    Pipe Throughput                               12440.0    1599299.3   1285.6
    Pipe-based Context Switching                   4000.0     253368.1    633.4
    Process Creation                                126.0       9438.1    749.1
    Shell Scripts (1 concurrent)                     42.4       6116.4   1442.6
    Shell Scripts (8 concurrent)                      6.0        797.5   1329.1
    System Call Overhead                          15000.0    3389284.8   2259.5
                                                                       ========
    System Benchmarks Index Score                                        1288.6
    
    
    • Upvote 1

  2.  

    Co mam na myśli pornografia - może mylę pojęcia, chodzi mi tylko o zdjęcia przedstawiające nagość.

     

    Dla osób zboczonych nawet sutek będzie pornografią, ale ogólnie przyjętą granicą pomiędzy erotyką, a pornografią jest przedstawienie aktu seksualnego lub innej czynności seksualnej, gdzie wyraźnie widać narządy płciowe.

     

    Czyli naga kobieta - erotyka, naga kobieta masturbująca się (lecz samej czynności nie widać) - erotyka, naga kobieta masturbująca się - pornografia itd.


  3.  

    Ja nie prowadzę strony takiego ciężkiego kalibru i profilaktycznie chcę się zabezpieczyć.

     

    Osoby współpracujące przy przytoczonych stronach były aresztowane w Polsce (chociaż sprawy zostały oddalone) oraz strony były wiele razy blokowane przez FBI.

     

    Jakiego kalibru stronę prowadzisz, nie ma znaczenia. Bardziej znaczy, czy nadepniesz tym komuś na odcisk i czy łatwo będzie Ciebie oskarżyć o coś i podwyższyć statystyki.

     

     

     

     

    A skąd ktoś ma wiedzieć skąd ją prowadzę?

     

    Zawsze się znajdzie ktoś życzliwy.


  4. @Update

     

    Dyski mają wskaźnik Media_Wearout_Indicator na poziomie 99% (czyli dopiero 1% zużycia). To mnie trochę dziwi - ponieważ od ponad roku jest na nich zapisywane bardzo duża ilość danych. Przed chwilą sprawdzałem iostat-em statystyki z ostatniego m-ca - wychodzi że średnio na minutę jest zapisywane 360 MB, co daje 518 GB/dzień i ponad 15 TB/m-c. Czy to możliwe że przy tak dużej orce było takie małe zużycie dysku ? Chyba że iostat jakoś przekłamuje te wartości ?

     

     

     

     

    Ja to tak rozumiem, że jeżeli jest napisane, że dysk powinien wytrzymać 100k zapisów, to chodzi o zapisanie go do pełna tyle razy. W Twoim przypadku jeżeli powiedzmy dysk ma pojemność 240GB to przez dzień by dawało ok. 2,5 takich zapisów, to by znaczyło, że dysk powinien wytrzymać 40000 dni - jakieś 109 lat. Czyli jeśli używałeś go w ten sposób przez rok, to zużycie 1% wydaje się być poprawne.


  5. Nie wiem czy te zamulające vpsy są dobrym rodzajem testu...

     

    Mam tam kilka i nie zauważyłem, aby zamulały...

    Zastanawiałbym się nad serwerami Kimsufi, jednak martwi mnie migracja na wyższy plan, gdy potrzebowałbym większej wydajności.

     

    Czy chmura byłaby dobrym rozwiązaniem? Jeśli tak, to może jakieś polecacie?

     

    Możesz sobie zainstalować jakąś wirtualizację na kimsufi i przy zmianie dedyka na lepszy, możesz wtedy po prostu skopiować sobie kontener na nowy serwer.


  6. PayPal to eBay ich konkurencja... z tego samego powodu na allegro nie można płacić przez PayPal.

     

     


    Przyjedzie kurier i będzie miał już wypełniona deklaracje podatkową z wyliczona kwotą cła.

    Cło płacisz kurierowi. Bez opłaty nie otrzymasz towaru.

     

     

    Z tym się nie spotkałem, ale może w Polsce tak jest. Do paczki był po prostu dołączony rachunek, który można było opłacić online.


  7. Takie pytanie czy wy również tak macie, że po restarcie sieci

    service networking restart

    serwer nie wstaje, ani nie reaguje na komendy z panelu? Jednym słowem trup? Mi to się przydarzyło 2 raz (0 zmian w plikach od sieci). Jedyne co pomaga to napisanie do nich, aby zrestartowali go ręcznie. A w panelu widnieje na czerwono "error" i nic nie działa (reinstalacja/reboot/tryb rescue). Czy tylko jak mam taki dziwny przypadek?

     

    A po IPMI nie możesz wejść na serwer zobaczyć co się stało?


  8. Pracuje nad wieloma sporymi projektami i wiele monitorów pozwala na wygodniejsze obserwowanie "co w trawie piszczy" - oszczędza to bardzo dużo czasu, bo nie trzeba się przełączać pomiędzy okienkami no i też terminale nie muszą być otwarte w mikroskopijnych oknach.

     

    Jest wiele use case, gdzie to się sprawdza np:

    1 monitor - edytor kodu

    2 monitor - przeglądarka

    3 monitor - dokumentacja api

    4 monitor - konsola

     

    I wiele innych...

     

    Monitory teraz relatywnie kosztują grosze, a usprawnienie pracy jest niesamowite.


  9. oraz adf.ly, generowanie odwiedzającym tychże linków, BARDZO DUŻA baza MySQL oraz duża liczba zapytań do niej (umieszczanie danych, pobieranie danych i usuwanie starych za pomocą CRON'a)

     

     

    Czy baza zmieści się w RAM serwera? Z tego co piszesz będzie rosnąć 5MB dziennie, ale też dane starsze niż 48h będą usuwane. To oznaczałoby, że baza będzie miała mniej niż 100MB na pewno. Z tego by wynikało, że to jest mikroskopijna baza.

     

    Jak skomplikowane są te zapytania? Ile zapytań na sekundę?

     

    I jakie dane pobierane?

     

    W miare nowy serwer z SSD powinien ogarnąć bez problemu kilkaset milionów prostych zapytań dziennie, pod warunkiem, że aplikacja jest dobrze napisana.


  10. Zarówno Python z Django jak i Ruby z RoR są bardzo dobrym wyborem.

     

    Tylko nie wnoszą nic nowego i raczej to będzie strata czasu. Lepszym pomysłem jest poznanie narzędzi i języków, które wymagają trochę innego podejścia (jak właśnie podany przeze mnie jako przykład JS (node.JS) czy Go).

     

    Spotkałem się z np. projektami, w których front-end i kontrolery były napisane w JS / PHP, a model / api w Go czy właśnie w node.JS - ze względu np. na wydajność, a w przypadku Go dodatkowo z możliwością łatwego łączenia kodu z bibliotekami C / C++. Taki tandem z Ruby czy Python nie ma większego sensu.


  11.  

    Ja bym się skupił na Pythonie, bo mało jest ludzi kumatych o niego ;)

     

    Ale sam Python nie wnosi za wiele. Jak ktoś ma opanowane PHP (mówię o najnowszej wersji), to nauka Pythona poza poznaniem nowej składni nic mu nie da.

    Chociaż z drugiej strony skrypty "systemowe" w Pythonie pisze się o wiele wygodniej niż w bashu i na Pythona są ciekawe narzędzia do "deploymentu" aplikacji jak np. Fabric.

    - GO - niszowe, ktoś oferuje hosting z tym?

     

     

    Każda firma, która oferuje VPS


  12. Czy lipa zależy od potrzeb. Ja dzisiaj odszyfrowałem BitLockera i to wbudowane od WD zabezpieczylem hasłem. Zawsze to szybsze. Podobnie używam sprzętowego szyfrowania ssd. Ok, jak padnie to po danych, no ale coś za coś. Wolę ochronę przed niepowołanym dostępem.

     

    Wysłane z mojego Nexus 5 przy użyciu Tapatalka

     

    Jeśli ma się dodatkowo backup, albo dane nie są super ważne, to można się pokusić, ale ja osobiście jednak wolę TrueCrypt - wpływ na wydajność jest niezauważalny (na nowszych procesorach Intela) - jest wtedy chociaż cień szansy na odzyskanie danych.


  13. Również polecam WD My Passport Ultra, jest mały i bardzo poręczny .Tutaj masz dosyć ładny opis tego dysku.

     

    Ten dysk to strzał w stope:

     

     

     

    HDD o pojemności 1 TB, z oprogramowaniem do backupu oraz funkcja sprzętowego szyfrowania danych.

     

     

    Kontroler szyfruje dane nawet jak nie masz ustawionego hasła, więc jak dysk wyjmiesz z obudowy i będziesz chciał podłączyć bezpośrednio, to danych nie zobaczysz.

     

    Pozatym, wystarczy jakiś ładunek elektrostatyczny podczas noszenia i zniszczony kontroler = całkowita utrata danych mimo, że dysk sam w sobie będzie sprawny

    Ale niby jak są szyfrowane, skoro ja tej funkcji w ogóle nie używam? Można z niej korzystać, ale nie trzeba. No chyba że stosują coś takiego jak w ssd, że są szyfrowane a soft tylko zabezpiecza naszym hasłem klucze szyfrujące. Sam szyfruję, ale bitlockerem.

     

    Wysłane z mojego Nexus 5 przy użyciu Tapatalka

     

    Kontroler szyfruje dane nawet jak nie ustawisz hasła. Te dyski są reklamowane jako posiadające "sprzętowe szyfrowanie" i mają klucze unikalne dla każdego kontrolera.


  14. Polecam WD My Passport na USB3. Ceny dosyć przystępne, dyski szybkie, dodatkowo najczęściej masz w zestawie etui.

     

    Wysłane z mojego Nexus 5 przy użyciu Tapatalka

     

    Nigdy w życiu. Padnie ci kontroler (a to się zdarza, zwykle z końcem gwarancji) i nie odzyskasz danych, bo są unikalnie szyfrowane (wymiana kontrolera nie pomoże)

     

    Już lepiej kupić normalny dysk i osobno obudowę z USB 3.0 masz przynajmniej trochę pewności, że Twoje dane są bezpieczne.

     

    Na Twoim miejscu bym się tego dysku pozbył jak najszybciej.


  15. Elcct napisałem nieco wcześniej to ma być odpowiednik obecnej bazy MySQL:

     

    Czyli mamy spór w pełni nierozwiązany :P

     

    No i pytanie - w Mongo write-locki są na całą tabelę czy na rekord?

     

    Mongo służy przede wszystkim do przechowywania dokumentów gdzie jeden dokument może zawierać "pod-dokumenty" np. dokument zawierający artykuł, może również zawierać komentarze, zdjęcia itd gdzie ich struktura nie musi być z góry narzucona. I w tym mongo stanowi przewagę nad tradycyjną relacyjną bazą danych, bo do wybrania tych wszystkich danych dot. artykułu wystarczy jedno proste zapytanie, a w przypadku MySQL, zwykle oznaczałoby to kilka - kilkanaście zapytań, aby wybrać takie same dane.

     

    Jeżeli posiadasz prostą tabelę, która nie ma relacji MySQL powinien lepiej dać radę.

     

    Mongo blokuje całą bazę danych - blokowanie tabeli ciągle jest w planach (od 4 lat...).


  16. @elcct - tylko pamiętaj o tym, że lock'i z Mongo to nie takie zwykłe lock'i. Taki write-lock jest zdejmowany po np. 300-1000 mikrosekundach, więc dopóki nie ma więcej niż 500-700req/s (zostawiamy margines 300) to wg teorii nic się nie zamuli.

     

    W dokumentacji nic takiego nie widziałem - "lock" jest tak długo aż zostanie wykonana operacja zapisu. Spotkałem się z tym, że przy bazie tylko z kilkunastoma milionami dokumentów jeden insert/upsert trwał nawet kilka minut (mocny serwer, tylko z mongo)

    elcct, jakie rozwiązanie byś dla moich potrzeb zaproponował? :)

     

    Wszystko zależy od tego jakie konkretnie masz dane i co chcesz z nimi robić.


  17. Średnio request wywołujący insert do bazy, będzie wywoływany co 1 sekunde (przy pesymistycznych założeniach).

     

    Co zrobisz jak mongo będzie wykonywać jakąś długą operację (np. trwającą 5 sekund) i przez ten czas nic nie wrzucisz do bazy, bo będzie zablokowana?

     

    Jeżeli będziesz próbował dalej wrzucać to jedno czy więcej zapytań na sekundę, to kolejka zapytań się będzie zapychać i baza w końcu padnie (czy też po prostu nie będzie odpowiadać)

×