Skocz do zawartości

gutek

Użytkownicy
  • Zawartość

    204
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    2

Posty napisane przez gutek


  1. w dużym skrócie aplikacja na serwerze przez 80% dnia daje radę z zasobami ale w chwili aktualizacji pewnych danych które są odczytywane z dysków sata wzrasta load >100 a czasami >150 a procesor nie jest wykorzystany w pełni, wiec pewnie dyski sata spowalniają całość.. Danych przybywa więc wkrótce może to zajmować jeszcze więcej czasu..

     

    A jak można na takim kontrolerze rozgraniczyć cache dla poszczególnych dysków tzn zależy mi na cache tylko dysków sata, czy jest taka możliwość? Ewentualnie czy można mieć więcej niż 1 kontroler?

     

    a przy okazji spytam czy testował ktoś GITa dla archiwum plikow: około 2 mln plików, rozmiar całości 200 gb. Czy to wogóle zadziała przy takiej liczbie plików?


  2. Czy jest ktoś w stanie udzielić mi informacji jaka różnica w wydajności może być przy wykorzystaniu sprzętowego kontrolera raid z cache na dysku ssd do którego będą podpięte dyski sata.

     

    Obecnie mam sprzętowy raid z dyskami ssd (system, baza danych) + sata 2 tb (dane), byłbym zainteresowany wymianą np. kontrolera na LSI z wbudowanym cache (LSI Nytro MegaRAID 8100-4i100 GB Cache SSD) tylko czy cache kontrolera znacząco "przyśpieszy" prędkość dysków sata dla najczęściej odczytywanych zasobów z tych dysków? Kontroler niestety nie jest tani i nie chciałbym ryzykować..

     

    Z góry dzięki za opinie.


  3. Jak dobrać procesor do serwera, który będzie udostęniał pliki 3-4 innym serwerom po lanie? Widziałem w ofertach serwery wyposażone nawet w Intel Atom ale czy przy pojemności dyskowej 10 TB i około 15 mln plików taki procesor da sobie radę czy lepiej np. E3-1240 lub E5-1650? Nie chciałbym zamawiać serwera z procesorem, który będzie "większy" niż potrzeby tej maszyny.

     

    2 sprawa to ram, czy potrzeba dużo dla NFS?

     

    Czym ewentualnie udostępnić zasoby kilku serwerom po lanie poza NFS?

     

    Czy jest sens udostęniać nfs poza data center np. z sprint do kei?


  4.  

    Botów z user agent "normalnym" już nie wytniesz. Na tego typu zagrożenia nie znam żadnego sposobu.

    Można jedynie zapobiec jakichkolwiek działań powodujących szkodę dla strony / forum - dorzucić na swoim skrypcie pytania antyspamowe typu KeyCaptcha, Recaptcha + jakieś dodatkowe zabezpieczenie formularza typu "Czy jesteś człowiekiem? "

     

    Jeśli widzisz że masz nadmierne odwiedziny z jakiegoś IP i ten IP się nie zmienia, wtedy można zablokować w .htaccess dane ip:

    order allow,deny
     
    deny from TUTAJ_IP
     
    allow from all

     

    Jakie to są według Ciebie nadmierne odwiedziny?


  5. dzisiaj się zorientowałem że w tabeli z engine innodb nie działają inserty, przeszukałem internet zmieniając wiele wartości w celu sprawdzenia i dalej nic.. według mnie nie działa autoincrement mimo że jest zaznaczone bo jest bład powielenia wartości dla PRIMARY key..

     

    zmieniłem innodb_autoinc_lock_mode z 1 na 0, czy tak będzie lepiej mimo, że insert dalej nie działa ?


  6. Zmień na innodb. W myisam masz robiony lock tabeli, wtedy reszta czeka.

     

    key_buffer = 4096M

    key_buffer_size = 16384M

     

    16gb? :) Ile zajmują Twoje indexy? Te dwie wartości, to to samo.

     

    Wprowadziłem zmiany. Indeksy zajmują dużo mniej :)

     

    Czy ma sens kopiowanie tabeli np. dane1 > dane2 gdzie dane1 jest cały czas aktualizowana a dane2 służy tylko do odczytu przez inną część aplikacji i wtedy dane2 myisam ? Tak mam teraz bo bardzo blokowało dostęp.

     

    A pozostałe parametry z tych ustawionych są okey?


  7. Odświeżam wątek

     

    Zmieniłem maszynę na E5-2650, 32 gb ram, 2 x 240 ssd (raid1)

     

    baza danych składa się z około 50 tabel (tabele o największej pojemności zawierają około 1 mln rekordów i są jako myisam), cała baza zajmuje około 1,5 gb

     

    Wykonywane są regularne aktualizacje zawartości tabel tzn cały dzień działa aplikacja która dokonuje updateów i insertów tych tabel, może być próba wykonania wielu aktualizacji w tym samym czasie przez różne wątki aplikacji w jednej tabeli

     

    Z optymalizacją to chyba przesadziłem, oto ona:

    key_buffer              = 4096M
    key_buffer_size         = 16384M
    tmp_table_size          = 8192M
    max_allowed_packet      = 256M
    thread_stack            = 1024K
    thread_cache_size       = 256
    query_cache_limit       = 256M
    query_cache_size        = 512M
    max_connections        = 500
    sort_buffer_size        = 2048M
    table_open_cache        = 2048M
    read_buffer_size        = 2048M
    innodb_buffer_pool_size = 8196M
    

    Wyczytałem dzisiaj, że nie ma potrzeby zwiększania wielu parametrów aż tak bardzo jak u mnie i teraz moje pytanie co zmienić aby poprawić wydajność

     

    Czy postawienie 4 x ssd w raid 10 coś pomoże?

     

    Może warto zmienić silnik dla tabel które mają wiele updateów na innodb ?

     

    Bardzo dziękuję za ewentualne podpowiedzi


  8.  

    yyy... ale 95.* i 46.* są w tej samej klasie, ale mniejsza. Zobacz ofertę mintshost.pl, korzystam od jakiegoś czasu i jestem zadowolony.

     

    Pozdrawiam

    NetMat

    chodzi mi o to aby pierwsza część była inna ewentualnie 2.. żeby to zroóżnicować


  9. Jestem zainteresowany zamówieniem w kilku DC vps o parametrach:

    - procesor: 1-2 mhz

    - ram: max 1 gb (512 mb też może być)

    - dysk: max 2 gb (zwykly)

    - transfer: ~200-500 gb / m-c

    - adres ip: 1

    - system debian 7

     

    Zamówię po 1 / DC chyba że usługodawca posiada adresy ip w bardzo odległych od siebie klasach np. 95.* 46.* itp

     

    Vpsy na potrzeby proxy.

     

    Kryterium wyboru głównie cena.


  10. Czy ktoś z Was podpowie co z punktu widzenia wydajności bazy danych będzie lepsze:

    1)

    while($zmienna = mysql_fetch_array($wynik_zapytania))
    { 
    duża ilość funkcji do wykonania w oparciu o $zmienna
    }

    2)

    while($zmienna = mysql_fetch_array($wynik_zapytania))
    { 
    $zmienna2[]=$zmienna;
    }
    
    duża ilość funkcji do wykonania w oparciu o $zmienna2
    

    Interesuje mnie czy 2 rozwiązanie szybciej zwolni tabelę, niestety nie potrafię tego sprawdzić, a przy moich testach to jest jeszcze wiele innych czynników które dają różne wartości (za każdym razem inne).

     

    Jeden skrypt jest uruchomiony w ilości 150-240 z różnymi parametrami i na tej podstawie jest analizowana baza mysql (kilka tabeli po ~0,5 gb).

     

    PS. Nie wiem czemu ale nie mogę przekroczyć 250 uruchomionych skryptów w debianie..


  11. czyli tworząc gości mogę każdemu przypisać 1-4 vcpu, a jak będzie wyglądało zużycie tych rdzeni symetrycznie czy kto pierwszy ten lepszy? a jak wygląda temat ramu? podział wolnej pamięci czy też można 8gb dzielić na 4 maszyny i dla każej przydzielić np 4 gb?

     

    czy w ramach jednego serwera można stosować wirtualne maszyny połączone mostem i wybrane NATem odizolowane od świata?


  12. Liczba rdzeni i wątków, a vcpu dla "gości".

    Zakłdając, że mam E3-1240 czyli 4 rdzenie i 8 wątków to ile mogę przypisać vcpu do "gościa"? Uruchomiłem 4 wirtualne maszyny i każda dostała 4 vcpu i całość działa - czy to ma jakieś odniesienie do liczby rdzeni, wątków czy vcpu to informacja z ilu maksymalnie "gość" może korzystać tylko czego wątków czy rdzeni ?

     

    Z góry dzięki za odpowiedź.

×