Skocz do zawartości


 

Zdjęcie

Jak obejść ograniczenia czasu wykonania SSH

Jak obejść ograniczenia czasu wykonania SSH

  • Proszę się zalogować aby odpowiedzieć
15 odpowiedzi na ten temat

Jak obejść ograniczenia czasu wykonania SSH

#1 markoni

markoni

    Nowy użytkownik

  • Użytkownicy
  • 8 postów

Napisany 08 lipiec 2016 - 12:19

Próbuję zrobić backup dużego folderu (3.3GB) na home.pl

Dowiedziałem się od nich, że niestety mają jakieś ograniczenie czasu wykonania komendy TAR do tworzenia archiwów .tar.gz

Archiwizowanie dochodzi do jakiegoś momentu i potem wyrzuca komunikat:

 

tar: Cannot write: broken pipe

tar: Child died with signal 9

tar: Error is not recoverable: exiting now

 

Poradźcie coś.

Małe foldery pakują się bez problemów.


Edytowany przez markoni, 08 lipiec 2016 - 12:19.

  • 0

#2 Gość_Spoofy_*

Gość_Spoofy_*
  • Goście

Napisany 08 lipiec 2016 - 13:17

Oni to zawsze mają ograniczenia.... począwszy od ilości zapytań mysql, kończywszy na takich właśnie pierdołach.... Widać z tego że sami są bardziej ograniczeni niż ich limity....

 

Jedyną, złotą radę jaką mogę Ci dać - uciekaj. Uciekaj i to jak najdalej. Jeżeli chcesz prawdziwy hosting z dostępem SSH, bez limitów w zaufanej, wieloletniej firmie, zapraszam na PW ;)


Edytowany przez Spoofy, 08 lipiec 2016 - 13:18.

  • 0

#3 behemoth

behemoth

    Weteran WHT

  • Firma Bronze
  • PipPipPipPipPipPipPipPip
  • 1236 postów
  • Skąd:Łódź
  • Firma:swhosting.pl
  • Imię:Jakub

Napisany 08 lipiec 2016 - 15:26

Trzeba zadzwonić do home i poprosić o zdjęcie limitu. Robią to przeważnie w godzinach nocnych, jednorazowo. Później zakładają limit.
  • 0

#4 vorren

vorren

    Czasami na forum

  • Użytkownicy
  • 30 postów

Napisany 08 lipiec 2016 - 16:40

Z drugiej strony trudniej o overselling i wszyscy na matce mają w miarę jednakowe warunki..
  • 0

#5 Piotr GRD

Piotr GRD

    Weteran WHT

  • WHT Pro
  • PipPipPipPipPipPipPipPip
  • 521 postów
  • Skąd:Szczecin

Napisany 08 lipiec 2016 - 19:24

Ostatecznie...

Spróbowałbym stworzyć archiwum TAR nieskompresowane i ewentualnie w kolejnej komendzie je skompresować do pobrania. Jeśli to nie przejdzie dla 3GB, to szkoda gadać... Wiem, że Home to przerost formy (ceny - regularnej, nie-promocyjnej) nad treścią, ale bez przesady... Mogliby przynajmniej NA STAŁE, CO NOC w określonych godzinach wyłączać limit i w jakimś FAQ dać wytyczne co do ustawiania cronjob w tych właśnie godzinach dla takich celów.

 

Jeśli powyższe nie wyjdzie i inaczej się nie da, to jest jeszcze opcja najpierw zrobienia listy wszystkich plików do skompresowania, podzielenie tego na części, a później tworzenie archiwum krok po kroku dodając kolejną partię plików. Nie mam dużego doświadczenia w korzystaniu z Unixa, więc nie będę tu próbował podawania gotowych komend, ale pewnie ls z odpowiednimi argumentami da listę plików, którą "po rurce" zapisać do pliku, potem listę jakoś podzielić, a następnie tar z argumentem -T oraz -r, żeby kolejne partie plików dodawać do tego samego archiwum.


Edytowany przez Piotr GRD, 08 lipiec 2016 - 19:26.

  • 0

#6 behemoth

behemoth

    Weteran WHT

  • Firma Bronze
  • PipPipPipPipPipPipPipPip
  • 1236 postów
  • Skąd:Łódź
  • Firma:swhosting.pl
  • Imię:Jakub

Napisany 08 lipiec 2016 - 19:38

Tar tez jest ubijany.
  • 0

#7 Vasthi

Vasthi

    Weteran WHT

  • WHT Pro
  • PipPipPipPipPipPipPipPip
  • 647 postów

Napisany 08 lipiec 2016 - 20:22

Przesłać przez rsync na serwerze w Tiktalik za 9 zł (rozliczany godzinowo) i tam zrobić tara :]
  • 0

#8 behemoth

behemoth

    Weteran WHT

  • Firma Bronze
  • PipPipPipPipPipPipPipPip
  • 1236 postów
  • Skąd:Łódź
  • Firma:swhosting.pl
  • Imię:Jakub

Napisany 09 lipiec 2016 - 00:14

Rsynca też ubijają :)
  • 0

#9 Pan Kot

Pan Kot

    Mrrr

  • Zbanowani
  • PipPipPipPipPipPipPipPip
  • 2819 postów

Napisany 09 lipiec 2016 - 07:16

Więc się z firmy ucieka w podskokach a nie szuka workaroundów na problemy, które w innych firmach nie istnieją.


  • 0

#10 kafi

kafi

    Weteran WHT

  • WHT Pro
  • PipPipPipPipPipPipPipPip
  • 3412 postów

Napisany 09 lipiec 2016 - 10:27



Rsynca też ubijają :)

 

Ale rsync możesz odpalić w pętli i "kiedyś-tam" się całość skopiuje ;).

 

 

Więc się z firmy ucieka w podskokach a nie szuka workaroundów na problemy, które w innych firmach nie istnieją.

 

Każdy kij ma dwa końce. Bo patrząc z drugiej strony, to masz jakieś tam środowisko, które działa dosyć przewidywalnie i trudniej o sytuację, że (odchodząc zupełnie od autora tematu) "moja" strona masakrycznie zwolni (a ja nic nie zmieniałem), bo "sąsiadowi" zachce się w tarować swoje zbiory. I weź tu debuguj, czy to sprawa przycięć w aplikacji, czy otoczenia...


  • 0

#11 Pan Kot

Pan Kot

    Mrrr

  • Zbanowani
  • PipPipPipPipPipPipPipPip
  • 2819 postów

Napisany 09 lipiec 2016 - 11:43

 masz jakieś tam środowisko, które działa dosyć przewidywalnie i trudniej o sytuację, że (odchodząc zupełnie od autora tematu) "moja" strona masakrycznie zwolni (a ja nic nie zmieniałem), bo "sąsiadowi" zachce się w tarować swoje zbiory. I weź tu debuguj, czy to sprawa przycięć w aplikacji, czy otoczenia...

 

Jak najbardziej się zgadzam i dlatego optowałbym np. za nakładaniem limitu CPU jakimś cpulimitem na cały process SSH i wszystkie jego dzieci rekursywnie, przez co nie byłoby takiej sytuacji (bo np. max limit by wynosił 5-10% CPU, a jakby się ktoś postarał to nawet by to podpiął pod samą domenę i usera), a jednocześnie nie trzeba by było szukać workaroundów na problemy, które firma sztucznie powoduje.

 

Zawsze są rozwiązania, które są dobre i dla klienta, i dla firmy. Trzeba tylko się nieco postarać i postawić użyteczność i praktyczność na pewnym zadowalającym poziomie zamiast uciekać od problemu. Wątpię, żeby rozumny klient miał coś przeciw takiemu limitowi - nawet ja bym nie miał, za to jakbym miał jakiś sztuczny limit czasu wykonywania skryptu czy procesu SSH to zostałbym potraktowany jako jakiś niemile widziany gość w tym shellu, a nie faktyczny klient.


Edytowany przez Archi, 09 lipiec 2016 - 11:43.

  • 0

#12 patryk

patryk

    og. carpe diem.

  • WHT Pro
  • PipPipPipPipPipPipPipPip
  • 2089 postów
  • Skąd:Wwa

Napisany 09 lipiec 2016 - 12:42

Tar to akurat nie taki duży problem dla CPU, a większy dla I/O ;-).


  • 0

#13 Pan Kot

Pan Kot

    Mrrr

  • Zbanowani
  • PipPipPipPipPipPipPipPip
  • 2819 postów

Napisany 09 lipiec 2016 - 13:14

A to jakaś różnica? Dla I/O mamy cgroups.


  • 0

#14 patryk

patryk

    og. carpe diem.

  • WHT Pro
  • PipPipPipPipPipPipPipPip
  • 2089 postów
  • Skąd:Wwa

Napisany 09 lipiec 2016 - 13:15

No taka, że napisałeś o limitowaniu CPU, a to akurat w home śmiga od niepamiętnych czasów :).


  • 0

#15 MikeJones

MikeJones

    Stały użytkownik

  • Użytkownicy
  • PipPipPipPipPip
  • 208 postów

Napisany 09 lipiec 2016 - 13:21

taaa słynne virtual server overloaded czy tam servicing in progress :D


  • 0

#16 lord101

lord101

    Stały użytkownik

  • WHT Pro
  • PipPipPipPipPip
  • 303 postów
  • Skąd:Rzeszów

Napisany 13 lipiec 2016 - 21:06

Potwierdzam, również po około 5 minutach dostaje kilka na tar:

 

tar: Cannot write: broken pipe

tar: Child died with signal 9

tar: Error is not recoverable: exiting now

 

 

To przypadkiem nie przesada ?  Jedynie co działa na ich super hostingu to tylko: cd i ls 

 

Jedyna możliwość przesyłania plików to tylko FTP i plik po pliczku ...


  • 0





0 użytkowników czyta ten temat

0 użytkowników, 0 gości, 0 anonimowych użytkowników