Skocz do zawartości
hektor

Metoda backupu VPS

Polecane posty

Szukam jakieś prostej metody backupu. Co użyć do backupu oraz jakie pliki do niego wybrać, które będą niezbędne.

 

Chciałbym wiedzieć jakie metody polecają właściciele serwerów (VPS)? Po godzinie czytania różnych metod czyli rsynki rdiffy ftp, scp trochę zgłupiałem.

 

Nie mam specjalnego serwera do tego chciałbym ściągać to do siebie na komputer. Główny jest Windows, ale nie wykluczam Linuksa jeżeli będzie niezbędny lub bardziej ułatwi przesył. Zależało by mi na metodzie różnicowej żeby nie trzeba było ściągać wszystkiego.

 

Obecnie napisałem sobie 2 skrypty jeden do backupu bazy, drugi do plików strony, które będę pobierać najczęściej. Kopia całości powiedzmy raz na tydzień tudzież ręcznie przy jakiś poważniejszych zmianach.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

100 MB baza i 500 MB tendencja wzrostowa.

 

Całość chcę mieć w razie W, żeby nie trzeba było od nowo konfigurować elementów, których używam.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

no ale chyba mozesz przyrostowo odkladac backup zeby co chwila nie przegrywac 1GB

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Najlepiej zrobisz, jeśli kupisz sobie drugiego VPSa w sensownej firmie i tam będziesz przerzucał backup.

Drogo Cię to nie będzie kosztowało, a zyskasz pewny i w pełni automatyczny mechanizm.

Z doświadczenia sprzed lat wiem, że jak człowiek sobie obiecuje, że np. co tydzień w niedzielę o 20 będzie pobierał ręcznie backupy, to w 50% wypadków trafiają

się inne zadania do wykonania w tym samym czasie. :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Strone sobie wrzuć do repo - svn, git, mercurial lub dowolne inne. Repo zapewni ci historię strony, czyli to co zaoferować ci może backup przyrostowy. Raz dziennie możesz sobie w domu robić z automatu update do ostatniej wersji www. Pierwszy checkout to będzie tylko 500MB, a później updaty będą się robić szybko.

 

Rób dumpa wszystkich baz danych raz dziennie za pomocą mysqldump i pakuj bzip2 lub gzip z najwyższym poziomem kompresji (9) i wrzucaj sobie gdzieś skąd możesz ściągnąć z domu (sftp, ftp, https+basic auth).

 

W razie totalnego fuckupu będziesz miał:

  • ostatnią wersję www
  • ostatnią kopię bazy danych

W razie przypadkowego usunięcia pliku lub bazy będziesz miał:

  • dowolną wersję www od początku jej istnienia (to gwarantuje repozytorium)
  • backup bazy danych z dowolnego dnia (zakładam, że będziesz trzymał przez co najmniej tydzień codzienne backupy z baz)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Strone sobie wrzuć do repo - svn, git, mercurial lub dowolne inne. Repo zapewni ci historię strony, czyli to co zaoferować ci może backup przyrostowy. Raz dziennie możesz sobie w domu robić z automatu update do ostatniej wersji www. Pierwszy checkout to będzie tylko 500MB, a później updaty będą się robić szybko.

 

 

Czy ktoś ma tak rozwiązaną kwestię?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Raczej się chciałeś zapytać czy to będzie działać, tak będzie a praca z np. svn sporo ułatwia, tylko najpierw trzeba poświęcić kilka godzin na nauczenie się SVNa jeżeli się go nie zna, wymaga podstawowej wiedzy z zakresu administracji czyli nic trudnego

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się


×