Skocz do zawartości
europrezes

Automatyczne ściąganie pliku z www - jak zrobić?

Polecane posty

Na stronie www zamieszczana jest podstrona w konkretnym rozszerzeniu pliku np. .xls.

Jakim narzędziem dałoby się zrobić coś takiego, aby np. program/skrypt wchodził pod

przykladowa-domena/konretny-plik.xls i ściągał mi ten plik co określony czas np. codziennie na mój FTP?

Chodzi o to, że na określonej stronie zmieniają się dane i chciałbym sobie archiwizować wersje strony, najlepiej by to się np. zapisywało na moim serwerze w katalogu z odpowiednio nadanymi uprawnieniami.

Dzięki temu bym raz na jakiś czas ściągał z FTP pliki w różnych wersjach, a nie musiał codziennie wchodzić na stronę i ją zapisywać.

Ewentualnie zadowoli mnie także jakiś pomysł na narzędzie zczytujące treść ze strony html i spisujące ją np. codziennie.

Edytowano przez europrezes (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

mSurf: no tak, ale ten plik się będzie nadpisywał ciągle, więc nici z archiwizacji.

 

Musisz napisać skrypcik, który wykonasz co godzinę, on zamieni nazwę tego pliku na datę. Albo zawrzeć to jakoś w jednym poleceniu, w stylu:

wget -o `date`.xls http://adres.do/pliku.xls

 

Bardzo możliwe, że tym powyższym przekombinowałem coś.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
mSurf: no tak, ale ten plik się będzie nadpisywał ciągle, więc nici z archiwizacji.

Sprawdzałeś swoje teorie?

Wg mojszych obserwacji, to jeśli plik istnieje, to wget go nie nadpisuje, tylko dodaje sufiksy w postaci numerków.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się


×