Skocz do zawartości

Przeszukaj forum

Pokazywanie wyników dla tagów 'Boty'.

  • Szukaj wg tagów

    Wpisz tagi, oddzielając przecinkami.
  • Szukaj wg autora

Typ zawartości


Forum

  • Hosting
    • Forum Główne
    • Informacje o firmach hostingowych
    • Serwery Dedykowane i VPS
    • Chmura czyli Cloud hosting
    • Kolokacja Serwerów i Centra Danych
    • Konta Resellerskie
    • Serwery Streamingu
    • Luźne rozmowy o hostingu
    • Własna Firma Hostingowa
  • Domeny
    • Domeny
    • Biznes domenowy
  • SEO Pozycjonowanie i Optymalizacja
    • Pozycjonowanie i Optymalizacja
    • Promocja i marketing
  • WebHelp
    • Centrum webmastera
    • Programowanie i Bazy danych
    • xHTML / CSS / Javascript
    • Strony do oceny
  • Administracja serwerów
    • Sprzęt serwerowy i Centrum Danych
    • Administracja Serwerów
    • Skrypty
    • Panele Administracyjne
    • Serwery WWW
    • Serwery Pocztowe
    • Serwery DNS
    • Serwery baz danych
    • Transfer Plików i Backup
    • Linux
    • Microsoft Windows
    • Bezpieczeństwo
  • Giełda
    • Oferty firm hostingowych
    • Giełda Domen
    • Oferty Pracy / Zlecenia
    • Giełda
  • Inne fora
    • Piaskownica
    • Prośby
    • Dyskusje Wiki WHT
    • WHT+
  • WHT PROfesjonalnie
    • Forum dla użytkowników Profesjonalnych
    • Dyskusje WebHostingTalk.pl

Znaleziono 4 wyniki

  1. Witam. Dostałem maila od hostingu superhost że obciążenie procesora jest powyżej 100%. Zalogowałem się do panelu i czasem jest nawet 1200%. Ogólnie od 12 dni mam dużo powyżej 200% i za 2 dni wyłączą mi stronę ze względu na obciążenie procesora. Czy ktoś może pomóc? Poniżej wklejam przykładowe logi. Więcej w załączniku. Jak zablokować to g... Dodam że poinstalowałem wtyczki zabezpieczające. Wpisałem IP które mnie atakowało, ale po chwili ataki są już nie z IP a z zestawu znaku + IP tak jak widać w pierwszej linijce obu ataków. Nie wiem jak to zablokować. Przykładowe logi ec2-34-229-55-110.compute-1.amazonaws.com - - [12/Apr/2018:09:51:58 +0200] "GET/index.php/galeria/?type_18=gallery&album_gallery_id_18=8&bwg_previous_album_id_18=7%2C7&bwg_previous_album_page_number_18=0%2C0&type_8=gallery&album_gallery_id_8=18&bwg_previous_album_id_8=18%2C18&bwg_previous_album_page_number_8=0%2C0&type_11=gallery&album_gallery_id_11=15&bwg_previous_album_id_11=14,14&bwg_previous_album_page_number_11=0,0 HTTP/1.1" 200 -"-" "MauiBot (crawler.feedback+wc@gmail.com)" crawl-66-249-64-83.googlebot.com - - [12/Apr/2018:09:51:22 +0200] "GET/index.php/galeria/?type_13=gallery&album_gallery_id_13=13&bwg_previous_album_id_13=12%2C12&bwg_previous_album_page_number_13=0%2C0&type_15=gallery&album_gallery_id_15=11&bwg_previous_album_id_15=10%2C10&bwg_previous_album_page_number_15=0%2C0&type_2=gallery&album_gallery_id_2=24&bwg_previous_album_id_2=24,24&bwg_previous_album_page_number_2=0,0 HTTP/1.1"200 708766 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" Dzwoniłem do superhosta, kazali przysłać zgłoszenie mailowe i dostałem taką wiadomość: "z tego co mogę zauważyć na serwerze występuje problem z nadmierną ilością analiz strony poprzez boty.Możemy poradzić zlimitowanie botów, poprzez dodanie do pliku robots.txt następującej wartości:User-Agent: Googlebot-ImageCrawl-Delay: 300Ograniczy to odwiedzanie strony przez boty google'a." Czy tak powinna zareagować taka firma?
  2. Witam Z racji teraz że wszystko tak szybko się zmienia a jestem laikiem zapytam czy coś się istotnego zmieniło w kwesti baz danych dla stron internetowych oraz phpmyadmin? - Czy MySql nadal jest ok - Czy PhpMyadmin jest ok a może warto zainteresować się czymś nowszym (o ile istnieje) - Co jest te Percona ? - Właściwe to jak najprościciej można się zabrać za analizowanie bazy danych, wyciąganie informacji itp ? - Kwestie bezpieczenstwa. Mam wrażenie że strasznie dużo botów ruskich chodzi po stronkach. Kompletnie nie wiem jak to przenalizować i sprawdzić - Czy może być tak że jakaś domena jest "zainfekowana" Przyznam że taki temat trochę z "czapy" ale czuje że jestem bardzo do tyłu tak ten świat pędzi. Tak więc kilka słów od wyrozumiałego pro dla totalnego nuuba bedzie bardzo pomocne
  3. Przypadkowo odkryłem atak na swoją stronę. Transfer został przekroczony o 192%. Konsultant poinformował mnie, że będę obciążony dodatkowymi kosztami w wysokości 3 zł za każdy 1 GB, a jeśli nie opłacę, to kolejny atak zablokuje mi stronę do 1 dnia kolejnego miesiąca. Jego zdaniem powinienem "to usunac [plik mp4] albo blokowac adresy ktore atakuja strone w pliku .htaccess" [pisownia oryginalna]". Atak był z jednego adresu IP, który wywoływał plik mp4 z mojej strony aż 150 tys. razy w przeciągu jednej nocy. Kto jest odpowiedzialny za atak i kto ponosi jego koszty? Dzięki za Wasze zdanie.
  4. Potrzebuję zablokować globalnie boty generujące niepotrzebny transfer na całym vpsie (yandex, majestic, ahrefs itp). Wiem, że można to zrobić w htaccess i tak cały czas robię, ale wrzucane go do każdej domeny jak jest ich kilkaset jest trochę męczące. Czytałem, że można zrobić to w http.conf, ale jak wklejam tam regułkę: # Bots blocked SetEnvIfNoCase User-Agent "MJ12bot" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "AhrefsBot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "sitebot" bad_bot SetEnvIfNoCase User-Agent "LexxeBot" bad_bot SetEnvIfNoCase User-Agent "Yandex" bad_bot SetEnvIfNoCase User-Agent "Ezooms" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "AppEngine-Google" bad_bot SetEnvIfNoCase User-Agent "deltascan" bad_bot SetEnvIfNoCase User-Agent "easydl" bad_bot SetEnvIfNoCase User-Agent "e-SocietyRobot" bad_bot SetEnvIfNoCase User-Agent "emeraldshield" bad_bot SetEnvIfNoCase User-Agent "exactseek" bad_bot SetEnvIfNoCase User-Agent "findlinks" bad_bot SetEnvIfNoCase User-Agent "freshcrawler" bad_bot SetEnvIfNoCase User-Agent "gigabot" bad_bot SetEnvIfNoCase User-Agent "ia_archiver" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "irlbot" bad_bot SetEnvIfNoCase User-Agent "jeeves" bad_bot SetEnvIfNoCase User-Agent "jyxobot" bad_bot SetEnvIfNoCase User-Agent "korniki" bad_bot SetEnvIfNoCase User-Agent "netexperts" bad_bot SetEnvIfNoCase User-Agent "omniexplorer" bad_bot SetEnvIfNoCase User-Agent "psbot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot SetEnvIfNoCase User-Agent "societyrobot" bad_bot SetEnvIfNoCase User-Agent "sproose" bad_bot SetEnvIfNoCase User-Agent "surveybot" bad_bot SetEnvIfNoCase User-Agent "turingos" bad_bot SetEnvIfNoCase User-Agent "wanadoo" bad_bot SetEnvIfNoCase User-Agent "wget" bad_bot SetEnvIfNoCase User-Agent "zongbot" bad_bot SetEnvIfNoCase User-Agent "zyborg" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot < Location / > Order Allow,Deny Deny from env=bad_bot Allow from all < / Location > to po restarcie apacza nie działają mi domeny (jest info o nieprawidłowym przekierowaniu). Może z tym kodem jest coś nie tak?
×