Skocz do zawartości

Przeszukaj forum

Pokazywanie wyników dla tagów 'blokowanie'.

  • Szukaj wg tagów

    Wpisz tagi, oddzielając przecinkami.
  • Szukaj wg autora

Typ zawartości


Forum

  • Hosting
    • Forum Główne
    • Informacje o firmach hostingowych
    • Serwery Dedykowane i VPS
    • Chmura czyli Cloud hosting
    • Kolokacja Serwerów i Centra Danych
    • Konta Resellerskie
    • Serwery Streamingu
    • Luźne rozmowy o hostingu
    • Własna Firma Hostingowa
  • Domeny
    • Domeny
    • Biznes domenowy
  • SEO Pozycjonowanie i Optymalizacja
    • Pozycjonowanie i Optymalizacja
    • Promocja i marketing
  • WebHelp
    • Centrum webmastera
    • Programowanie i Bazy danych
    • xHTML / CSS / Javascript
    • Strony do oceny
  • Administracja serwerów
    • Sprzęt serwerowy i Centrum Danych
    • Administracja Serwerów
    • Skrypty
    • Panele Administracyjne
    • Serwery WWW
    • Serwery Pocztowe
    • Serwery DNS
    • Serwery baz danych
    • Transfer Plików i Backup
    • Linux
    • Microsoft Windows
    • Bezpieczeństwo
  • Giełda
    • Oferty firm hostingowych
    • Giełda Domen
    • Oferty Pracy / Zlecenia
    • Giełda
  • Inne fora
    • Piaskownica
    • Prośby
    • Dyskusje Wiki WHT
    • WHT+
  • WHT PROfesjonalnie
    • Forum dla użytkowników Profesjonalnych
    • Dyskusje WebHostingTalk.pl

Znaleziono 1 wynik

  1. Potrzebuję zablokować globalnie boty generujące niepotrzebny transfer na całym vpsie (yandex, majestic, ahrefs itp). Wiem, że można to zrobić w htaccess i tak cały czas robię, ale wrzucane go do każdej domeny jak jest ich kilkaset jest trochę męczące. Czytałem, że można zrobić to w http.conf, ale jak wklejam tam regułkę: # Bots blocked SetEnvIfNoCase User-Agent "MJ12bot" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "AhrefsBot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "sitebot" bad_bot SetEnvIfNoCase User-Agent "LexxeBot" bad_bot SetEnvIfNoCase User-Agent "Yandex" bad_bot SetEnvIfNoCase User-Agent "Ezooms" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "AppEngine-Google" bad_bot SetEnvIfNoCase User-Agent "deltascan" bad_bot SetEnvIfNoCase User-Agent "easydl" bad_bot SetEnvIfNoCase User-Agent "e-SocietyRobot" bad_bot SetEnvIfNoCase User-Agent "emeraldshield" bad_bot SetEnvIfNoCase User-Agent "exactseek" bad_bot SetEnvIfNoCase User-Agent "findlinks" bad_bot SetEnvIfNoCase User-Agent "freshcrawler" bad_bot SetEnvIfNoCase User-Agent "gigabot" bad_bot SetEnvIfNoCase User-Agent "ia_archiver" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "irlbot" bad_bot SetEnvIfNoCase User-Agent "jeeves" bad_bot SetEnvIfNoCase User-Agent "jyxobot" bad_bot SetEnvIfNoCase User-Agent "korniki" bad_bot SetEnvIfNoCase User-Agent "netexperts" bad_bot SetEnvIfNoCase User-Agent "omniexplorer" bad_bot SetEnvIfNoCase User-Agent "psbot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot SetEnvIfNoCase User-Agent "societyrobot" bad_bot SetEnvIfNoCase User-Agent "sproose" bad_bot SetEnvIfNoCase User-Agent "surveybot" bad_bot SetEnvIfNoCase User-Agent "turingos" bad_bot SetEnvIfNoCase User-Agent "wanadoo" bad_bot SetEnvIfNoCase User-Agent "wget" bad_bot SetEnvIfNoCase User-Agent "zongbot" bad_bot SetEnvIfNoCase User-Agent "zyborg" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot < Location / > Order Allow,Deny Deny from env=bad_bot Allow from all < / Location > to po restarcie apacza nie działają mi domeny (jest info o nieprawidłowym przekierowaniu). Może z tym kodem jest coś nie tak?
×