Skocz do zawartości

Bartko

Użytkownicy
  • Zawartość

    22
  • Rejestracja

  • Ostatnio

Wszystko napisane przez Bartko

  1. Mam problem z aktualizacją systemu Centos 7 za pomocą komendy yum update. Problem stanowi, jak mi się wydaje, obecność binda w różnych wersjach w repozytorium Centosa i repozytorium Epel. Nie umiem rozwiązać tego problemu. Sugerowane --skip-broken pomija binda i aktualizuje resztę. Stosowałem też komendę yum clean all. Proszę o pomoc, wskazówki. PS: Googlowałem. Szukałem "bind" w wyszukiwarce forum. yum update Wczytane wtyczki: fastestmirror base | 3.6 kB 00:00:00 epel/x86_64/metalink | 27 kB 00:00:00 epel | 4.3 kB 00:00:00 extras | 3.4 kB 00:00:00 updates | 3.4 kB 00:00:00 (1/7): base/7/x86_64/group_gz | 155 kB 00:00:00 (2/7): epel/x86_64/group_gz | 169 kB 00:00:00 (3/7): base/7/x86_64/primary_db | 5.3 MB 00:00:00 (4/7): epel/x86_64/updateinfo | 479 kB 00:00:00 (5/7): extras/7/x86_64/primary_db | 90 kB 00:00:00 (6/7): updates/7/x86_64/primary_db | 2.3 MB 00:00:00 (7/7): epel/x86_64/primary_db | 3.8 MB 00:00:00 Determining fastest mirrors * base: mirror1.babylon.network * epel: mirror1.babylon.network * extras: mirror1.babylon.network * updates: mirror1.babylon.network Rozwiązywanie zależności --> Wykonywanie sprawdzania transakcji ---> Pakiet bind.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany --> Przetwarzanie zależności: bind = 32:9.9.4-18.el7_1.5 dla pakietu: 32:bind-chroot-9.9.4-18.el7_1.5.x86_64 ---> Pakiet bind.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany ---> Pakiet bind-libs.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany ---> Pakiet bind-libs.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany ---> Pakiet bind-libs-lite.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany ---> Pakiet bind-libs-lite.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany ---> Pakiet bind-license.noarch 32:9.9.4-18.el7_1.5 zostanie zaktualizowany ---> Pakiet bind-license.noarch 32:9.9.4-29.el7_2.2 zostanie zaktualizowany ---> Pakiet bind-utils.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany ---> Pakiet bind-utils.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany ---> Pakiet dhclient.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany ---> Pakiet dhclient.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany ---> Pakiet dhcp-common.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany ---> Pakiet dhcp-common.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany ---> Pakiet dhcp-libs.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany ---> Pakiet dhcp-libs.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany --> Ukończono rozwiązywanie zależności Błąd: Pakiet: 32:bind-chroot-9.9.4-18.el7_1.5.x86_64 (@updates) Wymaga: bind = 32:9.9.4-18.el7_1.5 Usuwanie: 32:bind-9.9.4-18.el7_1.5.x86_64 (@updates) bind = 32:9.9.4-18.el7_1.5 Zaktualizowano przez: 32:bind-9.9.4-29.el7_2.2.x86_64 (updates) bind = 32:9.9.4-29.el7_2.2 Dostępne: 32:bind-9.9.4-29.el7.x86_64 (base) bind = 32:9.9.4-29.el7 Dostępne: 32:bind-9.9.4-29.el7_2.1.x86_64 (updates) bind = 32:9.9.4-29.el7_2.1 Można spróbować użyć --skip-broken, aby obejść problem Można spróbować wykonać polecenie: rpm -Va --nofiles --nodigest
  2. Wyłączyłem binda z repozytorium base tak jak mówiłeś, ale to jeszcze nie pomogło. Miałem już jednak jakiś trop, gdzie leży problem. Usunięcie pakietu "bind-9.9.4-18.el7_1.5.x86_64" i ponowne uaktualnienie poskutkowało. Dzięki.
  3. Mam taki problem, że jedna subdomena przy długim okresie nie włączania przeglądarki pokazuje zły adres IP. Sytuacja w DSNach jest następująca: domena.pl IN A 100.100.100.100 static.domena.pl IN A 200.200.200.200 - TTL 300 sekund Czasami żądania ze static.domena.pl szły na adres IP 100.100.100.100. Szczególnie przy pierwszym odpaleniu przeglądarki. Czyżby jak komputerowi wygasł czas 300 sekund to na początku wskazuje na złe IP, a dopiero przy którejś z rzędu odsłonie pobiera prawidłowe IP z DNSów?
  4. Gubienie DNSów subdomeny

    Przykro mi, ale niestety nie mogę podać o jaką domenę chodzi. W każdym razie są to domyślne ustawienia cloudflare'a. Kwejk.pl też ma takie właśnie ustawienia, więc jego przykład może posłużyć nam zamiast mojego. Pytałem bardziej teoretycznie czy może coś Wam wiadomo jak to powinno działać.
  5. Nie działają wszystki strony używające CloudFlare. Czy jeszcze jest sens używać tej chmurki? Coraz częściej doświadczam padów.
  6. Problem z CloudFlare - Awaria

    U mnie pad strony trwał godzinę. Niestety oberwałem mocniej.
  7. Nie działa mi dość duża strona strona i wygląda na to, że problem powoduje CloudFlare. Strona obsługująca chmurę CloudFlare.com równiez nie działa i nie mogę się zalogować, żeby wyłączyć obsługę strony przez ich chmurę. Zastanawiam się czy szybko nie uciekać z DNSami gdzieś indziej. Czy Wam też padły teraz stronki używajace Cloudflare? Załączam logi komendy ping i tracert.
  8. Awaria chmury cloudflare.com

    Muszę się nie zgodzić. Ja otrzymałem zupełnie inne wyajaśnienia: Teraz tylko dowiedzieć się czy rozmawiamy o tym samym i czy przypadkiem podczas tego odświeżania przypadkiem u nas czegoś nie zepsuli. Awaria wcale nie wyglądała na zaplanowaną, bo strona cloudflare.com też padła psując im renomę. Zresztą dodatkowo przyznają się do swojej awarii, więc na szczęście nie ma tu zamiatania pod dywan. Padło, przyznają się i starają dojść się czemu tak się dzieje. Tutaj info: http://twitter.com/CloudFlareSys
  9. Awaria chmury cloudflare.com

    Ja akurat mam płatne konta, więc nietylko darmowych to dotknęło. Faktycznie teraz już działa. Profilaktycznie jednak wyłączyłem cache Cloudflare, a zostawiłem tylko DNSY do czasu aż zdiagnozują problem. Dziwne, ale mam wrażenie, że bez Cloudflare działa strona szybciej. Niestety, zjada więcej transferu.
  10. Używam Apache'a z MPM prefork na stronie z materiałami multimedialnymi. Dużo obrazków oraz większe pliku multimedialne po kilkanaście MB. Używałem przez kilkanaście ostatnich miesięcy KeepAlive On oraz konfiguracji: KeepAlive On <IfModule mpm_prefork_module> StartServers 25 MinSpareServers 10 MaxSpareServers 35 ServerLimit 3520 MaxClients 3520 MaxRequestsPerChild 150 </IfModule> Pliki graficzne i multimedialne obsługiwał Lighttpd, ale poprzez Apache Proxy, bo mam tylko jedno IP dostępne. Obecnie zmieniłem system na Debian 6.0 i przy pierwszej konfiguracji dojeżdza do 1003 procesów i zaczyna się mulić strona. Chyba brakuje dostępnej pamięci ram. Musiałem zmienić na: KeepAlive Off <IfModule mpm_prefork_module> StartServers 25 MinSpareServers 10 MaxSpareServers 35 ServerLimit 1000 MaxClients 1000 MaxRequestsPerChild 150 </IfModule> Głównie chyba wyłączenie KeepAlive pomoga, bo spada liczba procesów do 300. 1) Czy Debian 6.0 inaczej obsługuje procesy apache'a niż Debian 5.0. Właśnie po zmianie systemu zaobserwowałem zmianę. 2) Czy jak używam Lighttpd poprzez proxy Apache (przekierowanie na inny port) dla większych plików i obrazków to czy wtedy też proces Apache jest trzymany dzięki KeepAlive aż do końca wczytywania się dużego pliku? 3) Czy może jakoś można stuningować konfigurację, aby mimo włączonego KeepAlive ni było tyle procesów i zajętego całego ramu. Próbowałe z KeepAliveTimeout 2, ale bez zmian. 4) Czy może lepiej całość (Apache + Lighttpd) zamienić na LiteSpeed? Edycja: Dodam jeszcze, że testowałem konfigurację z KeepAlice On na Debianie 6.0 i na dwóch serwerach i wszędzie jest 1002 procesów Apache'e po chwili od uruchomienia. Jednocześnie zajmuje się cała dostępna pamięć RAM (24GB) mimo, że wcześniej było jej dużo GB wolnego.
  11. Apache + Lighttpd, a KeepAlive

    Może komuś coś powiedzą logi z munina. Widać na nich, że przy włączonym KeepAlive liczba procesów osiąga 1000 (mimo, że deklarowałem 1500 akurat dzisiaj). Pamięć też się kończy. Tak jakby chciało zająć 22 GB, a serwer ma tylko 12GB wbrew temu co pisałem, ze ma 24GB. Apache procesy Pamięć Sprawdzane na PHP 5.4.0 i dzisiaj na PHP 5.4.1. Problem wciąż występuje.
  12. Czy jest jakieś rozwiązanie Load Balancingu, które przekaże dane z jednego z dwóch serwerów bezpośrednio do użytkownika, a nie poprzez Load Balancer? Obecnie testowałem oprogramowanie pound i działa to w ten sposób: Żądanie użytkownika => Load balancer Pound => Wybrany serwer => Load Balancer Pound => Użytkownik W takim rozwiązaniu serwer Load Balancerer musi mieć zapewnione pełne pasmo (przepustowość karty sieciowej i łącza) jakie zużywają wszystkie serwery jednocześnie w danej chwili. Czy można to jakoś prosto zrobić na innej warstwie, żeby całość zachowywała się inaczej?
  13. Witajcie, Otóż mam dość spory problem z home.pl. Mam u nich kilka domen i wykorzystałem ich DNSy dns.home.pl, dns2.home.pl Następnie używajac ich panelu i dnsów przekierowałem ruch na IP XX.XX.XX.XX. W rekordach domeny jest wpis example.com IN A XX.XX.XX.XX - 1 godzina . Dnsy zaś mają ważność 24 godziny. Chce zmienić dnsy na te od CloudFlare jednak zobaczcie co się wtedy stanie. Ktoś odwiedzający example.com 6 godzin po zmianie dnsów zobaczy stronę home.pl, gdyż będzie miał w dnscache dns.home.pl, dns2.home.pl, ale wpis A już wygaśnie, a home.pl ustawia wtedy swój wpis IN A kierujący na ich serwery i wyświetlający ich reklamę. Że tak powiem: utknąłem i nie wiem jak stąd wyjść. Czy transfer domeny do innego operatora może rozwiązać ten problem? Jak sobie z tym poradzić, żeby nie narażać się na straty odwiedzających? Oto konfiguracja jaką wygenerował panel. Podobno po zmianie dnsów nie mogą utrzymać mojego Ip przez czas propagacji. Tak poinformował mnie ich pracownik. Proszę o pomoc.
  14. Czy możecie coś polecić lub zaoferować na serwer, który pełniłby rolę backupu dla serwera trzymanego w ovh.pl? Potrzebuję co najmniej 50GB miejsca na backup, który zaciągałbym rsynciem. Codziennie zmieniałaby się kopia bazy danych + dochodziłoby nie więcej niż 50MB plików. Rsync ściąga tylko zmienione dane, więc obciążenie byłoby niewielkie. Nie potrzeba zbyt wiele ramu czy procesora. Bardziej zależy mi na dysku. Oczywiście liczy się cena. Na ogół cena rośnie przy większym dysku, bo rośnie też wtedy ram i procek, a to nie jest wymagane.
  15. Witajcie, Obecnie posiadam stronę, która działa na jednym serwerze w OVH. Chciałbym aby działała na dwóch serwerach w celu zmniejszenia ryzyka awarii. Oto jak to widzę, proszę o poprawki jeśli coś źle przemyślałem. 1. Instaluje na obu serwerach DirectAdmina. 2. Dodaje wszędzie te same domeny, subdomeny 3. Dnsy konfiguruje identycznie na tych serwerach. Używam własnej domeny (np. myowndns.pl) 4. Maile przekierowuje na jeden z tych serwerów (zmiana wpisu A mail.domena.pl) 5. Kod strony wgrywam na oba serwery ten sam (upierdliwe, ale przeżyję to) 6. Baza danych działa na trzecim serwerze, kopie robione są na dwa pozostałe serwery 7. Własne dnsy (np. myowndns.pl) ustawiam w home.pl na IP LOAD BALANCING (ns1.myowndns.pl, ns2.myowndns.pl => IP LOAD BALANCING) Czy coś pominąłem? Może wiecie jakie niespodzianki spotkam na tej drodze.
  16. Witajcie, Po ostatniej reorganizacji swoich serwerów zbędny stał mi się jeden serwer bez limitu transferu. Parametry: RAM: 8GB Procesory: 2x Intel® Xeon® CPU E5405 @ 2.00GHz- są to procesory czterordzeniowe, po 2.0GHz Dysk SATA 1000GB Połączenie sieciowe: 1Gbps Rodzaj przepustowości: Premium Przepustowość OVH/OVH: 1Gbps Przepustowość OVH/Internet: 200 Mbps Przepustowość Internet/OVH: 1Gbps Transfer: bez limitu Za serwer płacę abonament 799zł netto. Czy ktoś byłby zainteresowany odkupieniem serwera lub dzierżawą kont wymagających dobrego łącza? W drugim przypadku oferuję panel DirectAdmin, konta ssh oraz instalację potrzebnego oprogramowania.
  17. Więc przebrnąłem przez większość rzeczy związanych z dwoma serwerami na jedną stronę. Maile puściłem na Google Apps, dnsami zarządzam z panelu home.pl. Na środowisku testowym wszystko wydaje się działać. Mam tylko pytanie o kontent statyczny. Z racji, że mam tylko jedno IP LOAD BALANCING puściłem sobie pliki przez proxy apache, które kieruje na port Lighttpd i pliki serwuje Lighttpd. Czy to wpłynie na wydajność? Zastanawiam się też nad synchronizacją plików dodawanych przez użytkowników (avatary, zdjęcia). 1. Połączenie z dwoma serwerami FTP i wgrywanie w dwa miejsca równocześnie. Gdy jeden serwer padnie znika możliwość dodawania aż do czasu naprawienia awarii. Tak samo z usuwaniem avatarów i zdjęć. Rozwiązanie proste, ale z wadami. 2. Jakiś NFS, Gluster czy coś podobnego. Nie znam zbytnio tematu, ale obiło mi się o uszy, że bardzo mocno obniża wydajność całej konfiguracji. 3. Może coś innego?
  18. Sesję trzymam również w bazie danych, więc to akurat nie jest problemem. Serwer bazodanowy załóżmy, że nie jest problemem. Załóżmy, że używam PostgreSql z wszelkiej maści replikacjami itp i niespójność nie wchodzi w grę. NFS dopiszę do rozważenia.
  19. Witajcie, Kupiłem wczoraj serwer w ovh z dyskiem ssd i 8GB pamięci ram na serwer bazodanowy. Okazało się dzisiaj, że LOAD nawet nie drgnie, ale coś w pewnym momencie zaczęło przymulać. Okazało się, że wysyciłem łącze 100Mbitów serwera bazy przez wysyłanie danych do serwera (apache+php) aplikacji. Oba serwery stoją w OVH. Teraz się zastanawiam czy przejście na serwer z łączem i switchem 1Gbit rozwiąże mój problem. Czy macie jakieś doświadczenia lub sposoby do zmierzenia potrzebnego na bazę danych łącza? Bartko
  20. Serwer pod bazę danych

    Teraz to takie oczywiste. Dzięki Co do Polski to pewnie, że z chęcią bym miał serwery w Polsce i rozmawiał z kompetentnymi ludźmi. Życzę powodzenia w walce o tanie łącza
  21. Serwer pod bazę danych

    Wewnętrzny transfer nie jest na szczęście liczony. Czy ktoś miał styczność z odzielnym serwerem bazy danych na potrzeby dużego ruchu i nie pisze tylko po to, aby reklamować swój hosting?
  22. Serwer pod bazę danych

    Dokładnie PostgreSQLem. Strona, o której rozmawiamy bywała w top100 domen w Polsce jeszcze parę lat temu. Teraz jest niżej, ale jestem pewny co do 100mbitów. Oglądałem wykresy MRTG i nie mam wątpliwości. Około 10.20 dopiło do 100mbitów i musiałem przepiąć bazę na serwer aplikacji.
×