Skocz do zawartości
  • 0
juvenito

e24cloud.com - Beyond

Pytanie

Leży wiele dużych stron. Poważna awaria.

 

C:\Users\Juvenito>tracert e24cloud.com
Nie można rozpoznać nazwy systemu docelowego e24cloud.com.

 

C:\Users\Juvenito>tracert e-prawnik.pl
Śledzenie trasy do e-prawnik.pl [92.43.118.210]
z maksymalną liczbą 30 przeskoków:
 1	 4 ms	 3 ms	 2 ms  192.168.0.254
 2	10 ms	 7 ms	 3 ms  10.0.0.1
 3	29 ms	26 ms	27 ms  poz-ru2.idsl.tpnet.pl [213.25.2.39]
 4	28 ms	25 ms	25 ms  poz-r2.tpnet.pl [213.25.5.193]
 5	26 ms	26 ms	29 ms  poz-ar1.tpnet.pl [195.117.0.106]
 6	29 ms	28 ms	25 ms  80.50.131.170
 7	35 ms	26 ms	24 ms  ip-91-102-112-138.beyond.pl [91.102.112.138]
 8	 *		*		*	 Upłynął limit czasu żądania.
 9	 *

Udostępnij ten post


Link to postu

189 odpowiedzi na to pytanie

Polecane posty

  • 0

a ja zawsze myslalem, ze chmura ma to do siebie ze nie moze pasc.... cala ...

Udostępnij ten post


Link to postu
  • 0

a ja zawsze myslalem, ze chmura ma to do siebie ze nie moze pasc.... cala ...

 

Mnie też się wydawało że nie trafię bliźniaków ;)

 

Pytanie jak były rozdzielone serwery bo może ktoś zapomniał powiedzieć, że ten sam kabelek 230V zasila całą chmurkę :D

Udostępnij ten post


Link to postu
  • 0

Jednak awaria Beyond to awaria znacznego "kawałka" polskiego internetu, sprawa poważna.

 

@Kulfi, z chmurami to przecież nie takie proste, każdy rozumie chmurę inaczej. Chmury na dobrym sprzęcie i oprogramowaniu są naprawdę odporne, ale nie na każdą możliwy typ usterki. W Polsce nikt nie oferuje dziś chmury rozproszonej na kilka centrów danych, a przed tego rodzaju awarią tylko to mogłoby chronić. Pocieszę Cię, że z doświadczenia naszej ogicomowej chmury (Beyond robi chmurę na sprzęcie niegorszym od naszego, więc redundancję muszą mieć podobną) - 95% awarii Klienci nigdy nie odczuwają, bo są to awarie dysków, zasilaczy, wentylatorów, albo pojedynczego toru zasilania (zawsze są dwa niezależne tory podpięte do redundantnych zasilaczy) lub jednego dostępu operatorskiego. Żadna z wymienionych, najczęściej występujących usterek, nie powoduje przerwy w działaniu usług, bo wszystkie są redundantne. W Beyond musiało się popsuć coś naprawdę kluczowego, skoro nie było zasilania na żadnym z torów, choć czasami wystarczy zwykły pech. Sami popatrzcie: Wystarczy, że na jednym torze są planowane prace, a na drugim dochodzi do awarii w tym samym momencie i już - serwery są pozbawione zasilania. Nie potrzeba katastrofy, aby tak się stało, wystarczy odrobina pecha.

Ciekawe, jaka jest przyczyna w tym wypadku.

 

Dziwi mnie tylko nieco, że tak wielki operator nie ma doskonalszej polityki informacyjnej - na pewno dopracują to sobie po tym incydencie. Aktualnie publikują już na FB jakąkolwiek informację, późno, ale jednak tak. W Ogicom na przykład wrzutka na stronę, zapowiedź na infolinii, informacja na facebooka - to wszystko pojawiło się bardzo szybko, mimo, że akurat Ogicom miał tylko kilkanaście minut niedostępności sieci w związku z tą awarią w Beyond (operatorzy, którzy obsługują Ogicom mają tam swoje ważne węzły).

 

Beyond.pl to dobrze zorganizowane i nowoczesne data center, a jednak się przytrafił im się taki wypadek. Zdarza się każdemu, trzymajmy kciuki, aby już dalej było stabilnie.

Udostępnij ten post


Link to postu
  • 0

Nie licz na szczegółowe dane smile.png

 

Ale się zdziwiłem wink.png

 

W dniu 4 czerwca w godzinach porannych, podczas rutynowych testów sprawności systemów zasilających, wystąpiła kilkuminutowa przerwa w zasilaniu jednej z sekcji zasilających serwerowni Beyond.pl. Datacenter Beyond.pl jako obiekt spełniający wymogi dostępności klasy Tier-4 jest poddawany regularnym przeglądom i próbom instalacji - niektóre z nich testowane są nawet co godzinę, przez 24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku. Niestety awaria dotknęła cześć klientów naszej firmy, co spowodowało problemy w dostępie do ich serwisów. Znamy już przyczynę usterki, przywróciliśmy w pełni sprawność systemów , a w chwili obecnej pracujemy z administratorami systemów naszych klientów, aby potwierdzić poprawność działania wszystkich usług.

 

Dodatkowych informacji udziela

 

Michal Romanowski

PR Manager

m.romanowski@beyond.pl

Tel 607 350 166

 

https://www.facebook...436879303003738

Edytowano przez patrys
Poprawione oświadczenie. (zobacz historię edycji)

Udostępnij ten post


Link to postu
  • 0
Gość patrys

Po co coś bardziej szczegółowego ?

Poszedł prąd, to poszedł prąd, nasze maszyny też zostały odłączone.

Aktualnie wracają ;)

Udostępnij ten post


Link to postu
  • 0

T4: Fault-tolerant site infrastructure with electrical power storage and distribution facilities with expected availability of 99.995%

Udostępnij ten post


Link to postu
  • 0

T4: Fault-tolerant site infrastructure with electrical power storage and distribution facilities with expected availability of 99.995%

Hehehe, to dobre...

Udostępnij ten post


Link to postu
  • 0

Cześć,

Faktycznie mieliśmy problem z zasilaniem. Właśnie przygotowujemy materiał o całej sytuacji. Powinien być gotowy około 15.00. Robimy wszystko aby szczegółowo wyjaśnić przyczyny awarii. Staram się na bieżąco informować o postępach prac na naszym profilu FB: https://www.facebook.com/beyonddatacenter.

Jeśli macie pytania jestem do dyspozycji.

Udostępnij ten post


Link to postu
  • 0

A ja się ciesze ze wykop i kwejk down zaliczyły kilka godzin odpoczynku od wk.. demotów i szalonych wykopalisk.

 

Swoją drogą dopiero by były jęki jak by tpsa padła na kilka godzin

Edytowano przez xDSL (zobacz historię edycji)

Udostępnij ten post


Link to postu
  • 0

A ja się ciesze ze wykop i kwejk down zaliczyły kilka godzin odpoczynku od wk.. demotów i szalonych wykopalisk.

 

Swoją drogą dopiero by były jęki jak by tpsa padła na kilka godzin

 

Raczej byłaby cisza bo by nie mieli jak pisać :P

Głosno by było po naprawie :)

Udostępnij ten post


Link to postu
  • 0
Gość nrm
Drodzy Użytkownicy, w związku z poranną awarią zasilania, uszkodzona została macierz dyskowa i w tej chwili całość jest w drodze do Ontrack-a, gdzie zostaną odzyskane wszystkie dane. Nie żałujemy na to środków i będziemy Was informować na bieżąco o postępach. Prosimy o wyrozumiałość i trzymanie kciuków.

 

I macierz i mirror jadą samochodami do Ontracka, tak żeby mieć pewność odzyskania danych. Z mirrorem też niestety są problemy.

 

ohmy.png

Udostępnij ten post


Link to postu
  • 0

Moje padły wg irca ok godz 7:30 - 7:35:

 

07:36 -!- conra [~conra@ip-178-216-000-000.e24cloud.com] has quit [Ping timeout]

Udostępnij ten post


Link to postu
  • 0

I okazało się co to cloud :)

 

Dostępność 100% takie rzeczy to tyko w erze .

Udostępnij ten post


Link to postu
  • 0

Backupy trzeba robić nie wiadomo co się może stać z produkcyjnym sprzętem/softem. Nie trzeba potem wozić nigdzie. Brak mi sów na tego co projektowa to bez backupa. Szkoda renomy firmy. Nie szkoda clouda mi jako - zawsze to jest przeceniana usluga, marketing sciemy.

Udostępnij ten post


Link to postu
  • 0

Lol, ten filmik to jakaś żenada propagandowa rodem z PRL.

Współczucia dla klientów (że widzą w was takich [tu wstaw obrażenie inteligencji]).

Udostępnij ten post


Link to postu

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się

×