Skocz do zawartości

gutek

Użytkownicy
  • Zawartość

    204
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    2

Posty napisane przez gutek


  1. Treść faktury teoretycznie może być dowolna przy usłudze byle byłą zrozumiała. Ja uważam, że warto tj pisali wcześniej podać okres za jaki jest dostęp oraz np. nazwę aplikacji / pakietu / usługi..

     

    Dodałbym jeszcze krotką informację np w uwagach lub stopce do czego służy dana aplikacja (przy okazji reklama) w 2-3 zdaniach aby łatwiej odbiorcy (sekretariat, księgowość, audyt) było pokierować dalej taką fakturę, ja przy współpracy z korporacjami miałem kilka niespodzianek, że kasa wstrzymana, bo nikt nie wiedziała za co faktura i kto zamawiał :)


  2. Ty tak sądzisz i kilka wyżej osób, skoro wolicie siedzieć i oglądać bajki i nie miec nic to wasz problem,

    Skoro wolisz zarobić 2000 , to też wasz problem, idz do pracy czy coś, a nie szukaj jeleni , bo dla mnie ten bot to nie jest tak ważna sprawa by to wykonac a jedynie zachcianka dla własnej potrzeby, acz kolwiek posiadam robota do tej gry, lecz w autoit, a chciałbym w php, z wiadomej przyczyny, a w php akurat nie potrafie zrobić...

    to może zapytam inaczej, podajcie swoją cene,

    a ja wam podam ceny firm, :) a nie sa to osoby siedzące z opuszczonymi gaciami i bawiącym sie fisiorkiem do kreskówki :)

     

    Wyobraź sobie, że wolę siedzieć i oglądać bajki niż siadać do takiego tematu za kilka stówek. Skoro masz wyceny od tych "profesjonalnych firm" to zamów u nich i dupy nie zawracaj..


  3.  

    Może i studia na kierunku Finanse i Rachunkowość ukończyłem już pewien czas temu, przepisy się zmieniają, ale chyba nadal odpowiedzialność jest do wysokości wkładu? :)

    Oczywiście pominąłem w swoim rozważaniu odpowiedzialność jako członka zarządu, ale to musiałby wykazać się niezłą niesubordynacją żeby mieć z tego powodu kłopoty.

    o tym wlaśnie pisałem.


  4. Gdyby miał spółkę zoologiczną z kapitałem 5 tysięcy, to ogłosiłby upadłość i miałby spokój. A tak przy jednoosobowej działalności, przy tej skali smród będzie się długo za nim ciągnął. Nie dość że odpowiada całym swoim majątkiem za zobowiązania swojej firmy (a tutaj istnieje choćby ryzyko odszkodowań), do tego wszystko firmował swoim nazwiskiem. Jedyne co teraz może zrobić to studium przypadku na własnym przykładzie jak nie postępować w sytuacjach kryzysowych :) W końcu to jest PRowiec pełną gębą, a chyba po tym nikt go nie będzie chciał zatrudnić w zawodzie :)

    chyba nie masz pojęcia o odpowiedzialności w spółkach zoologicznych..


  5. Ciekawe rzeczy prawisz. Mamy ok 1100 klientów na radiu i ich liczba rośnie. A mamy też zawodowych graczy w sieci.

     

    Ja miałem internet radiowy w kilku lokalizacjach i muszę przyznać, że wiecznie coś było nie tak, mimo że operatorów tego internetu było 3.. Według mnie wielu albo stawia na kiepski sprzęt i support oraz podejście "u nas działa" albo się nie zna i dlatego wszystko się krzaczy.. Być może u Ciebie jest jak trzeba co nie znaczy że u innych będzie równie dobrze..

     

    Po wszystkich doświadczeniach uważam, że najlepszy póki co internet to miałem i mam od TP / ORANGE..


  6. Niusik, ale na prywatnym FB właściciela.

     

     

    https://www.facebook.com/bartek.juszczyk/posts/10208555589863296

     

    Kolejna część pierd....nia o niczym.. Pozytywnym bohaterem tej historii to on raczej nie będzie a mam wrażenie jakoby się w takiego obecnie wcielił a według mnie jeszcze czymś zabłyśnie na dniach np. brak możliwości uregulowania kolejnych faktur, no bo jak skoro Klienci nie płaca itp.


  7. Jak masz jakies pytania co do SDC to wal śmiało, na Twoje wymagania box 3 w raidzie 10 (6 TB więc).

     

    Ewentualnie jakbyś chciał konfigurację indywidualną to info@sprintdatacenter.pl

     

    ;-)

     

     

     

    Ja polecam SDC i ich BOXy, sam mam kilka sprawują się bardzo dobrze. A jak potrzebujesz indywidualną ofertę to pisz do nich, napewno dopasują serwer do potrzeb.


  8. według mnie szukaj "klientów" gotowych zapłacić nawet skromne pieniądze za Twój produkt, to napewno dużo lepsze niż oddawanie inwestorowi znaczącej części zysku.

     

    sam jestem na podobnym etapie tyle, przerobiłem scenariusz jak może być dzięki wsparciu finansowym od inwestora i doszedłem do wniosku, że nie wiele to zmieni poza mocniejszym startem.. a ten mocny start nie zawsze jest konieczny..

     

    tak z ciekawości podeślij na pw tak z grubszą co to:)


  9. na administracji mysql to ja się znam, rozumiem blokady itp ale w przypadku blokowania tabeli mam na myśli np polecenie optimize table, wykonaj takie polecenie dla tabeli o rozmiarze np 50g lub większej.. tylko dla tego to podzieiłem, by łatwiej odzyskiwać miejsce na dysku, bo regularnie są kasowane dane w sporej ilości, indeks również gdy nie mieści się w ramie to kiepsko. mongo mnie interesowało głównie ze względu na prosty sharding, wówczas sklejam kilka serwerów z jedną kolekcją i mam najlepsze z rozwiązań w jednej tabeli, gdzie nie boli mnie ram, cpu i dysk.. w mysqlu za sharding odpowiada aplikacja która sama dzieli dane wg kryteriów co ma swoje plusy i minusy ale po wykonanych testach i pracy przez 3 lata sprawdza się dużo lepiej.


  10.  

    Nigdy nie powinno być czegoś takiego, w skrajnym przypadku ultra dużych danych możesz przeznaczyć oddzielną tabelę do tymczasowego zapisywania kluczy głównych wierszy, którymi jesteś zainteresowany, i potem z nich robić where. Dzieląc dane na kilka tabel łamiesz co najmniej kilka postaci normalnych i prowadzisz do degradacji wydajności. MySQL wie lepiej jak sobie radzić z dużą ilością danych, zadaniem administratora jest odpowiedni dobór indeksów pod najczęściej wykonywane zapytania, oraz niwelowanie złych zapytań takich jak joiny na innych polach niż te indeksowane.

     

    W przypadku gdy miałem w jednej tabeli 500 mln wierszy i 1 tabela zajmowała około 300 gb wydajność była "średnia", a wyobraź sobie optymalizację 1 tabeli, wówczas blokuje na sporą część dnia a może i dłużej całą tabelę.. W sytuacji kiedy podzieliłem dane na kilka tabel mam kilka korzyści:

    1) indeks mieści się w ramie (indeks pojedynczej tabeli)

    2) w przypadku optymalizacji tabeli blokuje tylko konkretną tabelę i w tym czasie aplikacja z niej nie korzysta ale system pracuje dalej

    3) zwiększyłem dzięki temu wydajność widać to po statystykach zapytań.

     

    Do samego Mongo też nie jestem przekonany ale martwi mnie przyrost danych, mongo lepiej poradzi sobie z shardingiem niż mysql, które wg mnie wogóle sobie nie radzi:) cały podział danych na serwery realizuje aplikacja.

     

    PS. Odnosząc się do polecanych percona, mariadb czy innych ja na działanie (prędkość, jakość) oryginalnego mysql nie narzekam, z wydajności jestem zadowolony


  11. Wybrałem mongo ze wzgledu na jego "prostą" obsługę, właśnie testuje różne warianty żeby przekonać się samemu co i jak przy ilości 0,5T danych..

     

    Póki co daje mi do myślenia pewien przykład rozwiązania struktury pomiędzy mysql a mongo tzn w mysql muszę zastosować pewien podziała danych na odrębne tabele ze względu na ich ilość i specyfikę, a w mongo przerobiłem schemat bazy i np. w kolekcji mam połączone wiele tabel na zasadzie to co było w różnych tabelach i dotyczyło konkretnego elementu teraz stanowi w mongo jego poddokument (child), dzięki czemu niby powinno być mniej indeksów i teoretycznie mniej zajętej przestrzeni, bo korzystam do wyszukania z indeksu dla dokumentu po czym przeglądam wg potrzeb jego poddokumenty (tu mam dodane dane z różnych tabel) itp, Obecnie wgrywają się dane, ciekaw jestem wydajności dla takiego rozwiązania.. Nie zawsze potrzebuje pobierać poddokumenty i tu mnie ciekawi jak będzie z prędkością i co w przypadku przeszukania tylko poddokumentów po konkretnym polu dla np. 500 mln wartości tak aby wyświetlić dokumenty (parent)..


  12. Obecnie korzystam z mysql i póki co jest mi dobrze (sharding po stronie aplikacji) ale chciałbym sprawdzić jak może wyglądać praca na bazie nosql dla tego samego projektu i mam kilka pytań na które albo znalazłem odpowiedź nie koniecznie mnie zadowalającą (mało konkretną) albo jej nie znalazłem w sieci.

     

    Pytania będą za chwilę najpierw chciałbym opisać sytuację:

    - mam na kilku serwerach bazy danych o łącznej pojemności około 1,5 TB tj napisałem sharding mysql jest po stronie aplikacji która odpowiednio rozdziela dane po między serwerami.

    - select i insert śmigają bez problemu ale przy kasowaniu większej ilości danych bez optymalizacji tabeli nie mogę odzyskać powierzchni na dysku a przy tabelach np. 20 gb optymalizacja to problem, nie mam partycjonowania tabel bo sporo mnie kosztuje rozmiar indeksu unikalnego który musiałby objąć więcej kolumn dla poprawnego partycjonowania.

    - sam sprzęt nie stanowi problemu

     

    Z mongo bawię się ale na mniejszych rozmiarach tzn kilka gb łącznie i trudno mi wyciągnąć odpowiednie wnioski tym bardziej, że sporo czasu zajmuje mi obecna praca więc mongo jest bardziej dorywczo w wolnych chwilach a uzupełnienie mongo danymi żeby zrobić odpowiednie testy może zająć sporo czasu..

     

    Jakie mam wątpliwości co do mongo:

    1) jak się zachowuje pojedyncza instancja w przypadku skasowania większej liczby danych czy rozmiar na dysku zostaje zwolniony bez dodatkowych czasochłonnych operacji ? Jak to będzie w przypadku shardingu, gdy kasujemy sporo danych?

    2) czy przy rozmiarze kolekcji np 20 gb można szybko wykonać dobry backup? (pomijamy replikację póki co)

    3) czy ktoś z Was ma sharding bez replikacji ? co w przypadku awarii instancji z pozostałymi danymi na innych instancjach, mam aplikację która może sobie pozwolić na wyłączenie (awarię) np pojedynczej instancji o ile jest możliwe przywrócenie danych dla konkretnego uszkodzonego elementu shardingu

    4) czy ważna jest kolejność np. wyłączania serwerów, które wchodzą w skład shardingu ?

    5) w mysql mam w wielu wierszach puste komórki (kolumny muszą być dla wybranych wierszy uzupełnione) wg tego co czytałem to mongo dzięki temu że nie ma określonej struktury może zaoszczędzić sporo miejsca (dysk, ram) bo tych komórek po prostu nie będzie, czy tak ?

    6) jak szybko może wykonać się odtworzenie backupu kolekcji np. o rozmiarze 20 gb ?

     

    Byłbym wdzięczny za odpowiedź osób które mają doświadczenie z mongo ale o większych rozmiarach :) muszę znaleźć dobre rozwiązanie, bo oczekuje w tym roku podwojenia ilości danych :(

×