Skocz do zawartości

Ranma_man

Użytkownicy
  • Zawartość

    64
  • Rejestracja

  • Ostatnio

Posty napisane przez Ranma_man


  1. Witam,

     

    Jakie macie doświadczenia w imporcie sprzętu zza granicy (spoza granic Wspólnoty Europejskiej)? Kiedyś coś tam sobie prywatnie na ebayu kupowałem i jakoś nie dowalili mi cła czy też vatu, a teraz chciałbym zakupić sobie parę kostek ramu i procków oem do kilku serwerków. Jaka jest szansa, że służby celne wytropią i oclą towar? Jak powinen być opakowany żeby to ominąć? A przede wszystkim jak to jest z używanym i nowym towarem. Czy jeśli jest to nowy towar, sprzedawany po bardzo niskiej to od jakiej kwoty doliczą cło i vat? Od tej co kupiłem? Od oficjalnej producenta? Będę wdzięczny za wszelkie sugestie.

     

    Pozdrawiam,

    Łukasz


  2. Tylko dziwi mnie to, że w D mam raptem 3MB. Może kompilator dmd jest przystosowany do tworzenia tylko 32 bitowych binarek, a przy pomocy gcc zapewne domyślnie kompiluję pod 64 bity. Mono to jeszcze potrafię zrozumieć, ale w C++ z QT wziąłem tylko parę klas i tyle zajmuje? Muszę sprawdzić jak to wygląda z zależnościami jego kompilacji.


  3. Witam,

     

    Zajmuje się aktualnie pisaniem aplikacji siecowej na cele własne, która będzie chodziła w paru instancjach na serwerze z Centosem 5.3 w wersji 64 bitowej. I wszystko by było ok, gdyby nie zużycie pamięci przez proces. Na wstępie napisałem sobie prościutką aplikację testową z pętlą oraz socketem - w C# i odpaliłem w Mono 2.4.2.1 skompilowanym na podstawie domyślnej konfirugacji. I co się okazało? Że proces na starcie zjada około 100MB ramu. Wywaliłem praktycznie wszystko i to samo, ciągle zjada dużo ramu. Następnie zabrałem sie za przepisanie aplikacji do C++, ale żeby było łatwiej, to wziąłem się za biblioteki non-gui z QT - zużycie ponad 80MB ramu. Miałem już się poddać i zostawić tak jak jest, bo na serwerze mam 8GB ramu, więc 100MB w tą czy tą nie zrobi większej różnicy, ale postanowiłem przetestować jeszcze jedne środowisko programowania. Otóż tym razem padło na fajny ale totalnie niepopularny język kompilowany natywnie o wdzięcznie brzmiącej nazwie "D". Najpierw poszła wersja z biblioteką standardową (phobos) oraz bardziej rozbudowaną (tango). Efekt na starcie - zużycie rzędu 3MB ramu! Niestety nie mam czasu i chęci brać się za C++ ze standardową biblioteką ani za boosta, ale podejrzewam, że wynik byłby podobny. Czy to jest normalne? Może wina leży w gcc, wszak środowisko QT go używa, a i Mono (będące runtimem) zostało w nim skompilowane. Używam wersji z dystrybucji czyli gcc version 4.1.2 20080704 (Red Hat 4.1.2-44). Dodam, że ostatnio skompilowałem sobie apacha tylko i wyłącznie do obsługi SVNa - zajętość każdego procesu to ponad 80MB. Do serwowania stron www używam litespeed web server, gdzie php jest skompilowane razem z ichnim sapi. Sama prekompilowana binarka lsws zjada 3MB, natomiast każdy proces php dla każdego usera (używam suphp) wcina mi 150MB.

     

    Czy to jest normalne? Niestety jestem laikiem jeżeli chodzi o zarządzanie pamięcią w linuksie, tak więc proszę o pomoc kogoś bardziej doświadczonego pod tym względem. :/


  4. Witam,

     

    Jako że jestem kiepski z kodowania znaków w linuksie, to mam parę pytań:

    1) Czy jest możliwości zmiany kodowania znaków np. w takim Centosie z iso na utf-8 bez potrzeby reinstalacji?

    2) Czy też można np. zmienić kodowanie sesji. Załóżmy że otwieram połączenie SSH poprzez putty, tam wybieram translację na utf-8. Po odpaleniu MC widzę krzaki zamiast ramek i z tego wnioskuję, że trzeba by było jeszcze zmienić kodowanie od strony serwera.

     

    Dziękuję za uwagę i proszę o wyczerpujące odpowiedzi. :D


  5. Wydajne aplikacje serwerowe pisane w XX megabajtowym frameworku... Brawo!
    A możesz rozwinąć tę myśl? Chętnie posłucham twoich doświadczeń dot. wydajności, tylko w odnosieniu do czego? No i te rozmiary frameworka itp. ;) Serio piszę, bo nie wiem w sumie do czego pijesz. Może sprecyzuj jakoś kategorię tychże aplikacji serwerowych.

     

    I bardzo fajnie, ze Mono wspiera juz (z mala dawka ironi :P) znaczna czesc .NET 2.0... Szkoda tylko, ze mamy juz .NET 3.0 ;)
    No i co z tego, że jest 3.0? To nie wyścig szczurów i nie muszę zaraz rzucać się na np. takiego WCF (bo i po co), zwłaszcza, że na portowalności mi nie zależy, bo jak już napisałem wcześniej, domyślnie korzystam z mono (i jego bibliotek do uniksów) a nie .net frameworka by ms.

  6. z znajomością C# nie wróże ci jakieś dobrej aplikacji, chyba że ma być to program na desktopa a nie na serwer

    chyba że zdarzy się cud i mono zacznie spierać C# jeszcze w tym roku ;)

     

    Co konkretnie masz na myśli? Bo ja akurat tworzę aplikacje w Mono 1.2 właśnie pod własny linuksowy serwer i wszystko bardzo ładnie chodzi. A to mono nie wspiera C#? Bo ja myślałem, że wspiera i to już znaczną część 2.0, a może chodzi o framework?

     

     

    @gbejs:

    Jak bym z chęcią widział aplikację na zwór takiej:

    http://www.bixdata.com/products

     

    Z tym, że logika tutaj jest podzielona na 3 części:

    klient - wieloplatformowa aplikacja do polaczenia się z jednym z agentow, lub glownym serwerem oraz do konfiguracji monitorowania. Wygodny panelik, regulki ukladane z klockow itd: http://www.bixdata.com/bixdesktop

    agent - pojedynczy host zbierajacy informacje z maszyny: http://www.bixdata.com/bixagent

    serwer - centralny host, ktory ma "pod soba" dowolna ilosc agentow i zbiera od nich informacje: http://www.bixdata.com/bixserver


  7. Jak wygląda kwestia skalowalności baz danych PostgreSQL i MySQL. Nie chodzi mi tu o proste zapytania i średnie użycie, ale naprawdę masa połączeń i dużo danych. Takie ficzery jak procedury wyzwalane, transakcje, triggery czy geometria z opengis są mi niezbędne, a że są już dostępne w MySQL 5.0, to jest dylemat, chociaż tak naprawdę te funkcje są za młode w MySQL, a nie chcę na początku wyskakiwać z kasy na Oracla. Poza tym różne typy tabel w MySQL to różne ficzery, więc jest poważny kłopot...

     

    No i jakimi cechami powinien wykazać się serwer bazodanowy? Na co szczególnie zwrócić uwagę?


  8. Mam 2 pytania dotyczące kwestii wymienionych w tytule:

    1) Jak duży wpływ na wydajność ma pamięć cache l2 procesora? Ostatno pojawiają się nawet ciekawe oferty z procesorami athlon64, no ale rozmiarem pamięci to one nie grzeszą? I jak w ogóle athlony wypadają na tle P4 z HT w zastosowaniach serwerowych?

     

    2) Jak przedstawia się wzrost wydajności po przesiadce na 64 bitową architekturę systemu operacyjnego jak i używanego softu? Zastanawiałem się nad freebsd 6.0 x64 i jestem ciekaw czy jest sens poświęcać czas na jego naukę. Aktualnie mam styk tylko z serwerami z centos'em i386 i zero kłopotów jak na razie w zarządzaniu (domowych testów różnych distro nie wliczam oczywiście).


  9. Jeżeli dobrze zauważyłem, to ten test można wyrzucić do kosza z prostej przyczyny. Skrypty nie były testowane przy solidnym zapełnieniu baz danych. Co mi po testach czystych skryptów i na dodatek strony głównej, skoro może się okazać, że ten najszybszy po jakimś czasie zacznie ostro mulić? Przecież może się okazać, że skrypt, który teraz jest wolny, w miarę rosnącego obciążenia zacznie wyprzedzać inne.

     

    Test powinien oprzeć się na pomiarze w różnych stadiach rozwoju witryny, że tak powiem, aby potem z uzyskanych danych dało się wyrysować wykres, który w przybliżeniu wskazałby ładną krzywą zależności pomiędzy objętością a zużyciem zasobów serwera.

×