Skocz do zawartości

Misiek08

WHT Pro
  • Zawartość

    1148
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    19

Posty napisane przez Misiek08


  1.  

    Odwołując się do twojego posta - albo to nie był telefon z androidem albo po prostu wydaje ci się, że to był szybko działający telefon:)

     

     

    To był Andek i głównie chodzi o to, co wspomniane wyżej - przycinki. No kuźwa żebym na S4 miał sytuację gdzie stockowy launcher potrafi mi zgubić palec i wrócić to poprzedniej pozycji lub przyciąć scrollując ikonki. Żeby pierwsze co na telefonie zamiast zabawy było odinstalowanie pre-instalowanego syfu, instalacja Apex/Nova i ich ustawianie, żeby telefon działał płynnie w menu. 4 rdzenie, 2G RAMu. Na czymś takim, na rPi 2 mam odpalony serwerek w domu z podpiętym dyskiem zewnętrznym i X'ami i mam płynnego kompa + NAS i do tego 1.5-2k req/s na czacie, który sobie w Go strzeliłem.


  2. Nie będzie Ci łatwo znaleźć zaufanej konstrukcji, bo TrueCrypt i inne kontenery z dostępem do źródeł i zweryfikowane przez społeczność to właśnie kontenery.

     

    Co do usługi szyfrowania danych to mam już projekt rozpisany, teraz "tylko" wykonanie. Będzie apka na Andka i aplikacje na Win/Linux i może Mac.


  3.  

    Facepalm...

     

    To raczej tutaj facepalm się przyda.

     

    "Smart"fony miały 1 rdzeń i 256M RAMu i jakoś system działał. Biorę do ręki Note 2 z 4x1.6 + 2G RAM i telefon potrzebuje czasami 20s, żeby wejść do galerii, czy na customowym ROMie nie potrafi wyjść z deep sleepa, bo Samsung postanowił mieć w dupie Note 2 od Andka 4.3.

     

    Fajnie, że korzystamy z zasobów w komputerach, ale zamiast je wykorzystywać robiąc coraz ładniejsze rzeczy to dostajemy syf, które wykorzystuje te zasoby czasami w 105%.


  4. Ja zaproponuję np. tiktalik. Dorzucisz sobie instancję pod pliki i masz za 32zł netto/mies to co potrzebujesz i wolność bo jesteś sam. Wyceniam tutaj 1 instancję z minimalnymi zasobami + 100G dysk i druga 2vCore 2G RAM + 20G dysk. Obydwie po 16zł/mies, transfer jest, a reszta jest nielimitowana. Ew. większa instancja pod stronę i wtedy 48zł/mies to nadal duuuużo poniżej wspomnianego 1000zł/rok.

     

    SLA jest 99.9%, ale w skali miesiąca. O ile mnie matematyka nie zawodzi (a nie mam z nią problemów) w głowie to jest to samo co 99.9% w skali roku, więc propozycja spełnia wszystkie warunki.

     

    Oczywiście tiktalik to przykładowa firma, jakoś mi się skojarzyli z tym 2T transferu.


  5. Ja to tam kombinuję, ale testowałem wersję z LEMP na 1 kontenerze i drugą, gdzie na kontenerze jest php z plikami lub nginx+php z plikami, a przed tym wszystkim nginx + varnish, który rzuca ruch na kontenery.

     

    Narzut niewielki, bezpieczeństwo testowałem z kilkoma grupami i każdy szalał jak chciał, ale tylko w obrębie kontenera. Użyłbym tego produkcyjnie gdybym miał firmę na pewno. Klient chce .htacces? Proszę! Nie chce? Lepiej, sam nginx!

    • Upvote 1

  6. Niewiem czemu, ale ja jakoś nie mogę się przekonać do CloudFlare'a i docker'a - może dlatego że jestem staroświecki i większość środowisk produkcyjnych trzymam jeszcze w starszych wersjach, update'tując sobie ręcznie do najnowszej wersji np. php'a. Pewno z czasem się to zmieni, przynajmniej u mnie.

     

    Mimo wszystko ja też poszukałem swoich rozwiązań aby odseparować i maksymalnie zabezpieczyć strony na nieco niższym poziomie niż docker, zwyczajnie zastosowałem setup RBAC per vhost. Piękne rozwiązanie, idealne na uniwersalną produkcję.

     

    Oczywiście że firmy które już ledwo żyją z shared hostingu i które nie mają pomysłu na siebie w nowej rzeczywistości nie będą za te kilka groszy na rok implementować czegokolwiek poważnego, a szkoda bo to może być pomysł na biznes przy rosnącej liczbie potencjalnych, świadomych klientów.

     

    Fajnie widzieć że od tej strony są ludzie i firmy świadome, potrafiące wprowadzać rozwiązania które działają, takie jak Twoje.

     

    Pozdrawiam serdecznie.

     

    Cloudflare polecam, do nginx'a nie zmuszam, bo od razu kończysz z .htaccess (z którym wszyscy powinni skończyć, bo już czas).

     

    Są ludzie i firmy świadome, ale nie wiem czy u nas. Nie słyszałem o żadnej firmie w Polsce, która używa takiego podejścia. Szkoda, bo narzut jest w sumie niezbyt duży, a bezpieczeństwo (prawie) 100%. Pomijam już kwestie prac modernizacyjnych, gdzie można zamrozić kontener, przenieść na inny serwer i odpalić mając wszystko działające lub nawet odpalając kopię kontenera i po prostu przenosząc ruch (bazy trzymane na innej fizycznej maszynie). Wtedy prace można robić tak, że klienci nie będą mieli więcej downtime'u niż czas kopiowania.

     

    Czekam aż firmy zaczną stosować rozsądne rozwiązania, ale (pomimo iż jestem młody) raczej tego nie dożyję w naszym państwie.

     

    Również pozdrawiam!


  7.  

    Ciekawe kiedy świadomość takiego standardu dotrze do nas.

     

    Dopóki firmy będą polegały na wspomnianym przez Ciebie Apache'u i dawanym przez niego "polu do popisu" to niewiele się zmieni. Apache jest fajny i ma różne opcje, ale już sam napisałeś o systemach plików, które pozwalają rootować procesy(może to złe określenie, ale chyba tak najprościej) w katalogach.

     

    Ja osobiście już dawno pozostawiłem Apache na nieswoich rzeczach i zacząłem oprócz WAFa w Lua używać np. Varnisha z WAFem. Do tego po prostu można podpiąć Cloudflare, które też mają regułki pod popularne CMSy i dość dobrze bronią przed najpopularniejszymi atakami.

     

    Ciekawy jestem ile firm w Polsce w ciągu najbliższych 5-10 lat wrzuci klientów na kontenery (lub odpowiedniki w przyszłości), co gwarantowałoby naprawdę separację. Testowo tworzę środowisko, w którym każda domena siedzi w innym kontenerze na dockerze i jak do tej pory - wydaje się to genialne.

     

    home.pl - nie przyjmujcie tej krytyki zbyt mocno, bo wyciągnąłem wszystkich, których mogłem od Was jakieś pół roku temu i od tamtego czasu nie mam kontaktu z Waszymi usługami, ale klatka dla FTPa != klatka dla WWW i naprawdę nie było problemem dojście do pliku z domeny X na domenie Y.Z. Fajne zabawy, oczywiście w granicach rozsądku, bo nie chciałem potem dostać oskarżenia o włamanie (na własną stronę na szczęście).

     

    Im większa firma tym mniejsze szanse na konkretne zabezpieczenia targetowane w klienta, ale małe firmy też często nie mają na to czasu i pieniędzy, więc ciężko o firmę z WAF'em, klatkami i resztą zabawek.


  8. A co, każdemu wolno wymyślać [złudzenia] ;).

    No jasne!

     

     

    wybór padł na PHP i JavaScript.

    To całkiem niezły wybór, chyba że:

    Nie będąc informatykiem i nie posiadając stosownej wiedzy

    To wtedy będzie problem.

     

    Mam pytanie. Czy postawienie tego na bazach PostgreSQL może się stać w (oby niedalekiej) przyszłości strukturalnym wąskim gardłem, które w przypadku ewentualnego, gwałtownego wzrostu zainteresowania serwisem może zmusić twórców do radykalnej transformacji serwisu i przepisywania jego znacznej części ?

    Jak już wyżej napisane zostało - Postgre jest bardzo fajne do pewnego etapu i na pewno dużo wcześniej zobaczysz, że przestaje dawać radę i będziesz miał czas na reakcję.

     

    A jeśli tak, to należało by wybrać jakąś inną bazę NoSQL? Pewnie przy małej liczbie danych jakie macie o projekcie stawianie pytania „Jaką?” będzie nie na miejscu, ale zaryzykuję i zapytam: jakie inne bazy warto wziąć pod uwagę budując od zera i z minimalnym budżetem serwis z hipotetycznym potencjałem dynamicznego wzrostu?

    Jest mnóstwo ciekawych, od Mongo, przez Couchbase i Aerospike po Redis'a. Na razie o tym nie myśl, bo NoSQL zawiera kruczek, a konkretnie brak relacji. To dla ludzi po studiach w Polsce (moim zdaniem nie ważne czy inżynier czy magister) będzie tragiczne w skutkach, bo "przeca w MSSQLu muwili profesory, że bedom relacji".

     

     

    Na co jeszcze bezwzględnie zwrócić uwagę przy projektowaniu fundamentów takiego serwisu, aby nie obudzić się kiedyś z ręką w metalowym naczyniu stawianym obok dziecinnego lóżka. Tak, tak, kiedyś to były ładne, emaliowane metalowe naczynka.

    Na zaplecze techniczne. Tylko od razu jedna uwaga: NIE IDŹ OD RAZU DO Amagównozona. Zapłacisz 100x tyle co trzeba, a awarie też im się zdarzają.

     

    TOP 5 problemów moim zdaniem: reklama, procesory płatności, serwery, obsługa klienta, monitorowanie pod względem oszustów. Kolejność dowolna na tę chwilę, bo nie znam szczegółów serwisu. Taka piątka pasuje do konkretnego obrazu serwisu, który sobie stworzyłem po Twoim opisie, więc może być zupełnie nietrafiona.

     

     

    Gdzie wśród Polaków znaleźć kogoś, kto może mieć doświadczenie, albo chociaż wiedzę niezbędną przy projektowaniu i budowie dużego, globalnego serwisu?

    Zapraszam na PW, porozmawiamy i określimy, czy wielkość i globalność dam radę z ekipą ogarnąć. Nie jesteśmy firmą, jesteśmy raczej grupą młodych ludzi z dość otwartymi głowami na nową wiedzę i doświadczenia, ale już z konkretnymi doświadczeniami i wiedzą. 2 grafików, 2 programistów (programistów mogę szybko zawołać dodatkowych, ale nie piszę z nimi na co dzień i trzeba by się trochę zaklimatyzować)

     

     

    Dzięki za cierpliwość i ewentalną pomoc.

    Mam nadzieję, że to dopiero początek :) Pomoc to na razie żadna.


  9.  

    Szczerze to niestety home.pl nie stosuje jakiś ciekawych zabezpieczeń pod tym względem. Oddzielne FTP nie ma nic do rzeczy - wszystko systemowo jest jednego użytkownika. Kwestia ustawień np. PHP'a np. open basedir, modułów etc.

     

    No i cóż to za "wirus" miałby tam się dostać, hmm? Jakiś shell czy coś grubszego? Tak na dobrą sprawę to da się zrobić dużo - trust me :)

     

    P.S. Jeżeli da się zrobić po prostu ../domenaX jak powiedział to Misiek08 to już wogóle hardcore :D

     

    Żaden hardcore na takich "hostingach", gdzie bezpieczeństwo jest 2 od końca (pierwsi są klienci). Jeden user systemowy pod FTPa, jeden user pod PHPa i ../ prowadzi tam gdzie chcesz.


  10. Na hostingu dzielonym restarty serwera www są czymś normalnym, czasem mogą zachodzić nawet co kilka minut.

     

    Trochę offtop, ale dlatego właśnie używam się serwera www, a nie np. Apache :) Ja "restartuję" (reloaduję) na 130 maszynach nginx'a jeżeli zaszła taka potrzeba w cron'ie co minutę. Dziennie wychodzi nawet do 200 restartów na każdym serwerze, bo dochodzą nowe regułki do blokowania ataków. Tylko kilka serwerów podaje html'a i json'a, a reszta pliki. Nginx przerzuca 200T+ dziennie w sumie i nic nie zrywa nikomu :)

     

    Do tematu: u mnie też możemy położyć plik, 3G dziennie to nie problem. Do tego pamiętaj, że w tiktalik masz za 8zł/mies serwer, w Aruba za ~4zł/mies. Wtedy jesteś u siebie i nikt Ci nic nie może zabraniać.


  11. Zainstaluj docker'a. Pod każdą stronę 2 kontenery (1 baza, 1 www) i przed nimi postaw np. nginx do kierowania ruchu. Jak zrozumiesz, że to kombajn na 1 kłos to wtedy wróć do tego co mówią wszyscy wyżej.

     

    Co do firm - mają jeden serwer baz danych pod wielu klientów, każdy klient dostaje możliwość edycji i usuwania własnych baz danych, a tworzenie odbywa się za pomocą jakiegoś panelu.

×