Skocz do zawartości

Polib

Użytkownicy
  • Zawartość

    9
  • Rejestracja

  • Ostatnio

Posty napisane przez Polib


  1. Znajoma nie opłaciła na następny okres hostingu w home.

    Dostałem od niej dostęp, mogę się zalogować do panelu administracyjnego, ale do ftp już nie, a nawet hasło od nowa ustawiałem na wszelki wypadek.

    Konto jest nieaktywne od kilku dni - da się jeszcze jakoś ściągnąć pliki, bazy z serwera?


  2. Dzięki za odpowiedzi.

    Nie specjalizuję się w pozycjonowaniu, więc ciężko mi było argumentować przeciw firmie, która się tym zajmuje na co dzień.

    Ale wiedząc, że są przekierowania, mod_rewrite, robots.txt itp ta duża ilość pracy mi nie pasowała.

    Nazwę firmy przemilczę, nie lubię obgadywać za plecami.


  3. Nieco inaczej to było.

    Zmieniłem http na na https, zrobiłem mod_rewrite.

    Za dwa dni firma ta informuje, że jest zduplikowany content w google (te same linki z http i https na początku) i że trzeba to "czyścić", co zajmie bardzo dużo czasu.

    Czy rzeczywiście trzeba to czyścić, żeby było z powrotem tylko http i jeśli tak to czy jest to pracochłonne, czy np nie wystarczy w rel=canonical odpowiednie linki podać?

    Może po prostu zostawić https? Gdzieś wyczytałem, ale nie wiem czy tak jest naprawdę: przy https są problemy z referrer, nie widać z jakich słów kluczowych ktoś wchodzi.


  4. Mam taki problem:

    Uruchomiałem na stronie ssl. Mniej roboty było przy wprowadzeniu go na całej stronie, niż przy modyfikacjach specjalnie dla logowania czy zamówienia, ale nie pomyślałem przy tym czy to będzie miało wpływ na pozycjonowanie w google.

    Tak więc dodałem w linkach i w nagłówku https na początku, zmieniłem w mod_rewrite http na https...

    SSL działał 2 dni, bo pozycjonowaniem zajmuje się pewna firma, która teraz podniosła raban, że "został zduplikowany content, jest tego kilka tysięcy linków, trzeba je pousuwać, to dużo pracy, kto za to zapłaci"

    Teraz strona w całości jest znowu na http, https jest tylko tam gdzie trzeba, ale robot google nie ma tam dostępu.

    Szukając informacji na ten temat, wyczytałem że tag <link rel=canonical, przekierowania 301, odpowiednie przygotowanie robots.txt lub <meta robots itp mogą załatwić sprawę http i https globalnie, bez jakiejś ręcznej roboty i bez straty pozycji.

     

    Proszę o poradę, jak rozwiązać taki problem zduplikowanych linków, czy rzeczywiście jest przy tym dużo pracy, czy sam to mogę zrobić?

     

     

×