Skocz do zawartości
Polib

http vs https duplicate content

Polecane posty

Mam taki problem:

Uruchomiałem na stronie ssl. Mniej roboty było przy wprowadzeniu go na całej stronie, niż przy modyfikacjach specjalnie dla logowania czy zamówienia, ale nie pomyślałem przy tym czy to będzie miało wpływ na pozycjonowanie w google.

Tak więc dodałem w linkach i w nagłówku https na początku, zmieniłem w mod_rewrite http na https...

SSL działał 2 dni, bo pozycjonowaniem zajmuje się pewna firma, która teraz podniosła raban, że "został zduplikowany content, jest tego kilka tysięcy linków, trzeba je pousuwać, to dużo pracy, kto za to zapłaci"

Teraz strona w całości jest znowu na http, https jest tylko tam gdzie trzeba, ale robot google nie ma tam dostępu.

Szukając informacji na ten temat, wyczytałem że tag <link rel=canonical, przekierowania 301, odpowiednie przygotowanie robots.txt lub <meta robots itp mogą załatwić sprawę http i https globalnie, bez jakiejś ręcznej roboty i bez straty pozycji.

 

Proszę o poradę, jak rozwiązać taki problem zduplikowanych linków, czy rzeczywiście jest przy tym dużo pracy, czy sam to mogę zrobić?

 

 

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zmień firmę pozycjonującą ;)

Rozumiem że wcześniej miałeś stronę pod adresem http://www.domena.pl/ i zmieniłeś sobie na https://www.domena.pl/ ?
Jeśli tak to wystarczy tylko dodać przekierowanie w htaccessie i to wszystko.

RewriteCond %{HTTPS} =off 
RewriteRule ^(.*)$ https://www.domena.pl/$1 [R=301,L]

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Nieco inaczej to było.

Zmieniłem http na na https, zrobiłem mod_rewrite.

Za dwa dni firma ta informuje, że jest zduplikowany content w google (te same linki z http i https na początku) i że trzeba to "czyścić", co zajmie bardzo dużo czasu.

Czy rzeczywiście trzeba to czyścić, żeby było z powrotem tylko http i jeśli tak to czy jest to pracochłonne, czy np nie wystarczy w rel=canonical odpowiednie linki podać?

Może po prostu zostawić https? Gdzieś wyczytałem, ale nie wiem czy tak jest naprawdę: przy https są problemy z referrer, nie widać z jakich słów kluczowych ktoś wchodzi.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jeśli ustawisz przekierowanie z http na https to nie będziesz miał duplikatów. Stare adresy będą jeszcze przez pewien czas w indeksie ale po pewnym czasie zmienią się na nowe, z przedrostkiem https.

 

Co do referrer - masz na myśli dane w Google Analytics? Sprawa wygląda trochę inaczej - nie zobaczysz tam z jakich wyników wyszukiwania ktoś wszedł na Twoją stronę ponieważ sama wyszukiwarka jest już tylko dostępna przez https - to czy masz u siebie http czy https nie ma na to wpływu. Poza tym pamiętaj że Google to korporacja i na czymś musi zarabiać - dlatego też jeśli masz wykupioną kampanię Adwords, w GA zobaczysz z jakich płatnych reklam ktoś wszedł na Twoją stronę ;) Więcej informacji tutaj - http://searchenginewatch.com/article/2296351/Goodbye-Keyword-Data-Google-Moves-Entirely-to-Secure-Search

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dzięki za przydatne informacje, może ktoś jeszcze coś napisze?

Gdy chodzi o kasę to im więcej argumentów tym lepiej :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Moim zdaniem:

 

Jeśli chcesz mieć stronę dostępną tylko w jednej wersji - wystarczy HTTP 301.

Jeśli chcesz mieć stronę dostępną w obydwu wersjach - rel=canonical wskazujący tę preferowaną.

Jeśli jakiś tymczasowy bałagan w wynikach wyszukiwania już jest (to normalne przy wszelakich zmianach struktury linków), to przy zastosowaniu jednego czy drugiego z biegiem czasu wszystko "się samo posprząta" (nawet jeśli gdzieś istnieją "stare" linki, to wszystko przejdzie na "nowe", po to jest 301 czy rel=canonical właśnie).

A firma pozycjonująca...

 

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Raczej firma pozycjonująca ma Cie za jelenia ;) albo nie mają doświadczenia i pierwszy raz z takim problemem się zmagają LOL !!!

 

Podaj jaka firma z ciekawości ?

 

To jest standardowe zachowanie algorytmów/skryptów G, nie ma co się przejmować wróci to do porządku w kilka dni ...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Miałem kiedyś taki problem po wprowadzeniu SSL z tym, że w moim przypadku strona miała działać z SSL i bez.

W nginx zrobiłem tak, że jak robot wchodził po ssl dostawał plik robots.txt z regułką by nie indeksował strony. Po paru dniach duplikaty zniknęły same.

Nie rozumiem dlaczego piszą, że to dużo pracy, skoro to się dzieje samo jak się dobrze skonfiguruje stronę.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dzięki za odpowiedzi.

Nie specjalizuję się w pozycjonowaniu, więc ciężko mi było argumentować przeciw firmie, która się tym zajmuje na co dzień.

Ale wiedząc, że są przekierowania, mod_rewrite, robots.txt itp ta duża ilość pracy mi nie pasowała.

Nazwę firmy przemilczę, nie lubię obgadywać za plecami.

Edytowano przez Polib (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dobrze, że masz chociaż jakąś wiedzę i możesz zareagować. Bo niektóre firmy robią ze swoich klientów takich idiotów, że to szkoda gadać... i niestety często uchodzi im to płazem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dobrze, że masz chociaż jakąś wiedzę i możesz zareagować. Bo niektóre firmy robią ze swoich klientów takich idiotów, że to szkoda gadać... i niestety często uchodzi im to płazem.

 

Wszystko ma dwie strony medalu. Nigdy Ci sie nie zdarzylo, ze klient chcial zrobic z Ciebie idiote, mowiac np, ze inna firma pozycjonerska zagwarantuje top1 w tydzien czasu?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się


×