Dziennik Przedsiebiorcy

Publikacja 23.05.2016

KW_TAGS

Kilka słów o dodawaniu stron do Google

Najpierw szybka odpowiedź na pytanie jak dodać stronę do Google (jeśli wiesz, to możesz po prostu przejść do kolejnego akapitu). Jeśli strona powstaje na zupełnie nowej domenie, to teoretycznie Google'owi może zająć trochę czasu zanim ją zauważy. Dlatego trzeba pomóc robotom crawlującym sieć (przeczesującym internet i gromadzącym dane na temat stron i linków), aby mogły na wskazaną stronę łatwiej trafić. Roboty poruszają się od linku do linku, więc jednym ze sposobów jest po prostu podlinkowanie strony w popularnym serwisie. Można założyć profil na Facebooku lub Twitterze, dodać link w informacjach o koncie i Google powinien go szybko załapać. Można też się odezwać do Google bezpośrednio. W tym celu należy stworzyć konto na Google Search Console (to darmowa, ogólnodostępna usługa) i zweryfikować stronę zgodnie z instrukcjami. Jeśli serwis jest duży to warto dodać także mapę strony w formacie XML. Mając konto Google można też po prostu wejść na odpowiednią podstronę (znajdziecie ją w wyszukiwarce wpisując np. "Submit URL Google index") i tam podać adres URL.

Co zrobić, aby Google nie miało dostępu do strony

Czasem zdarza się i tak, że nie chcemy, aby strona znajdowała się w indeksie Google i pokazywała w wynikach wyszukiwania. Może tak być jeśli tworzymy dopiero dany serwis i nie chcemy aby pojawiał się w wynikach wyszukiwania w wersji roboczej. To może po prostu zaszkodzić marce.

Jak już zostało wspomniane, Google indeksuje zasoby internetowe za pomocą robotów - specjalnych programów, które analizują zasoby sieci i dodają je do swojej bazy. Webmasterzy maja do dyspozycji narzędzia, dzięki którym mogą porozumiewać się z robotami. Jednym z podstawowych narzędzi jest plik robots.txt - prosty plik tekstowy umieszczany w głównym katalogu domeny. Zazwyczaj mieści się pod adresem domena.pl/robots.txt. W pliku tym możemy dać robotom precyzyjne wytyczne co do poruszania się w obrębie serwisu i zapamiętywania poszczególnych zasobów. Za pomocą prostej komendy noindex możemy powiedzieć botom, aby nie dodawały strony do swojego indeksu. Jednak nie jest to metoda w 100% skuteczna i zdarzają się sytuacje, w których boty jednak indeksują zasoby. Informajce w pliku robots.txt są jedynie wytycznymi dla botów i mogą zostać zignorowane.

Aby zminimalizować ryzyko, że strona zostanie zaindeksowana można także w sekcji head dodać specjalny meta tag. Jego składnia jest dość prosta: . Musimy tylko wybrać jaką dyrektywę wpiszemy w parametrze content. Jeśli nie chcemy, aby googleboty poruszały się po naszej witrynie i gromadziły informacje o jej zasobach należy wpisać "noindex,nofollow".

W przypadku WordPress jest łatwiej

Jeśli stawiana strona bazuje na WordPress (lub innym CMS ze stosowną funkcją), to nie musimy się bawić w specjalne wytyczne dla robotów za pomocą pliku robots.txt lub meta tagów (przynajmniej nie bezpośrednio). Wystarczy przejść do sekcji Ustawienia > Czytanie > Widoczność dla wyszukiwarek i odhaczyć opcję "Proś wyszukiwarki o nieindeksowanie tej witryny".

Koniec końców stosowny zapis jest umieszczany w kodzie strony, ale użytkownik nie musi w ogóle zajmować się jego edycją. Jest to charakterystyczne dla WordPressa, który z założenia ma być prosty w obsłudze dla osób, które nie zajmują się programowaniem i tworzeniem stron.

Pamiętaj o zmianach przy publikacji

Należy jednak pamiętać, aby potem uruchamiając stronę usunąć owe zapisy. Jeśli w robots.txt nie będzie blokady dla robotów, a będzie w meta tagu, to w dalszym ciągu googleboty mogą omijać serwis. Jest to szczególnie ważne, jeśli domena była już dostępna w Google, pozyskuje ruch, a my chcemy wrzucić na produkcję wcześniej przygotowaną (zablokowaną przed robotami) wersję developerską. Jeśli nadpiszemy stronę z elementami blokującymi roboty (meta tag lub w pliku robots.txt), to może dojść do wyindeksowania wszystkich URL obecnych w wyszukiwarce, przynoszących ruch i być może generujących sprzedaż witrynie. Oczywiście, gdy taka sytuacja się wydarzy, to można to "odkręcić", ale dla witryn komercyjnych to zawsze parę dni straty z biznesie, a dla stron stricte e-commerce straty mogą być bardzo poważne.

Materiał powstał przy współpracy z firmą takaoto.pro oferującą konsulting marketingowy, audyty SEO, badania użyteczności oraz usługi z zakresu inbound marketingu (content, social, SEO).

 
Takaoto.pro
 

Dołącz do dyskusji

Kod antyspamowy
Odśwież

FacebookGoogle Bookmarks

Czytaj również

Bezpieczne korzystanie z Google Chrome - wystarczy kilka kroków

Jeśli korzystamy z komputera i przeglądarki Google Chrome, do której dostęp ma więcej użytkowników, to warto zabezpieczyć naszą aktywność.

Certyfikat SSL - bezpieczny protokół zwiększy pozycjonowanie?

Po zmianach algorytmu Google będzie promował strony działające w oparciu o bezpieczny protokół HTTPS. Jakie będą konsekwencje tych zmian dla...

Sygnały, które mogą świadczyć o naruszeniu bezpieczeństwa firmy

Analizy pokazują, że w większości organizacji brakuje przekonania o skuteczności posiadanych rozwiązań pozwalających wykrywać i zapobiegać działaniom...

7 grzechów głównych systemów backupu

System backupu w przedsiębiorstwie cały czas pozostaje tematem, który często pomija się w planach rozwojowych, a jeśli już się w nich pojawia to w...

Jak zabezpieczyć firmową stronę www przed atakiem hakerów

Istnieje jednak kilka podstawowych rzeczy, które można i należy wykonać, aby zabezpieczyć firmową stronę internetową przed nieautoryzowanym dostępem i...

Jak zaoszczędzić na biznesie w e-biznesie?

Oszczędzamy niemal na wszystkim, jak nie pogubić się w tym gąszczu i wybrać to, co dla początkującego biznesu będzie najlepsze?

Wynajem oprogramowania - czy to się opłaca?

Umiejętność wprowadzania innowacji i szybka adaptacja do zmian często decydują o konkurencyjności firm i ich przyszłych sukcesach.

Oprogramowanie do zarządzania produkcją

Inwestycja w oprogramowanie do zarządzania produkcją, a dokładnie w zintegrowany system ERP, może się udać jeśli zostanie spełnionych kilka ważnych...