Dziennik Przedsiebiorcy

Publikacja 23.05.2016

KW_TAGS

Kilka słów o dodawaniu stron do Google

Najpierw szybka odpowiedź na pytanie jak dodać stronę do Google (jeśli wiesz, to możesz po prostu przejść do kolejnego akapitu). Jeśli strona powstaje na zupełnie nowej domenie, to teoretycznie Google'owi może zająć trochę czasu zanim ją zauważy. Dlatego trzeba pomóc robotom crawlującym sieć (przeczesującym internet i gromadzącym dane na temat stron i linków), aby mogły na wskazaną stronę łatwiej trafić. Roboty poruszają się od linku do linku, więc jednym ze sposobów jest po prostu podlinkowanie strony w popularnym serwisie. Można założyć profil na Facebooku lub Twitterze, dodać link w informacjach o koncie i Google powinien go szybko załapać. Można też się odezwać do Google bezpośrednio. W tym celu należy stworzyć konto na Google Search Console (to darmowa, ogólnodostępna usługa) i zweryfikować stronę zgodnie z instrukcjami. Jeśli serwis jest duży to warto dodać także mapę strony w formacie XML. Mając konto Google można też po prostu wejść na odpowiednią podstronę (znajdziecie ją w wyszukiwarce wpisując np. "Submit URL Google index") i tam podać adres URL.

Co zrobić, aby Google nie miało dostępu do strony

Czasem zdarza się i tak, że nie chcemy, aby strona znajdowała się w indeksie Google i pokazywała w wynikach wyszukiwania. Może tak być jeśli tworzymy dopiero dany serwis i nie chcemy aby pojawiał się w wynikach wyszukiwania w wersji roboczej. To może po prostu zaszkodzić marce.

Jak już zostało wspomniane, Google indeksuje zasoby internetowe za pomocą robotów - specjalnych programów, które analizują zasoby sieci i dodają je do swojej bazy. Webmasterzy maja do dyspozycji narzędzia, dzięki którym mogą porozumiewać się z robotami. Jednym z podstawowych narzędzi jest plik robots.txt - prosty plik tekstowy umieszczany w głównym katalogu domeny. Zazwyczaj mieści się pod adresem domena.pl/robots.txt. W pliku tym możemy dać robotom precyzyjne wytyczne co do poruszania się w obrębie serwisu i zapamiętywania poszczególnych zasobów. Za pomocą prostej komendy noindex możemy powiedzieć botom, aby nie dodawały strony do swojego indeksu. Jednak nie jest to metoda w 100% skuteczna i zdarzają się sytuacje, w których boty jednak indeksują zasoby. Informajce w pliku robots.txt są jedynie wytycznymi dla botów i mogą zostać zignorowane.

Aby zminimalizować ryzyko, że strona zostanie zaindeksowana można także w sekcji head dodać specjalny meta tag. Jego składnia jest dość prosta: . Musimy tylko wybrać jaką dyrektywę wpiszemy w parametrze content. Jeśli nie chcemy, aby googleboty poruszały się po naszej witrynie i gromadziły informacje o jej zasobach należy wpisać "noindex,nofollow".

W przypadku WordPress jest łatwiej

Jeśli stawiana strona bazuje na WordPress (lub innym CMS ze stosowną funkcją), to nie musimy się bawić w specjalne wytyczne dla robotów za pomocą pliku robots.txt lub meta tagów (przynajmniej nie bezpośrednio). Wystarczy przejść do sekcji Ustawienia > Czytanie > Widoczność dla wyszukiwarek i odhaczyć opcję "Proś wyszukiwarki o nieindeksowanie tej witryny".

Koniec końców stosowny zapis jest umieszczany w kodzie strony, ale użytkownik nie musi w ogóle zajmować się jego edycją. Jest to charakterystyczne dla WordPressa, który z założenia ma być prosty w obsłudze dla osób, które nie zajmują się programowaniem i tworzeniem stron.

Pamiętaj o zmianach przy publikacji

Należy jednak pamiętać, aby potem uruchamiając stronę usunąć owe zapisy. Jeśli w robots.txt nie będzie blokady dla robotów, a będzie w meta tagu, to w dalszym ciągu googleboty mogą omijać serwis. Jest to szczególnie ważne, jeśli domena była już dostępna w Google, pozyskuje ruch, a my chcemy wrzucić na produkcję wcześniej przygotowaną (zablokowaną przed robotami) wersję developerską. Jeśli nadpiszemy stronę z elementami blokującymi roboty (meta tag lub w pliku robots.txt), to może dojść do wyindeksowania wszystkich URL obecnych w wyszukiwarce, przynoszących ruch i być może generujących sprzedaż witrynie. Oczywiście, gdy taka sytuacja się wydarzy, to można to "odkręcić", ale dla witryn komercyjnych to zawsze parę dni straty z biznesie, a dla stron stricte e-commerce straty mogą być bardzo poważne.

Materiał powstał przy współpracy z firmą takaoto.pro oferującą konsulting marketingowy, audyty SEO, badania użyteczności oraz usługi z zakresu inbound marketingu (content, social, SEO).

 
Takaoto.pro
 

Dołącz do dyskusji

Kod antyspamowy
Odśwież

FacebookGoogle Bookmarks

Czytaj również

Jak zablokować stronę przed indeksowaniem w Google

Bardzo często administratorzy i webmasterzy pytają, jak dodać stronę do Google lub jak zablokować stronę przed robotami Google - na przykład, gdy strona...

Jak zabezpieczyć firmową stronę www przed atakiem hakerów

Istnieje jednak kilka podstawowych rzeczy, które można i należy wykonać, aby zabezpieczyć firmową stronę internetową przed nieautoryzowanym dostępem i...

Dla kogo ERP - jakie cele, jakie korzyści z oprogramowania?

W firmach produkcyjnych, handlowych czy usługowych na co dzień korzysta się z różnych programów wspomagających wykonywanie obowiązków

Czy stać Cię na utratę danych? Sprawdź jak się zabezpieczyć

Możemy sami w pewnym stopniu zabezpieczyć się przed skutkami takich awarii, a co najmniej mamy możliwość zmniejszenia negatywnych oddźwięków utraty danych

Wyszukiwanie w google - tips and tricks

Google – zaawansowane funkcje wyszukiwania

Google, najpopularniejsza wyszukiwarka świata działająca na nie ujawnionych do tej pory skryptach posiada kilka przydatnych funkcji, które mogą pomóc w...

Cloud computing - zalety i wady oprogramowania "w chmurze"

Oprogramowanie w chmurze, czyli z angielskiego cloud computing jest szybko rozwijającym się rodzajem oferowanych usług IT

Bezpieczeństwo danych technologicznych

Bezpieczeństwo danych w firmach: jak ochronić dane w formie...

Zgodnie z art. 32 RODO każda organizacja powinna oszacowywać ryzyko naruszenia praw lub wolności osób fizycznych o różnym prawdopodobieństwie...

Wirtualny faks - rozwiązanie na miarę XXI wieku

Brak ciężkich i zajmujących miejsce urządzeń i szybki, łatwy dostęp do nagranych wiadomości z każdego miejsca na świecie - to zalety wirtualnego faxu.