Podejście do BIG DATA przy indeksowaniu stron internetowych
Obecnie
nasza cywilizacja budowana jest na informacjach przekazywanych głównie za
pomocą Internetu. Internet jest systemem połączeń sieciowych między serwerami,
komputerami, które posiadają swój indywidualny adres. Udostępnione dane,
przechowywane na dyskach serwerów internetowych, stanowią olbrzymi zasób
danych, które bez odpowiedniego oznaczenia, wskazania ścieżki dostępu,
drogowskazu do nich, pozostają informacjami niepublicznymi.
Internet
w liczbach:
- codziennie użytkownicy wyszukują w Google miliardy haseł,
- od 2003 r. Google odpowiedział na 450 miliardów nowych, unikalnych zapytań – takich, które pojawiły się pierwszy raz;
- każdego dnia 16% wyszukiwani jest nowych;
- zanim otrzymujemy odpowiedź od Google, wyszukiwane hasło przebywa średnio 2400 km (trafiając po drodze do różnych centrów danych na całym świecie) z prędkością zbliżoną do prędkości światła – setek milionów kilometrów na godzinę
Wyszukiwarki
internetowe mają za zadanie odnaleźć opublikowane treści oraz wyświetlenie ich
w wynikach wyszukiwania potencjalnych zapytań. Olbrzymi zasób danych, z jakim
muszą się uporać przeglądarki internetowe to ponad bilion obiektów obliczonych
na wielkość ponad 100 milionów gigabajtów. Przy tak dużym zasobie informacji do
przetworzenia wymagane jest wykorzystanie najnowocześniejszych technologii
analizy danych. Giganci na rynku wyszukiwarek tacy jak Google, Yahoo, Bing
korzystają z Big Data, wprowadzając coraz to nowsze usługi związane z
technologią analizy zachowań miliardów ludzi, aby zrozumieć czego dokładnie
szukają. Wielu użytkowników Internetu nie zdaje sobie sprawy, że ich zachowania
w Internecie są przedmiotem ciągłej analizy. Analizie podlegają m.in.:
wyszukiwanie treści, czas spędzony na jednej stronie, ilość powtórzeń odwiedzania
poszczególnych stron, realizacja dojścia do celu opracowanego przez twórców
witryn. Ponadto analizowane są informacje o odbiorcach treści takie jak: dane
demograficzne (przedział wiekowy, płeć), zainteresowania (np. sport, komputery,
gotowanie, podróże), posługiwanie się wybranym językiem, lokalizacja (kraj,
miejscowość, kontynent, subkontynent). Zbieranie informacji o odbiorcach
umożliwia stworzenie usługi tworzenia płatnych kampanii reklamowych, których
odbiorcami jest przeanalizowana grupa docelowa odbiorców. Przedmiotem analizy
technologii analitycznych w Internecie jest również wybór przeglądarki
internetowej przez odbiorców. Zbierane są informacje o dostawcach połączeń z
Internetem poszczególnych użytkowników. Również istotne są obserwacje na temat wykorzystanego
typu urządzenia do przeglądania treści - na podstawie tych obserwacji można
stwierdzić, że urządzenia mobile cieszą się aktualnie największą popularnością,
dlatego kluczowe jest, aby witryny internetowe były dostosowane do przeglądania
treści na urządzeniach o różnych rozmiarach ekranu.
Przetwarzanie
wyżej wymienionych danych jest dla gigantów internetowych bardzo wartościowe.
Zdobywając wiedzę o zachowaniach odbiorców, ich zainteresowaniach giganci
internetowi mają świadomość o oczekiwaniach odbiorców, a dzięki temu mają
możliwość je zaspokoić. Zaspokojenie oczekiwań odbiorców nastąpi z chwilą
odnalezienia pożądanych treści na zadane przez użytkownika Internetu pytanie.
Aby odnalezienie pożądanych treści przez użytkownika Internetu było możliwe
muszą być spełnione dwa warunki:
- użytkownik powinien właściwie sformułować zapytanie poprzez zastosowanie odpowiednich słów kluczowych
- Wyszukiwarka internetowa powinna wyświetlić zindeksowaną stronę uwzględniającą pożądane przez użytkownika Internetu treści
Powyższy
drugi warunek jest trudniejszy do spełnienia, ponieważ jest zależny od twórców
witryn internetowych, którzy nie zawsze wiedzą jak zaprojektować stronę aby
była zgodna z upodobaniami oraz wymaganiami wyszukiwarek, jak również
faktycznie przedstawiała treści oczekiwane przez potencjalnych odbiorców.
Narzędzia udostępniane przez Google do analizy stron internetowych
Największy
potentat wśród wyszukiwarek internetowych, firma Google udostępnia wiedzę dla
twórców stron internetowych, ponieważ w ich interesie jest zadowolenie
użytkowników wyszukiwarki. Nie jest to wiedza całkowita na ten temat, ponieważ
pozycjonowanie stron internetowych w wynikach wyszukiwania jest również
przedmiotem płatnej oferty giganta.
Mimo
posiadania szerokiej płatnej oferty pozycjonowania, firma Google jest dostawcą
wielu darmowych rozwiązań analityczny dla twórców witryn, taki jak Google
Analytics oraz Google Search Console.
Dzięki
ciągłej analizie zachowań użytkowników Internetu, za pomocą narzędzi do tego
stworzonych, twórcy witryn mogą znaleźć odpowiedzi na pytania natury analizy
predykcyjnej (ang. predictive analytics): „co się wydarzy, jeśli podejmę takie
a nie inne działanie?” lub jeszcze ważniejsze, wywodzące się z analizy
nakazowej (ang. prescriptive analytics): „Jakie mam możliwości działania i jaki
rezultat przyniosłyby moje działania w każdym z owych dostępnych wariantów?”.
Analiza predykcyjna i nakazowa może wykorzystywać nowe źródła danych do
ostatecznego redagowania do postaci umożliwiającej podejmowanie na tej
podstawie optymalnych decyzji. Co więcej, analiza nakazowa wykorzystuje
zbierane na bieżąco informacje o efektach podejmowanych decyzji, co pozwala
nieustannie udoskonalać model analityczny w pętli sprzężenia zwrotnego.
Dostarczone
przez Google narzędzia pozwalają na zmaksymalizowanie efektywności analizy
nakazowej, informacje umożliwiające podejmowanie optymalnych decyzji są
dostarczane na bieżąco. Dzięki wykorzystaniu narzędzia dla twórców witryn,
przykładowo firma oferująca sprzedaż produktów, w oparciu o nieustanną analizę
nawyków i zachowań konsumentów jest w stanie dostosować swoją ofertę do ich
bieżących potrzeb, w tym obserwować aktualnie panujące trendy rynkowe.
Z
pomocą dla firm oferujących sprzedaż produktów Google oferuje analizę
kohortową, polegającą na obserwacji wybranych grup użytkowników względem dni,
tygodni, miesięcy pod kątem przeprowadzonych transakcji zakupu. Analiza kohortowa
pozwala na badanie czasu, w którym użytkownicy podejmują decyzję o zakupie, jak
również źródło uzyskania klienta, który zdecydował się na zakup w serwisie
internetowym (np. przekierowanie z promocji na facebook, youtube itp.). Dane o
źródle uzyskania klienta, który dokonał zakupu pozwalają również wyliczyć
koszty pozyskania klienta w stosunku do nakładów na promocję. Analiza kohort
daje możliwość porównania różnych kanałów promocji, danych względem siebie.
Uzyskane z analizy kohort informacje mogą posłużyć w planowaniu dalszej
strategii promocyjnej oraz przewidywać zjawiska, jakie będą miały miejsce w
przyszłości.
Google
będąc właścicielem wszystkich zaindeksowanych przez siebie informacji,
udostępnia wszystkim użytkownikom aplikację Google Trends, która przedstawia
informacje na temat zapytań użytkowników zyskujących popularność, ich ilości,
pochodzenia, zależności od czasu i głównych regionów świata. Zapytania
podzielone są na kategorie: Biznes, Na topie, Nauka i technika, Rozrywka,
Sport, Zdrowie. Szczegóły zapytań prezentują źródła artykułów, zainteresowanie
w ujęciu czasowym, zainteresowanie według podregionu wybranego państwa oraz
podobne popularne tematy zyskujące popularność. Narzędzie umożliwia zapoznanie
się z popularnością interesujących nas zapytań z ostatnich 5 lat, dzięki czemu
można np. bezpłatnie uzyskać informacje o poziomie zainteresowania danym
produktem, bądź usługami.
Indeksowanie stron internetowych
Pobieranie
treści (znajdowanie informacji) publicznych witryn internetowych w celu
indeksowania odbywa się przy użyciu programów nazywanych „robotami”. Najbardziej znany to „Googlebot”. Roboty
wchodzą na strony i korzystają ze znajdujących się tam linków. Wędrują od linku
do linku i przesyłają dane o stronach internetowych na serwery Google. Proces
pobierania zaczyna się od listy adresów internetowych utworzonej podczas
poprzednich indeksowań i map witryn dostarczonych przez ich właścicieli. Roboty
Google wchodzą na strony i szukają linków do kolejnych stron. Zwracają przy tym
szczególną uwagę na nowe witryny, zmiany wprowadzone w istniejących witrynach
oraz niedziałające linki. Programy komputerowe wybierają witryny do pobierania
oraz określają, ile stron pobierać z każdej z nich i jak często to robić.
Google nie oferuje płatnej usługi częstszego pobierania stron w celu
zaktualizowania wyników wyszukiwania. Bardziej
zależy im na tym, by wyniki były jak najtrafniejsze – na dłuższą metę
właśnie to przynosi największe korzyści użytkownikom, a tym samym firmie
Google.
W
przypadku większości witryn nie trzeba ustawiać ograniczeń pobierania,
indeksowania ani wyświetlania stron. Twórca witryny praktycznie nie musi nic
robić – strony po prostu po pewnym czasie pojawiają się w wynikach
wyszukiwania. Twórcy witryn mogą jednak użyć narzędzi dla twórców witryn i
pliku robots.txt, by dokładnie określić, jak roboty Google mają pobierać i
indeksować ich strony. W pliku robots.txt można zablokować dostęp Googlebotowi
lub podać konkretne instrukcje przetwarzania stron witryny.
Twórcy
witryn mogą na przykład zrezygnować z pokazywania krótkich opisów
podsumowujących stronę (widocznych pod każdym wynikiem wyszukiwania) lub kopii
strony w pamięci podręcznej (zapisanej na serwerach Google na wypadek, gdyby
właściwa strona była niedostępna).
Indeksowanie inteligentne
Internet
jest jak stale powiększająca się biblioteka publiczna z miliardami zasobów bez
centralnego systemu danych. Google po prostu gromadzi strony, po czym tworzy
indeks, który pozwala na łatwe znajdowanie danych. Podobnie jak skorowidz na
końcu książki, indeks Google zawiera informacje o słowach i ich lokalizacji.
Gdy użytkownik Internetu czegoś szuka, na najbardziej podstawowym poziomie
algorytmy Google wyszukują jego zapytanie w indeksie, by znaleźć odpowiednie
strony.
Od
chwili gdy Google wdrożyło program „Graf wiedzy”, proces wyszukiwania stał się
znacznie bardziej złożony. Graf wiedzy to baza tworzona za pomocą zbierania
informacji z różnych źródeł. W USA funkcja ta jest dostępna od 2012 r., w
Polsce od 16 maja 2013 r. Zapewnia ona posegregowane i sprawdzone informacje na
temat znanych przez algorytmy Google obiektów oraz powiązań między nimi, wyświetlane
dodatkowo - oprócz organicznych wyników wyszukiwania.
Celem
jest zapewnienie użytkownikom Internetu informacji i nawigacji między
związanymi ze sobą tematami. Krótkie podsumowanie wiedzy wyszukiwarki na dany
temat jest wyświetlane w boksie z prawej strony od wyników wyszukiwania i
zawiera linki do powiązanych informacji (np. w przypadku postaci historycznej -
daty urodzin i śmierci, najważniejsze wydarzenia z życia, współpracownicy i
rodzina).
Gdy
użytkownik szuka hasła „psy”, nie chce po prostu znaleźć strony, na której to
słowo występuje setki razy. Prawdopodobnie oczekuje zdjęć, filmów lub listy ras
psów. Systemy indeksowania Google zapamiętują wiele różnych aspektów stron, np.
datę publikacji, zamieszczone zdjęcia lub filmy itp. Tworząc „Graf wiedzy”, Google
by lepiej zrozumieć ludzi, miejsca i rzeczy, które mają dla nich znaczenie,
chce wykraczać poza zwykłe dopasowywanie słów kluczowych.
Pozycjonowanie stron www
Kluczem
do stworzenia dobrej witryny internetowej jest zadbanie o jak największego
grona odbiorców. Możliwe jest to poprzez zapewnienie jak najwyższej jakości
materiałów. Jeśli osoby odwiedzające witrynę uznają ją za pomocną lub
wyjątkową, mogą odwiedzić ją ponownie (jeden ze
wskaźników) lub zamieścić link do jej treści na własnych witrynach, co w
dłuższej perspektywie może pomóc przyciągnąć kolejnych gości.
Rysunek
1 Przykład wpływu zawartości witryny na pozycję w
indeksie Google
Linkowanie do innych stron internetowych
Google
uruchomiło tzw. program spider, który jest odpowiedzialny za indeksowanie stron
przy pomocy robotów (Googlebotów), uwzględniając linki pomiędzy stronami
zewnętrznymi. W wyniku indeksacji wszystkich stron zawierających interesujące
użytkownika informacje, w tym ze sobą powiązanych, Google decyduje, która
strona jest najprzydatniejsza dla użytkownika szukającego treści, czy strona
jest wysokiej jakości czy stanowi tylko spam. Mechanizm decydujący o wyniku był
określany jako BackRub, potem PageRank (przez
pewien czas Google wycofało się nazewnictwa i promowaniu tego mechanizmu, prawdopodobnie
ze względu na zmiany algorytmu, obecnie znów jest podawany jako element
składowy pozycji). Jakość teksu na stronie wg PageRank wynikała z odwoływań
(linków) z innych stron. Jeśli na dany tekst powołuje się artykuł, który sam ma
wysoką ocenę, ma to większe znaczenie, niż gdy na ten sam tekst powołuje się
mało popularna strona.
Gdzie:
PR – PageRank danej strony
d – współczynnik tłumienia, liczba pomiędzy
0 i 1. Dla obliczeń przyjmuje się zazwyczaj wartość 0,85
N – liczba stron internetowych
L – liczba linków do których odsyła dana
strona internetowa
Algorytmy pozycjonowani stron www
O tym,
która strona pokaże się jako pierwsza w wynikach wyszukiwania decyduje algorytm
google, który analizuje zapytanie i na podstawie ponad 200 wskaźników decyduje,
które z milionów stron zawierają najtrafniejsze odpowiedzi. Google stale
dopracowuje algorytmy rankingu, wprowadzając ponad 500 poprawek rocznie, co
powoduje bardzo często dezorientację osób zajmujących się pozycjonowaniem stron
w internecie.
Przykładowe
wskaźniki:
- Aktualność treści na stronie
- Liczba innych stron, które zawierają linki do danej strony, i waga tych linków
- Słowa na stronie /wyrażenia używane na stronach
- Synonimy wyszukiwanych słów kluczowych
- Poprawność pisowni
- Jakość treści na stronie
- URL i tytuł strony
- Czy najlepszy wynik to strona internetowa, obraz, film, artykuł itd.
- Personalizacja
- Wyniki polecane przez znajomych
- Region w którym znajduje się użytkownik
- PageRank
Algorytmy
to programy komputerowe, które analizują różne wskazówki, by dać użytkownikowi
dokładnie to, czego potrzebuje. Typowemu zapytaniu odpowiadają tysiące, jeśli
nie miliony stron internetowych z pomocnymi informacjami. Algorytmy to formuły
i procesy komputerowe, które znajdują odpowiedzi na pytania użytkowników.
Zmiany
algorytmu wprowadzane są bardzo ostrożnie z należytą starannością. Wg Google priorytetem
ulepszenia algorytmu jest jakość. Programiści zwykle zaczynają od serii
eksperymentów, dostosowując niektóre zmienne i zbierając opinie
współpracowników. Gdy są już zadowoleni z efektów, przeprowadzają eksperyment
na większej grupie użytkowników.
Pierwszy
etap to zebranie opinii oceniających, czyli osób przeszkolonych w ocenianiu
jakości wyszukiwarki. Prezentowane są oceniającym wyniki wyszukiwania i
zadawane są pytania o określenie ich przydatności w odniesieniu do danego
zapytania. Oceny nie mają bezpośredniego wpływu na ranking. Kolejnym etapem są
eksperymenty porównawcze. W eksperymencie porównawczym prezentowane są
oceniającym dwa różne zestawy wyników wyszukiwania – jeden ze starego
algorytmu, a drugi z nowego – oceniający proszeni są, aby uzasadnili, które
wyniki są ich zdaniem lepsze.
Następnie
przeprowadzany jest eksperyment na żywo. Jeśli opinie oceniających są
pozytywne, przechodzi się do „eksperymentu na żywo” z użytkownikami. W takich
eksperymentach zmieniana jest wyszukiwarka dla niewielkiej grupy zwykłych użytkowników
Google i sprawdzane jest, jak zmiana wpływa na korzystanie z wyników
wyszukiwania. Ostrożnie analizowane są rezultaty, by stwierdzić, czy dzięki
zmianie wyniki wyszukiwania uległy poprawie. Sprawdzane na przykład jest, czy
szukający częściej klikają pierwszy wynik. Jeśli tak, to zwykle jest dobry
znak. Na koniec najlepsi programiści Google, którzy zajmują się wyszukiwarką,
uważnie analizują dane ze wszystkich eksperymentów i decydują, czy można
wprowadzić zmianę. Proces wygląda na skomplikowany, ale jest dobrze
dopracowany, więc od pomysłu do „eksperymentu na żywo” Google jest w stanie
przejść w zaledwie 24 godziny. Na podstawie takich eksperymentów, ocen i analiz
tylko w 2011 roku Google wprowadziło w wyszukiwarce 538 udoskonaleń. Taka ilość
zmian znacząco wpływa na dezorientację osób zajmujących się pozycjonowaniem.
Walka ze spamami
Każdego
dnia powstają miliony bezużytecznych stron ze spamem. Google walczy z tym
zjawiskiem, stosując połączenie algorytmów komputerowych z kontrolą ręczną.
Strony ze spamem próbują dostać się na szczyt listy wyników wyszukiwania,
stosując różne techniki, np. wielokrotnego powtarzania słów kluczowych,
kupowania linków przekazujących PageRank czy zamieszczania tekstu niewidocznego
na ekranie. Jest to niekorzystne zarówno dla użytkowników wyszukiwarki, bo
trafne strony spadają na dalsze miejsca w wynikach, jak i dla uczciwych
właścicieli witryn, bo ich strony trudniej znaleźć. Na szczęście algorytmy
Google wykrywają większość spamu i automatycznie go degradują. W pozostałych
przypadkach nasze zespoły sprawdzają strony ręcznie. Strony ze spamem mogą być
bardzo rożne. Niektóre to automatycznie generowany bezsensowny tekst,
niezrozumiały dla człowieka.
Wygląda na to, że witryna korzysta z maskowania (użytkownicy widzą inne treści niż wyszukiwarki) lub przekierowuje użytkowników na inną stronę niż pokazywana robotowi Google
2. WITRYNA ZAATAKOWANA PRZEZ HAKERA
Ktoś mógł włamać się na niektóre strony w tej witrynie i umieścić na nich spamerskie treści lub linki. Właściciel witryny powinien od razu podjąć działania, by oczyścić strony i usunąć luki w zabezpieczeniach.
3. UKRYTY TEKST I/LUB UPYCHANIE SŁÓW KLUCZOWYCH
Niektóre strony mogą zawierać ukryty tekst i/lub upchane słowa kluczowe.
4. ZAPARKOWANE DOMENY
Zaparkowane domeny to witryny zastępcze z niewielką ilością unikalnej treści, więc Google zwykle nie umieszcza ich w wynikach wyszukiwania.
5. CZYSTY SPAM
Wygląda na to, że witryna korzysta z agresywnych technik spamerskich, takich jak automatyczne generowanie bezsensownego tekstu, maskowanie czy pobieranie treści z innych stron, i/lub notorycznie albo poważnie narusza wskazówki Google dla twórców witryn.
6. DARMOWE ZASPAMOWANE SERWISY HOSTINGOWE I SERWISY DDNS
Witryna jest udostępniana w darmowej usłudze hostingowej lub przez dostawcę usługi dynamicznego DNS ze znacznym odsetkiem treści spamerskich.
7. TREŚĆ O NIEWIELKIEJ LUB ŻADNEJ WARTOŚCI
Wygląda na to, że witryna składa się ze stron o niskiej jakości lub małej ilości treści, które są nieprzydatne dla użytkowników (np. ubogie w treść strony stowarzyszone, przejściowe, utworzone według szablonu czy zawierające automatycznie wygenerowaną lub skopiowaną treść).
8. NIENATURALNE LINKI Z WITRYNY
Google wykryło wzorzec nienaturalnych, sztucznych, mylących lub manipulacyjnych linków wychodzących z witryny. Może to być wynik sprzedawania linków przekazujących PageRank lub udziału w programach wymiany linków.
9. NIENATURALNE LINKI DO WITRYNY
Wykryliśmy wzorzec nienaturalnych, sztucznych, mylących lub manipulacyjnych linków prowadzących do witryny. Może to być wynik kupowania linków przekazujących PageRank lub udziału w programach wymiany linków.
10. SPAM TWORZONY PRZEZ UŻYTKOWNIKÓW
Wygląda na to, że witryna zawiera spam tworzony przez użytkowników. Problematyczne treści mogą występować na forum, w księdze gości lub profilach użytkowników.
Algorytmy
Google radzą sobie z większością spamu, a w pozostałych przypadkach usuwane są
ręcznie, by nie miały wpływu na jakość wyników wyszukiwania. Miesięczne Google
oznacza około 0,22% domen jako spam.
Gdy w
odniesieniu do danej witryny Google podejmuje ręczne działanie antyspamowe,
właściciel witryny jest powiadamiany i oferuje mu się pomoc w rozwiązaniu
problemu. Wysokim priorytetem dla Google jest aby właściciele witryn mieli
informacje potrzebne do ich poprawienia. Dlatego Google zainwestowało znaczne
zasoby w informowanie webmasterów i komunikację z nimi. Gdy tylko twórca
witryny oczyści strony i usunie spam, może poprosić Google o sprawdzenie jego
witryny poprzez przesłanie prośby o ponowne rozpatrzenie zgłoszenia. Większość
witryn, których dotyczą prośby o ponowne rozpatrzenie zgłoszenia, w
rzeczywistości nie podlega żadnym ręcznym działaniom przeciwko spamowi. Często
w tych przypadkach występują zwykłe wahania ruchu internetowego, zmiany
algorytmu lub problemy techniczne, które uniemożliwiają Google dostęp do
zawartości stron.
Metody optymalizacji stron pod względem dopasowania do wyszukiwarek
Termin
„SEO” odnosi się do angielskiej nazwy procesu optymalizacji witryny pod kątem
wyszukiwarek („search engine optimization”) lub osoby, która się tym zajmuje
(„search engine optimizer”).
Istnieje
wiele dozwolonych sposobów optymalizowania witryny pod kątem wyszukiwarek, ale
niektórzy twórcy witryn używają zwodniczych, nieetycznych technik i starają się
oszukać wyszukiwarki oraz użytkowników. Uczciwe techniki pozycjonowania witryny
określa się jako „white hat SEO”, a bardziej agresywne i niezgodne ze
wskazówkami dla webmasterów jako „black hat SEO”. Rozróżnienie obu metod jest
bardzo istotne. Nieuczciwe sposoby optymalizacji niszczą reputację witryny
zamiast poprawiać jej pozycję w bezpłatnych wynikach wyszukiwania.
Sprawdzone
metody: white hat SEO
Techniki
te mają na celu ulepszenie witryny poprzez skupienie się na użytkownikach, a
nie na poprawianiu pozycji. Przykładem takich technik jest zamieszczanie
naturalnych treści o wysokiej jakości i dodawanie poprawnych tagów opisu
omówionych w poprzednim module. Są one zgodne z wskazówkami dla twórców witryn,
udostępnionych przez Google, które należy przestrzegać, by witryna w naturalny
sposób zajmowała wysoką pozycję w wynikach wyszukiwania w Google.
Sprawdź cennik SEO
Sprawdź cennik SEO
Niewskazane
metody: black hat SEO
Nieetyczne
techniki, polegają na manipulowaniu wyszukiwarkami z myślą o osiągnięciu przez
witrynę lepszej pozycji. Google nie zaleca kupowania umieszczania w internecie
linków kierujących do witryny w celu zwiększenia jej wyniku PageRank i manipulowania
wyszukiwarką Google, choć z niektórych badań wynika że jest to dobra metoda do budowania
pozycji w Internecie, a osoby korzystające z tych technik nie wskazują
problemów z blokowaniem stron.
Najlepszym
sposobem, aby wysokiej jakości linki do danej witryny pojawiły się w innych
witrynach, jest umieszczenie na niej wartościowych i nietuzinkowych treści,
które mają szansę szybko zyskać popularność w społeczności internetowej.
Tworzenie dobrych treści się opłaca: linki są zazwyczaj świadomie
zamieszczanymi informacjami o czyichś preferencjach, więc im bardziej przydatne
są treści na stronie, tym większe są szanse na to, że ktoś inny uzna je za
cenne dla swoich czytelników i doda do nich link.
Rozszerzone wyszukiwanie
Na
proces wyszukiwania i stronę wyników składa się wiele elementów, Google ciągle
aktualizuje technologie i systemy, by dostarczać jeszcze lepsze wyniki. Wiele z
tych zmian to niezwykłe innowacje, np. Graf wiedzy czy wyszukiwanie dynamiczne
Google. Są też inne ważne systemy, które stale są poprawiane i dopracowywane.
Ta
lista projektów przybliża wiele różnych aspektów wyszukiwania:
- ODPOWIEDZI- Od razu wyświetla odpowiedzi i informacje, np. prognozę pogody, wyniki sportowe czy krótkie fakty.
- AUTOUZUPEŁNIANIE - Przewiduje, czego możesz szukać. Analizuje m.in. hasła, które mają więcej niż jedno znaczenie.
- KSIĄŻKI - Znajduje wyniki w milionach książek (pokazując podgląd i tekst) udostępnionych przez biblioteki i wydawców z całego świata.
- AKTUALNOŚĆ TREŚCI - Podaje najnowsze wiadomości i informacje. Oferuje m.in. wyniki wyszukiwania, które pojawiły się w konkretnych dniach.
- WYSZUKIWANIE DYNAMICZNE GOOGLE - Dynamicznie wyświetla wyniki, gdy wpisujesz zapytanie.
- GRAFIKA - W wynikach wyszukiwania obrazów pokazuje miniatury, dzięki czemu wystarczy spojrzeć, by znaleźć właściwą stronę.
- INDEKSOWANIE - Korzysta z systemów do zbierania i przechowywania dokumentów w internecie.
- GRAF WIEDZY - Dostarcza wyniki z bazy danych o prawdziwych osobach, miejscach, rzeczach i powiązaniach między nimi.
- MOBILNOŚĆ - Oferuje udoskonalenia wprowadzone z myślą o urządzeniach przenośnych, takich jak tablety i smartfony.
- WIADOMOŚCI - Wyświetla wyniki z gazet online i blogów z całego świata.
- ANALIZA ZAPYTAŃ - Dokładnie analizuje znaczenie słów, które piszesz.
- Zawężenia wyszukiwania - Oferuje takie funkcje jak „Szukanie zaawansowane”, podobne wyszukiwania i inne narzędzia, które pomagają sprecyzować wyszukiwanie.
- FILTR SAFESEARCH - Zmniejsza liczbę stron internetowych, obrazów i filmów dla dorosłych w wynikach wyszukiwania.
- METODY WYSZUKIWANIA - Umożliwia wyszukiwanie na nowe sposoby, w tym „wyszukiwanie obrazem” i „wyszukiwanie głosowe”.
- JAKOŚĆ WITRYNY I STRONY - Na podstawie zestawu wskaźników określa, na ile godne zaufania, cenione i rzetelne jest źródło. (Wśród tych wskaźników jest m.in. PageRank – jeden z pierwszych algorytmów Google, który analizuje linki między stronami, by ocenić ich trafność).
- KRÓTKIE OPISY - Pokazuje podgląd wybranych informacji o każdym wyniku wyszukiwania, np. tytuł strony i krótki opis.
- PISOWNIA - Wykrywa i poprawia możliwe błędy pisowni oraz proponuje alternatywne zapytania.
- SYNONIMY - Rozpoznaje słowa o podobnym znaczeniu.
- TŁUMACZENIE I INTERNACJONALIZACJA - Dostosowuje wyniki na podstawie Twojego języka i kraju.
- WYSZUKIWANIE UNIWERSALNE - Wyświetla trafne treści, takie jak obrazy, wiadomości, mapy, filmy i Twoje własne materiały, na wspólnej stronie wyników wyszukiwania.
- KONTEKST UŻYTKOWNIKA - Wyświetla bardziej trafne wyniki na podstawie regionu geograficznego, Historii online i innych elementów.
- WIDEO - W wynikach wyszukiwania filmów pokazuje miniatury, co ułatwia wybór filmu do obejrzenia.
Zasady budowania stron internetowych wg Google
Wg
google zawartość strony powinna być:
- PRZYDATNA I INFORMACYJNA. Jeśli twórca ma zamierza stworzyć witrynę na temat restauracji, warto umieścić w niej adres lokalu, godziny otwarcia, informacje kontaktowe, menu oraz blog omawiający planowane atrakcje.
- CIEKAWSZA i bardziej pomocna niż inne podobne witryny. Jeśli witryna opisuje tresowanie psów, zamieszczane w niej artykuły muszą być ciekawsze lub powinny przedstawiać inny punkt widzenia, niż szereg innych artykułów na ten temat dostępnych w Internecie.
- WIARYGODNA. Należy przekonać użytkowników, że treść witryny jest wiarygodna, publikując wyniki badań, cytaty, linki, recenzje i oświadczenia. Biografia autora lub oświadczenia klientów to świetny sposób na podwyższenie reputacji i renomy witryny.
- WYSOKIEJ JAKOŚCI. Treści w witrynie powinny być niepowtarzalne, konkretne i wysokiej jakości. Nie warto nadawać jej masowego charakteru ani powielać na innych stronach. Treści w witrynie powinny być opracowane z myślą o odbiorcach, a nie pozycji w wynikach wyszukiwania.
- ZACHĘCAJĄCA. Należy zadbać o kolorowy i atrakcyjny wygląd witryny, na przykład zamieszczając obrazy produktów, zdjęcia zespołu lub własne fotografie. Należy zadbać, by użytkowników nie rozpraszały błędy w pisowni i stylu wypowiedzi ani błędy merytoryczne. Zbyt dużo reklam także może robić złe wrażenie. Należy angażować gości, regularnie aktualizując treści, udostępniając możliwość dodawania komentarzy czy widżety mediów społecznościowych.
Należy
zwrócić uwagę na problemy, które mogą wzbudzić nieufność użytkowników lub
zniechęcić ich do odwiedzania witryny:
- Niedopracowania, takie jak uszkodzone linki lub błędne informacje
- Błędy gramatyczne i literówki
- Nadmierna liczba reklam
- Spam w komentarzach lub na forum
Porządkowanie treści w indeksie wyszukiwarki Google
Google w dążeniach do uporządkowania Internetu wprowadziło
program „Marker danych”. Marker Danych jest narzędziem do wskazywania
wyszukiwarce (robotom) informacji, które powinny być potraktowane jako dane
stukturalne, czyli dane będące znacznikami opisującymi zawartość strony. Dane
strukturalne mogą być uwidocznione w wynikach wyszukiwania jako dodatkowe opisy
np. przedmiotu na sprzedaż, oraz w grafach wiedzy.
Dzięki markerowi danych można „wyjaśnić” przeglądarce, że
treść strony/podstrony należy do typu:
- Artykuły
- Aplikacje
- Filmy
- Lokalne firmy
- Produkty
- Recenzje książek
- Restauracje
- Seriale telewizyjne
- Wydarzenia
Dodatkowo Google wprowadziło jeszcze programy specjalnie
skierowane do firm tj.: Google Moja Firma oraz Google Merchant Center.
Google Moje Firma – moduł wizytówki widoczny w wynikach wyszukiwania, ze wskazaniem lokalizacji na mapie
Zarządzanie
tak wielkim zasobem jak dane opublikowane, tj.: „skatalogowanie światowych zasobów informacji i uczynienie ich powszechnie
dostępnymi i użytecznymi” jest misją
spółki Google Inc., obecnie spółki córki Alphabet Inc.
Komentarze
Prześlij komentarz