Podejście do BIG DATA przy indeksowaniu stron internetowych

Obecnie nasza cywilizacja budowana jest na informacjach przekazywanych głównie za pomocą Internetu. Internet jest systemem połączeń sieciowych między serwerami, komputerami, które posiadają swój indywidualny adres. Udostępnione dane, przechowywane na dyskach serwerów internetowych, stanowią olbrzymi zasób danych, które bez odpowiedniego oznaczenia, wskazania ścieżki dostępu, drogowskazu do nich, pozostają informacjami niepublicznymi.
Internet w liczbach:
  • codziennie użytkownicy wyszukują w Google miliardy haseł,
  • od 2003 r. Google odpowiedział na 450 miliardów nowych, unikalnych zapytań – takich, które pojawiły się pierwszy raz;
  • każdego dnia 16% wyszukiwani jest nowych;
  • zanim otrzymujemy odpowiedź od Google, wyszukiwane hasło przebywa średnio 2400 km (trafiając po drodze do różnych centrów danych na całym świecie) z prędkością zbliżoną do prędkości światła – setek milionów kilometrów na godzinę

Wyszukiwarki internetowe mają za zadanie odnaleźć opublikowane treści oraz wyświetlenie ich w wynikach wyszukiwania potencjalnych zapytań. Olbrzymi zasób danych, z jakim muszą się uporać przeglądarki internetowe to ponad bilion obiektów obliczonych na wielkość ponad 100 milionów gigabajtów. Przy tak dużym zasobie informacji do przetworzenia wymagane jest wykorzystanie najnowocześniejszych technologii analizy danych. Giganci na rynku wyszukiwarek tacy jak Google, Yahoo, Bing korzystają z Big Data, wprowadzając coraz to nowsze usługi związane z technologią analizy zachowań miliardów ludzi, aby zrozumieć czego dokładnie szukają. Wielu użytkowników Internetu nie zdaje sobie sprawy, że ich zachowania w Internecie są przedmiotem ciągłej analizy. Analizie podlegają m.in.: wyszukiwanie treści, czas spędzony na jednej stronie, ilość powtórzeń odwiedzania poszczególnych stron, realizacja dojścia do celu opracowanego przez twórców witryn. Ponadto analizowane są informacje o odbiorcach treści takie jak: dane demograficzne (przedział wiekowy, płeć), zainteresowania (np. sport, komputery, gotowanie, podróże), posługiwanie się wybranym językiem, lokalizacja (kraj, miejscowość, kontynent, subkontynent). Zbieranie informacji o odbiorcach umożliwia stworzenie usługi tworzenia płatnych kampanii reklamowych, których odbiorcami jest przeanalizowana grupa docelowa odbiorców. Przedmiotem analizy technologii analitycznych w Internecie jest również wybór przeglądarki internetowej przez odbiorców. Zbierane są informacje o dostawcach połączeń z Internetem poszczególnych użytkowników. Również istotne są obserwacje na temat wykorzystanego typu urządzenia do przeglądania treści - na podstawie tych obserwacji można stwierdzić, że urządzenia mobile cieszą się aktualnie największą popularnością, dlatego kluczowe jest, aby witryny internetowe były dostosowane do przeglądania treści na urządzeniach o różnych rozmiarach ekranu.
Przetwarzanie wyżej wymienionych danych jest dla gigantów internetowych bardzo wartościowe. Zdobywając wiedzę o zachowaniach odbiorców, ich zainteresowaniach giganci internetowi mają świadomość o oczekiwaniach odbiorców, a dzięki temu mają możliwość je zaspokoić. Zaspokojenie oczekiwań odbiorców nastąpi z chwilą odnalezienia pożądanych treści na zadane przez użytkownika Internetu pytanie. Aby odnalezienie pożądanych treści przez użytkownika Internetu było możliwe muszą być spełnione dwa warunki:
  • użytkownik powinien właściwie sformułować zapytanie poprzez zastosowanie odpowiednich słów kluczowych
  • Wyszukiwarka internetowa powinna wyświetlić zindeksowaną stronę uwzględniającą pożądane przez użytkownika Internetu treści


Powyższy drugi warunek jest trudniejszy do spełnienia, ponieważ jest zależny od twórców witryn internetowych, którzy nie zawsze wiedzą jak zaprojektować stronę aby była zgodna z upodobaniami oraz wymaganiami wyszukiwarek, jak również faktycznie przedstawiała treści oczekiwane przez potencjalnych odbiorców.

Narzędzia udostępniane przez Google do analizy stron internetowych

Największy potentat wśród wyszukiwarek internetowych, firma Google udostępnia wiedzę dla twórców stron internetowych, ponieważ w ich interesie jest zadowolenie użytkowników wyszukiwarki. Nie jest to wiedza całkowita na ten temat, ponieważ pozycjonowanie stron internetowych w wynikach wyszukiwania jest również przedmiotem płatnej oferty giganta.
Mimo posiadania szerokiej płatnej oferty pozycjonowania, firma Google jest dostawcą wielu darmowych rozwiązań analityczny dla twórców witryn, taki jak Google Analytics oraz Google Search Console.
Dzięki ciągłej analizie zachowań użytkowników Internetu, za pomocą narzędzi do tego stworzonych, twórcy witryn mogą znaleźć odpowiedzi na pytania natury analizy predykcyjnej (ang. predictive analytics): „co się wydarzy, jeśli podejmę takie a nie inne działanie?” lub jeszcze ważniejsze, wywodzące się z analizy nakazowej (ang. prescriptive analytics): „Jakie mam możliwości działania i jaki rezultat przyniosłyby moje działania w każdym z owych dostępnych wariantów?”. Analiza predykcyjna i nakazowa może wykorzystywać nowe źródła danych do ostatecznego redagowania do postaci umożliwiającej podejmowanie na tej podstawie optymalnych decyzji. Co więcej, analiza nakazowa wykorzystuje zbierane na bieżąco informacje o efektach podejmowanych decyzji, co pozwala nieustannie udoskonalać model analityczny w pętli sprzężenia zwrotnego.
Dostarczone przez Google narzędzia pozwalają na zmaksymalizowanie efektywności analizy nakazowej, informacje umożliwiające podejmowanie optymalnych decyzji są dostarczane na bieżąco. Dzięki wykorzystaniu narzędzia dla twórców witryn, przykładowo firma oferująca sprzedaż produktów, w oparciu o nieustanną analizę nawyków i zachowań konsumentów jest w stanie dostosować swoją ofertę do ich bieżących potrzeb, w tym obserwować aktualnie panujące trendy rynkowe.
Z pomocą dla firm oferujących sprzedaż produktów Google oferuje analizę kohortową, polegającą na obserwacji wybranych grup użytkowników względem dni, tygodni, miesięcy pod kątem przeprowadzonych transakcji zakupu. Analiza kohortowa pozwala na badanie czasu, w którym użytkownicy podejmują decyzję o zakupie, jak również źródło uzyskania klienta, który zdecydował się na zakup w serwisie internetowym (np. przekierowanie z promocji na facebook, youtube itp.). Dane o źródle uzyskania klienta, który dokonał zakupu pozwalają również wyliczyć koszty pozyskania klienta w stosunku do nakładów na promocję. Analiza kohort daje możliwość porównania różnych kanałów promocji, danych względem siebie. Uzyskane z analizy kohort informacje mogą posłużyć w planowaniu dalszej strategii promocyjnej oraz przewidywać zjawiska, jakie będą miały miejsce w przyszłości.

Google będąc właścicielem wszystkich zaindeksowanych przez siebie informacji, udostępnia wszystkim użytkownikom aplikację Google Trends, która przedstawia informacje na temat zapytań użytkowników zyskujących popularność, ich ilości, pochodzenia, zależności od czasu i głównych regionów świata. Zapytania podzielone są na kategorie: Biznes, Na topie, Nauka i technika, Rozrywka, Sport, Zdrowie. Szczegóły zapytań prezentują źródła artykułów, zainteresowanie w ujęciu czasowym, zainteresowanie według podregionu wybranego państwa oraz podobne popularne tematy zyskujące popularność. Narzędzie umożliwia zapoznanie się z popularnością interesujących nas zapytań z ostatnich 5 lat, dzięki czemu można np. bezpłatnie uzyskać informacje o poziomie zainteresowania danym produktem, bądź usługami.


GUIDE STUDIO Strony internetowe



Indeksowanie stron internetowych

Pobieranie treści (znajdowanie informacji) publicznych witryn internetowych w celu indeksowania odbywa się przy użyciu programów nazywanych „robotami”.  Najbardziej znany to „Googlebot”. Roboty wchodzą na strony i korzystają ze znajdujących się tam linków. Wędrują od linku do linku i przesyłają dane o stronach internetowych na serwery Google. Proces pobierania zaczyna się od listy adresów internetowych utworzonej podczas poprzednich indeksowań i map witryn dostarczonych przez ich właścicieli. Roboty Google wchodzą na strony i szukają linków do kolejnych stron. Zwracają przy tym szczególną uwagę na nowe witryny, zmiany wprowadzone w istniejących witrynach oraz niedziałające linki. Programy komputerowe wybierają witryny do pobierania oraz określają, ile stron pobierać z każdej z nich i jak często to robić. Google nie oferuje płatnej usługi częstszego pobierania stron w celu zaktualizowania wyników wyszukiwania. Bardziej zależy im na tym, by wyniki były jak najtrafniejsze – na dłuższą metę właśnie to przynosi największe korzyści użytkownikom, a tym samym firmie Google.
W przypadku większości witryn nie trzeba ustawiać ograniczeń pobierania, indeksowania ani wyświetlania stron. Twórca witryny praktycznie nie musi nic robić – strony po prostu po pewnym czasie pojawiają się w wynikach wyszukiwania. Twórcy witryn mogą jednak użyć narzędzi dla twórców witryn i pliku robots.txt, by dokładnie określić, jak roboty Google mają pobierać i indeksować ich strony. W pliku robots.txt można zablokować dostęp Googlebotowi lub podać konkretne instrukcje przetwarzania stron witryny.
Twórcy witryn mogą na przykład zrezygnować z pokazywania krótkich opisów podsumowujących stronę (widocznych pod każdym wynikiem wyszukiwania) lub kopii strony w pamięci podręcznej (zapisanej na serwerach Google na wypadek, gdyby właściwa strona była niedostępna).

Indeksowanie inteligentne

Internet jest jak stale powiększająca się biblioteka publiczna z miliardami zasobów bez centralnego systemu danych. Google po prostu gromadzi strony, po czym tworzy indeks, który pozwala na łatwe znajdowanie danych. Podobnie jak skorowidz na końcu książki, indeks Google zawiera informacje o słowach i ich lokalizacji. Gdy użytkownik Internetu czegoś szuka, na najbardziej podstawowym poziomie algorytmy Google wyszukują jego zapytanie w indeksie, by znaleźć odpowiednie strony.

Od chwili gdy Google wdrożyło program „Graf wiedzy”, proces wyszukiwania stał się znacznie bardziej złożony. Graf wiedzy to baza tworzona za pomocą zbierania informacji z różnych źródeł. W USA funkcja ta jest dostępna od 2012 r., w Polsce od 16 maja 2013 r. Zapewnia ona posegregowane i sprawdzone informacje na temat znanych przez algorytmy Google obiektów oraz powiązań między nimi, wyświetlane dodatkowo - oprócz organicznych wyników wyszukiwania.
Celem jest zapewnienie użytkownikom Internetu informacji i nawigacji między związanymi ze sobą tematami. Krótkie podsumowanie wiedzy wyszukiwarki na dany temat jest wyświetlane w boksie z prawej strony od wyników wyszukiwania i zawiera linki do powiązanych informacji (np. w przypadku postaci historycznej - daty urodzin i śmierci, najważniejsze wydarzenia z życia, współpracownicy i rodzina).

Gdy użytkownik szuka hasła „psy”, nie chce po prostu znaleźć strony, na której to słowo występuje setki razy. Prawdopodobnie oczekuje zdjęć, filmów lub listy ras psów. Systemy indeksowania Google zapamiętują wiele różnych aspektów stron, np. datę publikacji, zamieszczone zdjęcia lub filmy itp. Tworząc „Graf wiedzy”, Google by lepiej zrozumieć ludzi, miejsca i rzeczy, które mają dla nich znaczenie, chce wykraczać poza zwykłe dopasowywanie słów kluczowych.




Pozycjonowanie stron www

Kluczem do stworzenia dobrej witryny internetowej jest zadbanie o jak największego grona odbiorców. Możliwe jest to poprzez zapewnienie jak najwyższej jakości materiałów. Jeśli osoby odwiedzające witrynę uznają ją za pomocną lub wyjątkową, mogą odwiedzić ją ponownie (jeden ze wskaźników) lub zamieścić link do jej treści na własnych witrynach, co w dłuższej perspektywie może pomóc przyciągnąć kolejnych gości.




Rysunek 1 Przykład wpływu zawartości witryny na pozycję w indeksie Google

Linkowanie do innych stron internetowych

Google uruchomiło tzw. program spider, który jest odpowiedzialny za indeksowanie stron przy pomocy robotów (Googlebotów), uwzględniając linki pomiędzy stronami zewnętrznymi. W wyniku indeksacji wszystkich stron zawierających interesujące użytkownika informacje, w tym ze sobą powiązanych, Google decyduje, która strona jest najprzydatniejsza dla użytkownika szukającego treści, czy strona jest wysokiej jakości czy stanowi tylko spam. Mechanizm decydujący o wyniku był określany jako BackRub, potem PageRank  (przez pewien czas Google wycofało się nazewnictwa i promowaniu tego mechanizmu, prawdopodobnie ze względu na zmiany algorytmu, obecnie znów jest podawany jako element składowy pozycji). Jakość teksu na stronie wg PageRank wynikała z odwoływań (linków) z innych stron. Jeśli na dany tekst powołuje się artykuł, który sam ma wysoką ocenę, ma to większe znaczenie, niż gdy na ten sam tekst powołuje się mało popularna strona.
Rysunek 2 Zasada PageRank


Poniższy algorytm jest tylko wersją wzorcową. Szczegóły algorytmu nie zostały upublicznione.
Gdzie:

    PR – PageRank danej strony
    d – współczynnik tłumienia, liczba pomiędzy 0 i 1. Dla obliczeń przyjmuje się zazwyczaj wartość 0,85
    N – liczba stron internetowych
    L – liczba linków do których odsyła dana strona internetowa

Algorytmy pozycjonowani stron www

O tym, która strona pokaże się jako pierwsza w wynikach wyszukiwania decyduje algorytm google, który analizuje zapytanie i na podstawie ponad 200 wskaźników decyduje, które z milionów stron zawierają najtrafniejsze odpowiedzi. Google stale dopracowuje algorytmy rankingu, wprowadzając ponad 500 poprawek rocznie, co powoduje bardzo często dezorientację osób zajmujących się pozycjonowaniem stron w internecie.
Przykładowe wskaźniki:
  • Aktualność treści na stronie
  • Liczba innych stron, które zawierają linki do danej strony, i waga tych linków
  • Słowa na stronie /wyrażenia używane na stronach
  • Synonimy wyszukiwanych słów kluczowych
  • Poprawność pisowni
  • Jakość treści na stronie
  • URL i tytuł strony
  • Czy najlepszy wynik to strona internetowa, obraz, film, artykuł itd.
  • Personalizacja
  • Wyniki polecane przez znajomych
  • Region w którym znajduje się użytkownik
  • PageRank

Algorytmy to programy komputerowe, które analizują różne wskazówki, by dać użytkownikowi dokładnie to, czego potrzebuje. Typowemu zapytaniu odpowiadają tysiące, jeśli nie miliony stron internetowych z pomocnymi informacjami. Algorytmy to formuły i procesy komputerowe, które znajdują odpowiedzi na pytania użytkowników.
Zmiany algorytmu wprowadzane są bardzo ostrożnie z należytą starannością. Wg Google priorytetem ulepszenia algorytmu jest jakość. Programiści zwykle zaczynają od serii eksperymentów, dostosowując niektóre zmienne i zbierając opinie współpracowników. Gdy są już zadowoleni z efektów, przeprowadzają eksperyment na większej grupie użytkowników.
Pierwszy etap to zebranie opinii oceniających, czyli osób przeszkolonych w ocenianiu jakości wyszukiwarki. Prezentowane są oceniającym wyniki wyszukiwania i zadawane są pytania o określenie ich przydatności w odniesieniu do danego zapytania. Oceny nie mają bezpośredniego wpływu na ranking. Kolejnym etapem są eksperymenty porównawcze. W eksperymencie porównawczym prezentowane są oceniającym dwa różne zestawy wyników wyszukiwania – jeden ze starego algorytmu, a drugi z nowego – oceniający proszeni są, aby uzasadnili, które wyniki są ich zdaniem lepsze.
Następnie przeprowadzany jest eksperyment na żywo. Jeśli opinie oceniających są pozytywne, przechodzi się do „eksperymentu na żywo” z użytkownikami. W takich eksperymentach zmieniana jest wyszukiwarka dla niewielkiej grupy zwykłych użytkowników Google i sprawdzane jest, jak zmiana wpływa na korzystanie z wyników wyszukiwania. Ostrożnie analizowane są rezultaty, by stwierdzić, czy dzięki zmianie wyniki wyszukiwania uległy poprawie. Sprawdzane na przykład jest, czy szukający częściej klikają pierwszy wynik. Jeśli tak, to zwykle jest dobry znak. Na koniec najlepsi programiści Google, którzy zajmują się wyszukiwarką, uważnie analizują dane ze wszystkich eksperymentów i decydują, czy można wprowadzić zmianę. Proces wygląda na skomplikowany, ale jest dobrze dopracowany, więc od pomysłu do „eksperymentu na żywo” Google jest w stanie przejść w zaledwie 24 godziny. Na podstawie takich eksperymentów, ocen i analiz tylko w 2011 roku Google wprowadziło w wyszukiwarce 538 udoskonaleń. Taka ilość zmian znacząco wpływa na dezorientację osób zajmujących się pozycjonowaniem.

Walka ze spamami


Każdego dnia powstają miliony bezużytecznych stron ze spamem. Google walczy z tym zjawiskiem, stosując połączenie algorytmów komputerowych z kontrolą ręczną. Strony ze spamem próbują dostać się na szczyt listy wyników wyszukiwania, stosując różne techniki, np. wielokrotnego powtarzania słów kluczowych, kupowania linków przekazujących PageRank czy zamieszczania tekstu niewidocznego na ekranie. Jest to niekorzystne zarówno dla użytkowników wyszukiwarki, bo trafne strony spadają na dalsze miejsca w wynikach, jak i dla uczciwych właścicieli witryn, bo ich strony trudniej znaleźć. Na szczęście algorytmy Google wykrywają większość spamu i automatycznie go degradują. W pozostałych przypadkach nasze zespoły sprawdzają strony ręcznie. Strony ze spamem mogą być bardzo rożne. Niektóre to automatycznie generowany bezsensowny tekst, niezrozumiały dla człowieka.



1.     MASKOWANIE I/LUB PODSTĘPNE PRZEKIEROWANIA

Wygląda na to, że witryna korzysta z maskowania (użytkownicy widzą inne treści niż wyszukiwarki) lub przekierowuje użytkowników na inną stronę niż pokazywana robotowi Google

2.     WITRYNA ZAATAKOWANA PRZEZ HAKERA
Ktoś mógł włamać się na niektóre strony w tej witrynie i umieścić na nich spamerskie treści lub linki. Właściciel witryny powinien od razu podjąć działania, by oczyścić strony i usunąć luki w zabezpieczeniach.


3.     UKRYTY TEKST I/LUB UPYCHANIE SŁÓW KLUCZOWYCH

Niektóre strony mogą zawierać ukryty tekst i/lub upchane słowa kluczowe.


4.     ZAPARKOWANE DOMENY

Zaparkowane domeny to witryny zastępcze z niewielką ilością unikalnej treści, więc Google zwykle nie umieszcza ich w wynikach wyszukiwania.


5.     CZYSTY SPAM

Wygląda na to, że witryna korzysta z agresywnych technik spamerskich, takich jak automatyczne generowanie bezsensownego tekstu, maskowanie czy pobieranie treści z innych stron, i/lub notorycznie albo poważnie narusza wskazówki Google dla twórców witryn.


6.     DARMOWE ZASPAMOWANE SERWISY HOSTINGOWE I SERWISY DDNS

Witryna jest udostępniana w darmowej usłudze hostingowej lub przez dostawcę usługi dynamicznego DNS ze znacznym odsetkiem treści spamerskich.


7.     TREŚĆ O NIEWIELKIEJ LUB ŻADNEJ WARTOŚCI

Wygląda na to, że witryna składa się ze stron o niskiej jakości lub małej ilości treści, które są nieprzydatne dla użytkowników (np. ubogie w treść strony stowarzyszone, przejściowe, utworzone według szablonu czy zawierające automatycznie wygenerowaną lub skopiowaną treść).


8.     NIENATURALNE LINKI Z WITRYNY

Google wykryło wzorzec nienaturalnych, sztucznych, mylących lub manipulacyjnych linków wychodzących z witryny. Może to być wynik sprzedawania linków przekazujących PageRank lub udziału w programach wymiany linków.


9.     NIENATURALNE LINKI DO WITRYNY

Wykryliśmy wzorzec nienaturalnych, sztucznych, mylących lub manipulacyjnych linków prowadzących do witryny. Może to być wynik kupowania linków przekazujących PageRank lub udziału w programach wymiany linków.

10.   SPAM TWORZONY PRZEZ UŻYTKOWNIKÓW

Wygląda na to, że witryna zawiera spam tworzony przez użytkowników. Problematyczne treści mogą występować na forum, w księdze gości lub profilach użytkowników.



Algorytmy Google radzą sobie z większością spamu, a w pozostałych przypadkach usuwane są ręcznie, by nie miały wpływu na jakość wyników wyszukiwania. Miesięczne Google oznacza około 0,22% domen jako spam.
Gdy w odniesieniu do danej witryny Google podejmuje ręczne działanie antyspamowe, właściciel witryny jest powiadamiany i oferuje mu się pomoc w rozwiązaniu problemu. Wysokim priorytetem dla Google jest aby właściciele witryn mieli informacje potrzebne do ich poprawienia. Dlatego Google zainwestowało znaczne zasoby w informowanie webmasterów i komunikację z nimi. Gdy tylko twórca witryny oczyści strony i usunie spam, może poprosić Google o sprawdzenie jego witryny poprzez przesłanie prośby o ponowne rozpatrzenie zgłoszenia. Większość witryn, których dotyczą prośby o ponowne rozpatrzenie zgłoszenia, w rzeczywistości nie podlega żadnym ręcznym działaniom przeciwko spamowi. Często w tych przypadkach występują zwykłe wahania ruchu internetowego, zmiany algorytmu lub problemy techniczne, które uniemożliwiają Google dostęp do zawartości stron.

Metody optymalizacji stron pod względem dopasowania do wyszukiwarek

Termin „SEO” odnosi się do angielskiej nazwy procesu optymalizacji witryny pod kątem wyszukiwarek („search engine optimization”) lub osoby, która się tym zajmuje („search engine optimizer”).
Istnieje wiele dozwolonych sposobów optymalizowania witryny pod kątem wyszukiwarek, ale niektórzy twórcy witryn używają zwodniczych, nieetycznych technik i starają się oszukać wyszukiwarki oraz użytkowników. Uczciwe techniki pozycjonowania witryny określa się jako „white hat SEO”, a bardziej agresywne i niezgodne ze wskazówkami dla webmasterów jako „black hat SEO”. Rozróżnienie obu metod jest bardzo istotne. Nieuczciwe sposoby optymalizacji niszczą reputację witryny zamiast poprawiać jej pozycję w bezpłatnych wynikach wyszukiwania.

Sprawdzone metody: white hat SEO
Techniki te mają na celu ulepszenie witryny poprzez skupienie się na użytkownikach, a nie na poprawianiu pozycji. Przykładem takich technik jest zamieszczanie naturalnych treści o wysokiej jakości i dodawanie poprawnych tagów opisu omówionych w poprzednim module. Są one zgodne z wskazówkami dla twórców witryn, udostępnionych przez Google, które należy przestrzegać, by witryna w naturalny sposób zajmowała wysoką pozycję w wynikach wyszukiwania w Google.

Sprawdź cennik SEO

Niewskazane metody: black hat SEO
Nieetyczne techniki, polegają na manipulowaniu wyszukiwarkami z myślą o osiągnięciu przez witrynę lepszej pozycji. Google nie zaleca kupowania umieszczania w internecie linków kierujących do witryny w celu zwiększenia jej wyniku PageRank i manipulowania wyszukiwarką Google, choć z niektórych badań wynika że jest to dobra metoda do budowania pozycji w Internecie, a osoby korzystające z tych technik nie wskazują problemów z blokowaniem stron.  

Najlepszym sposobem, aby wysokiej jakości linki do danej witryny pojawiły się w innych witrynach, jest umieszczenie na niej wartościowych i nietuzinkowych treści, które mają szansę szybko zyskać popularność w społeczności internetowej. Tworzenie dobrych treści się opłaca: linki są zazwyczaj świadomie zamieszczanymi informacjami o czyichś preferencjach, więc im bardziej przydatne są treści na stronie, tym większe są szanse na to, że ktoś inny uzna je za cenne dla swoich czytelników i doda do nich link.

Rozszerzone wyszukiwanie


Na proces wyszukiwania i stronę wyników składa się wiele elementów, Google ciągle aktualizuje technologie i systemy, by dostarczać jeszcze lepsze wyniki. Wiele z tych zmian to niezwykłe innowacje, np. Graf wiedzy czy wyszukiwanie dynamiczne Google. Są też inne ważne systemy, które stale są poprawiane i dopracowywane.


Ta lista projektów przybliża wiele różnych aspektów wyszukiwania:


  • ODPOWIEDZI- Od razu wyświetla odpowiedzi i informacje, np. prognozę pogody, wyniki sportowe czy krótkie fakty.


  • AUTOUZUPEŁNIANIE - Przewiduje, czego możesz szukać. Analizuje m.in. hasła, które mają więcej niż jedno znaczenie.

  • KSIĄŻKI - Znajduje wyniki w milionach książek (pokazując podgląd i tekst) udostępnionych przez biblioteki i wydawców z całego świata.

  • AKTUALNOŚĆ TREŚCI - Podaje najnowsze wiadomości i informacje. Oferuje m.in. wyniki wyszukiwania, które pojawiły się w konkretnych dniach.

  • WYSZUKIWANIE DYNAMICZNE GOOGLE - Dynamicznie wyświetla wyniki, gdy wpisujesz zapytanie.

  • GRAFIKA - W wynikach wyszukiwania obrazów pokazuje miniatury, dzięki czemu wystarczy spojrzeć, by znaleźć właściwą stronę.

  • INDEKSOWANIE - Korzysta z systemów do zbierania i przechowywania dokumentów w internecie.

  • GRAF WIEDZY - Dostarcza wyniki z bazy danych o prawdziwych osobach, miejscach, rzeczach i powiązaniach między nimi.

  • MOBILNOŚĆ - Oferuje udoskonalenia wprowadzone z myślą o urządzeniach przenośnych, takich jak tablety i smartfony.

  • WIADOMOŚCI - Wyświetla wyniki z gazet online i blogów z całego świata.

  • ANALIZA ZAPYTAŃ - Dokładnie analizuje znaczenie słów, które piszesz.

  • Zawężenia wyszukiwania - Oferuje takie funkcje jak „Szukanie zaawansowane”, podobne wyszukiwania i inne narzędzia, które pomagają sprecyzować wyszukiwanie.

  • FILTR SAFESEARCH - Zmniejsza liczbę stron internetowych, obrazów i filmów dla dorosłych w wynikach wyszukiwania.

  • METODY WYSZUKIWANIA - Umożliwia wyszukiwanie na nowe sposoby, w tym „wyszukiwanie obrazem” i „wyszukiwanie głosowe”.

  • JAKOŚĆ WITRYNY I STRONY - Na podstawie zestawu wskaźników określa, na ile godne zaufania, cenione i rzetelne jest źródło. (Wśród tych wskaźników jest m.in. PageRank – jeden z pierwszych algorytmów Google, który analizuje linki między stronami, by ocenić ich trafność).

  • KRÓTKIE OPISY - Pokazuje podgląd wybranych informacji o każdym wyniku wyszukiwania, np. tytuł strony i krótki opis.

  • PISOWNIA - Wykrywa i poprawia możliwe błędy pisowni oraz proponuje alternatywne zapytania.

  • SYNONIMY - Rozpoznaje słowa o podobnym znaczeniu.

  • TŁUMACZENIE I INTERNACJONALIZACJA - Dostosowuje wyniki na podstawie Twojego języka i kraju.

  • WYSZUKIWANIE UNIWERSALNE - Wyświetla trafne treści, takie jak obrazy, wiadomości, mapy, filmy i Twoje własne materiały, na wspólnej stronie wyników wyszukiwania.

  • KONTEKST UŻYTKOWNIKA - Wyświetla bardziej trafne wyniki na podstawie regionu geograficznego, Historii online i innych elementów.

  • WIDEO - W wynikach wyszukiwania filmów pokazuje miniatury, co ułatwia wybór filmu do obejrzenia.

Zasady budowania stron internetowych wg Google


Wg google zawartość strony powinna być:

  • PRZYDATNA I INFORMACYJNA. Jeśli twórca ma zamierza stworzyć witrynę na temat restauracji, warto umieścić w niej adres lokalu, godziny otwarcia, informacje kontaktowe, menu oraz blog omawiający planowane atrakcje.
  • CIEKAWSZA i bardziej pomocna niż inne podobne witryny. Jeśli witryna opisuje tresowanie psów, zamieszczane w niej artykuły muszą być ciekawsze lub powinny przedstawiać inny punkt widzenia, niż szereg innych artykułów na ten temat dostępnych w Internecie.
  • WIARYGODNA. Należy przekonać użytkowników, że treść witryny jest wiarygodna, publikując wyniki badań, cytaty, linki, recenzje i oświadczenia. Biografia autora lub oświadczenia klientów to świetny sposób na podwyższenie reputacji i renomy witryny.
  • WYSOKIEJ JAKOŚCI. Treści w witrynie powinny być niepowtarzalne, konkretne i wysokiej jakości. Nie warto nadawać jej masowego charakteru ani powielać na innych stronach. Treści w witrynie powinny być opracowane z myślą o odbiorcach, a nie pozycji w wynikach wyszukiwania.
  • ZACHĘCAJĄCA. Należy zadbać o kolorowy i atrakcyjny wygląd witryny, na przykład zamieszczając obrazy produktów, zdjęcia zespołu lub własne fotografie. Należy zadbać, by użytkowników nie rozpraszały błędy w pisowni i stylu wypowiedzi ani błędy merytoryczne. Zbyt dużo reklam także może robić złe wrażenie. Należy angażować gości, regularnie aktualizując treści, udostępniając możliwość dodawania komentarzy czy widżety mediów społecznościowych.

Należy zwrócić uwagę na problemy, które mogą wzbudzić nieufność użytkowników lub zniechęcić ich do odwiedzania witryny:


  • Niedopracowania, takie jak uszkodzone linki lub błędne informacje
  • Błędy gramatyczne i literówki
  • Nadmierna liczba reklam
  • Spam w komentarzach lub na forum

Porządkowanie treści w indeksie wyszukiwarki Google

Google w dążeniach do uporządkowania Internetu wprowadziło program „Marker danych”. Marker Danych jest narzędziem do wskazywania wyszukiwarce (robotom) informacji, które powinny być potraktowane jako dane stukturalne, czyli dane będące znacznikami opisującymi zawartość strony. Dane strukturalne mogą być uwidocznione w wynikach wyszukiwania jako dodatkowe opisy np. przedmiotu na sprzedaż, oraz w grafach wiedzy.
Dzięki markerowi danych można „wyjaśnić” przeglądarce, że treść strony/podstrony należy do typu:


  • Artykuły
  • Aplikacje
  • Filmy
  • Lokalne firmy
  • Produkty
  • Recenzje książek
  • Restauracje
  • Seriale telewizyjne
  • Wydarzenia


Dodatkowo Google wprowadziło jeszcze programy specjalnie skierowane do firm tj.: Google Moja Firma oraz Google Merchant Center.

Google Moje Firma – moduł wizytówki widoczny w wynikach wyszukiwania, ze wskazaniem lokalizacji na mapie


Google Merchant Center – moduł pozwalający sprzedającym udostępnienie danych o produktach, które mogą być prezentowane w wynikach wyszukiwania produktów (zakładka ZAKUPY)


Zarządzanie tak wielkim zasobem jak dane opublikowane, tj.: „skatalogowanie światowych zasobów informacji i uczynienie ich powszechnie dostępnymi i użytecznymi”  jest misją spółki Google Inc., obecnie spółki córki Alphabet Inc.



Komentarze

Popularne posty