Výsledky vyhľadávania Googlu sa menia neustále. Je však pravdepodobné, že väčšina ľudí to ani nepostrehne. Nemení sa totiž vzhľad, ale systémy algoritmov, ktoré hľadajú najvhodnejšiu odpoveď na otázky užívateľov a vyberajú najkvalitnejší obsah s najväčšou relevanciou. Teda, aspoň sa o to snažia.

A práve snaha o pochopenie týchto algoritmov je základným prvkom tzv. „SEO optimalizácie“   – Optimalizácie pre vyhľadávače.

Cieľom SEO optimalizácie je zasiahnuť a osloviť potencionálnych zákazníkov  práve v procese hľadania – produktov, služieb či ďalších informácií, ktoré ovplyvňujú nákupné rozhodnutia. Kľúčovým faktorom je v tomto prípade to, že majiteľ internetového obchodu, či služby, môže zacieliť užívateľov internetu, ktorí už hľadajú konkrétne informácie relevantné k jeho produktu, či priamo ľudí, ktorí sú už o nákupe rozhodnutí a hľadajú len konkrétneho dodávateľa.

MOZ, jedna z najpopulárnejších webových stránok, kde sa sústreďuje komunita SEO expertov, popisuje vývoj hodnotiacich algoritmov ako nikdy nekončiaci boj inžinierov Googlu proti SEO expertom, ktorí hľadajú spôsoby, ako zmanipulovať výsledky vyhľadávania vo svoj prospech.

Poďme sa v krátkosti pozrieť na vývoj tohto boja a na to, čo nás pravdepodobne čaká v budúcnosti.

Vývoj algoritmov Googlu

1998

Larry Page, jeden zo zakladateľov Google, predstavil revolučný algoritmus PageRank, ktorého úlohou je posúdiť kvalitu a dôležitosť jednotlivých webových stránok. Základná myšlienka PageRanku je, že na dôležité internetové stránky vedie viac odkazov z iných webových stránok. Internetové odkazy tak slúžili v podstate ako „hlasy“, ktoré hodnotili kvalitu stránok, na ktoré smerujú.

Fungovalo to veľmi dobre a bol to obrovský skok vpred oproti algoritmom, ktoré len primitívne skenovali texty stránok a hľadali rovnaké slová, ktoré do vyhľadávača zadal užívateľ. Samozrejme, veľmi rýchlo sa rozšírili techniky, ktoré mali zmanipulovať výsledné hodnotenie webov: napríklad umelo vytvorené spamové weby, ktorých jedinou úlohou bolo odkazovať na žiadaný web a tak zvýšiť jeho hodnotenie v očiach Googlu. Po takmer dvadsiatich rokoch od predstavenia PageRank algoritmu sa táto metóda stále čiastočne používa, keďže PageRank je stále jedným z najdôležitejších faktorov pri hodnotení kvality webových stránok.

2004

Google predstavil svoju reklamnú sieť AdSense, ktorá umožňovala majiteľom internetových stránok či blogov umiestniť inzeráty vedľa výsledkov vyhľadávania. Tejto „šance“ sa chopili aj mnohí spameri, ktorí vytvárali takzvané MFA weby – weby vytvorené len za účelom pritiahnutia návštevnosti z vyhľadávačov a presmerovanie tejto návštevnosti na stránky inzerentov. Takéto weby mali väčšinou obsah veľmi nízkej kvality, ktorý však bol maximálne optimalizovaný pomocou rôznych spamerských taktík. MFA weby pritom pravidelne obsadzovali predné priečky vo vyhľadávaní.

2005

Google a Yahoo predstavili „nofollow“ tag , ktorý umožňoval webmasterom označiť odkazy, ktoré nemali ďalej odovzdávať PageRank. Týmto spôsobom sa mal výrazne znížiť počet nízko kvalitných a spamerských taktík (napríklad na diskusných fórach).

Ďalšou dôležitou novinkou bolo predstavenie služby Google Analytics, ktorá je dodnes najpoužívanejšou službou pre sledovanie návštevnosti internetových stránok a vyhodnocovania správania ľudí na weboch. Otázka, či Google priamo používa dáta z tejto služby pre svoje algoritmy posudzovania kvality stránok, zostáva dodnes otvorená. Aj keď to Google už niekoľkokrát poprel, štatistické dáta zo služby Google Analytics majú príliš veľkú cenu pre posudzovanie kvality obsahu, aby bolo ľahké uveriť tomu, že Google ich proste ignoruje.

V tomto roku sa prvýkrát objavil aj koncept tzv. „perzonalizovaného vyhľadávania“. To znamená, že Google používa históriu vášho vyhľadávania na to, aby lepšie odhadol, ktorý obsah bude pre Vás najprínosnejší.

2008

Google zaviedol funkciu našepkávača – keď užívateľ začal písať vyhľadávaný výraz, Google mu automaticky ponúkol najčastejšie vyhľadávané výrazy. Tie sa samozrejme okamžite stali hlavným cieľom pre SEO optimalizáciu, keďže mali obrovský objem vyhľadávania.

2009

„Vince update“, predstavený v roku 2009, zvýhodňuje známe značky vo výsledkoch vyhľadávania. Tento koncept sa používa dodnes, keďže dôveryhodnosť spojená so známou a zaužívanou značkou je pre ľudí často tým najdôležitejším kritériom pri posudzovaní kvality obsahu daného webu.

Výrazným krokom vpred bola zmena dátovej infraštruktúry Googlu, ktorá umožňovala zobrazovať čerstvejšie výsledky nedávno publikovaného obsahu. Google začal vo výsledkoch zobrazovať aj výsledky v reálnom čase zo zdrojov ako Twitter a Facebook. O pár rokov neskôr však Twitter uzavrel svoj obsah pred Googlom a znemožnil tak jeho indexáciu.

2010

Google konečne priznal, že obsah a jeho úspešnosť na sociálnych sieťach ovplyvňuje jeho pozície vo vyhľadávaní. Pochopiteľne to okamžite viedlo k vzniku rôznych služieb, ktorých jediným cieľom bolo ovplyvniť sociálne metriky.

2011

V tomto roku sa „narodila Panda“. Nový algoritmus Googlu, ktorý sa snaží pochopiť význam samotného obsahu a ohodnotiť jeho kvalitu a prípadný prínos pre užívateľa. Pridaná hodnota pre užívateľa sa tak konečne stáva jednou z hlavným metrík na určenie pozície webu vo výsledkoch vyhľadávania.

2012

„Penguin“ (v preklade „tučniak“) je ďalší z rady algoritmov so zvieratkovým názvom. Tučniak je zameraný na penalizáciu webov, ktoré sa snažia o manipulatívne techniky s využitím nízko kvalitných odkazov. Okamžite po nasadení sa statisíce webov ocitli hlboko na dne výsledkov vyhľadávania. Jediným spôsobom, ako sa z penalizácie vymaniť, bolo manuálne označiť odkazy, ktoré boli podvodné a mali byť ignorované.

2013

V tomto roku sa dočkali zvýhodnenia spravodajské weby, ktoré boli uprednostňované vo vyhľadávaní v snahe poskytnúť ľudom najdôveryhodnejší a súčasne aj najčerstvejší obsah. Výhoda pre spravodajské weby trvá dodnes.

2014 a 2015

Tieto roky sa zaradili medzi najprísnejšie v oblasti nových hodnotiacich algoritmov. Bolo to spôsobené hlavne aktualizáciou Panda algoritmu. Jeho súčasťou sa totiž stala umelá inteligencia, ktorá sa na základe pozorovaní reálnych užívateľov učila sama hľadať faktory, ktoré umožňujú čo najlepšie posudzovať kvalitu a dôveryhodnosť obsahu.

Tým sa z pôvodného boja SEO expertov s inžiniermi Googlu stal boj so stále inteligentnejšími robotmi z Googlu. Účelom tejto evolúcie je ešte viac zvyšovať kvalitu výsledkov, ktoré dostane užívateľ.

Autor: Lukáš Chudý