Google algoritmusok: Panda, Pingvin, Kolibri, Fred és a többiek

Tartalomjegyzék
Bővített tartalomjegyzék

Az algoritmusok határozzák meg azt, hogy miként szerepel a weboldalad a Google találati oldalain. Ezért nem árt ismerni őket, és igazodni hozzájuk.

A Google keresőalgoritmusa mintegy ötszázszor frissül évente – Gary Illyes, a Google szakembere szerint naponta háromszor -, vannak különálló algoritmusok, és vannak, amelyek részei az alapalgoritmusnak. Ezek között akadnak olyanok, melyek manuális frissítésűek, tehát szakaszosan futnak le a frissítések, más része valós idejű, azaz folyamatos a változás. Egyes nagyobb algoritmus-frissítéseket bejelent a Google, a legtöbbet viszont nem. Ha jelentős változásokat hoz egy-egy update, akkor a szakma találgat az érzékelhető jelek alapján.

Az első hivatalosan is bejelentett algoritmus-frissítésre 2002 szeptemberében került sor. Ezt megelőzően a keresőmotorok havi frissítéseken estek át, mely az indexet és a PageRanket érintette. Az első nagy algoritmusfrissítést Bostonnak nevezték el, és innentől ezek rendszeressé váltak. Az igazán földrengésszerű mozgásokat okozó algoritmusok, mint a Panda vagy a Pingvin, azonban csak közel egy évtized múlva indultak el.

Ezeknek az algoritmusoknak a lényegét mi az alábbiakban összefoglaltuk, de aki kíváncsi az algoritmusfrissítések történelmére, az a Moz.com-on megtalálja az összeset szépen, időrendbe szedve, de a cikk végén is szolgálunk egy helyes infografikával erről.

A Panda algoritmus

A Panda először 2011 februárjában futott, és az volt vele a Google célja, hogy a jó tartalmat szolgáltató, jó minőségű oldalakat jobb helyre mozdítsa a találati listán, illetve a gyenge, duplikált, irreleváns és alacsony minőségű tartalommal rendelkező oldalakat kiszűrje. A Panda a minőséget tette elsődleges tényezővé, és egy sokkal kifinomultabb rendszert vezetett be az addigiaknál arra, hogy meghatározza a weboldalak minőségét.

Emellett a Panda volt az, mely elindította a viszonylag ritkán, de rendszeresen érkező algoritmusfrissítések korát. Az elkövetkező években érkező Panda 2.0 és a 3.0 is alaposan megbolygatta a keresőtalálati listákat. Azóta már több frissítése is érkezett, így évek óta tartja rettegésben a SEO-sokat, és innentől vált rendkívül fontossá, hogy a weboldalakat eredeti és jó tartalommal lássák el.

A Panda egy olyan algoritmus, mely átfogóan tekint a weboldalakra, és az egyik legfontosabb rangsorolási jelzéssé vált. A weboldalak minőségét értékeli, melyről a Google irányelveiben olvashatunk bővebben. A Panda teszi lehetővé a Google számára, hogy figyelembe vegye a minőséget, és ennek megfelelően alakítsa a rangsort.

Amikor a Panda 2011-ben elindult – akkor még Farmer néven – egy egyszerű spam-szűrő volt, mely azután lépett működésbe, hogy az alapalgoritmus elvégezte a munkáját, és attól teljesen elkülönült. 2016 eleje óta azonban már része az alapalgoritmusnak, ami azt jelenti, hogy amikor az alapalgoritmus módosul, akkor tulajdonképpen Panda-frissítésről is szó lehet. Legalábbis most már bármilyen alapalgoritmus módosítás kapcsolatban lehet a Pandával is. Mindez ugyanakkor nem jár a Panda, illetve az alapalgoritmus valós idejűvé válásával.

Mivel a Google-nek is érdeke, hogy a Panda által használt adatok minél frissebbek legyenek, ezért arra törekszenek, hogy az eddiginél gyakoribbá tegyék a frissítéseket. Ezekre a frissítésekre azonban manuálisan kerül sor, és nem is várható egyelőre olyan valós idejű futása a Pandának, mint más algoritmusaiknak.

Utoljára, különállóan egyébként 2015 júliusában futott le a Panda, akkor a 4.2-es verziója. Ennek indulását a legtöbben észre sem vették, mivel  egy nagyon-nagyon lassú frissítésről van szó, mely csak fokozatosan éreztette hatását, sőt voltak olyan pillanatok, amikor az addigi változások visszaváltoztak. A viselkedése tehát határozottan eltért már a korábbi Panda update-ektől, azok ugyanis jellemzően rövid időn belül nagyobb mértékű változásokat eredményeztek a weboldalak forgalmában.

A Pingvin algoritmus

A Pingvin algoritmus 2012 áprilisában indult el, és elsősorban azt akarta kikényszeríteni, hogy a weboldalak vegyék figyelembe a Google minőségi irányelveit. Aki ezt nem tette, az büntetéssel számolhatott, ahogy azok az oldalak is, melyek manipulációs célzattal építettek linkprofilt, hogy befolyásolják a találati listán való helyüket.

A Pingvin algoritmus a linkeknél tette meg azt, amit a Panda a tartalomnál. A Pingvin kiirtotta a túloptimalizált horgonyszövegű linkekkel rendelkező weboldalakat a találatok közül, és azt sem díjazta, ha gyenge minőségű oldalról, katalógusokból érkeztek ezek a hivatkozások a weboldalra.

A forrásoldalt értékeli

Amit érdemes tudni róla, hogy mint a Google hangsúlyozza: a Pigvin esetében egy “web spam” algoritmusról van szó. Ez azért fontos, mert a SEO szakemberek hajlamosak csak a linkekkel kapcsolatos szerepére fókuszálni, azonban a Pingvin nem csak a linkekre figyel, azaz nem kizárólagosan “link spam” algoritmusról van szó. Egy link esetében a forrásoldalon több tényezőt megvizsgál, majd a speciális jelzések alapján hoz döntést a link minőségére vonatkotóan.

Természetesen a linkeknél van jelentősebb szerepe, azonban a Pingvin nem magukat a linkeket értékeli, hanem elsősorban a forrás weboldalt, ahol a link szerepel. Tehát a Pingvin megnézi, hogy milyen oldalról van szó, mi a szerepe rajta a linknek, majd ez alapján hozza meg döntést, hogy leértékeli-e a linket vagy sem.

Ezért fontos, hogy a linkek jó minőségű weboldalakról érkezzenek, és ne értéktelen oldalakról. A Pingvin 4.0 révén azonban a gyenge oldalakról érkező linkek miatt sem büntet már a Google, csak leértékeli a linkeket. Büntetésre csak manuálisan kerülhet sor, ez viszont kizárólag akkor várható, ha valaki jelentős mértékben visszaél a linkekkel.

Címkézik a linkeket

Amit a Google linkekkel kapcsolatos technikájáról még érdemes tudni, hogy címkéket helyeznek minden egyes link mellé. Ilyen címkéből rengeteg van, és több is kerülhet egy-egy link mellé. Egy ilyen címke például, ha láblécben szereplő linkről van szó. Ennek jóval kisebb az értéke, mint egy szövegben szereplő linknek. Egy másik címke a Pingvin real time címke.

Ezek a címkék azért fontosak, mert a Google manuális beavatkozásokat végrehajtó szakemberei ezeket a címkéket figyelik, és ez alapján döntenek egy-egy manuális akcióról. Tehát ha például sok Pigvin real time címkét találnak egy oldalon, akkor közelebbről is megvizsgálják, hogy mi a helyzet ezzel az oldallal, és adott esetben kiszabnak egy büntetést is.

Utóbbi miatt érdemes használni a Pingvin 4.0 után is a disavow eszközt, hiszen ez is egy címkét jelent a link mellett, ami a Google-nek jelzi, hogy már lépéseket tettek a linkkel kapcsolatban.

Miért van okunk szeretni és egyben gyűlölni a Pingvint?

1. A Pingvin tette királlyá a tartalmat

A content is the king jelszót nem kell bemutatni senkinek, azonban sokáig nem tudott érvényt szerezni neki a Google, mivel a linképítéssel éveken keresztül sokkal előrébb lehetett jutni a találati listán, mint a jó tartalommal. Ezt változtatta meg a 2012-ben elindított Pingvin.

2. MEGVÁLTOZTATTA A HOZZÁÁLLÁST

Mivel a Pingvin egy büntető algoritmus, ezért a legtöbb SEO szakember nem mer már kockáztatni black hat módszerekkel. Túl nagy a veszítenivaló. Most már elsősorban arra törekszenek, hogy minőségivé és relevánssá váljon a weboldalak linkprofilja a rossz linkek kidobálásával és jó linkek megszerzésével.

3. MÓDOSÍTOTTA A JÁTÉKOT

Míg a linképítés aranykorában egyáltalán nem volt gond, hogy az erre irányuló szolgáltatásokat a megbízott digitális ügynökségek mindenféle külső vállalkozóktól megrendelhették, akik hozták a mennyiséget, addig a Pingvin ennek a modellnek a további működtetését lehetetlenné tette.

4. TÖNKRETEszi A KISVÁLLALKOZÁSOKAT?

Sok szakember szerint a Google mostanra már valamiféle közműcégre kezd hasonlítani. A gazdaság és az internet digitális infrastruktúrájának egy meghatározó része lett, ugyanakkor nem kötik semmiféle külső szabályok. Magáncégként nagyon könnyen és gyorsan tud hatással lenni az egész gazdaságra egy-egy algoritmusmódosítással. Ugyanakkor Josh Bachyski szerint a büntető algoritmusok futtatásához hiányzik a megfelelő morális alapja. Az önkényes büntetésekkel pedig kisvállalkozásokat tehet tönkre pillanatok alatt (eltüntetve őket a keresési találatok közül).

5. Megteremtette a negatív seo-t

Mivel a Pigvin elkezdte büntetni a gyenge forrásokból érkező linkeket, így megjelentek azok az emberek, akik ezt elkezdték kihasználni, mégpedig úgy, hogy a konkurencia számára csapnivaló linkprofilt építettek, hogy az emiatt érkezett büntetéssel ellehetetlenítsék. Habár a Google szerint ez az úgynevezett negatív SEO nem igazán működik, sokan úgy gondolják, hogy ennek ellenére létezik, és sokkal nagyobb a hatása, mint azt a Google gondolja.

6. WEBSZOLGÁKKÁ TETTE A WEBMESTEREKET

A Pingvin büntető algoritmusként kivette az irányítást a webmesterek kezéből, és átengedte egy harmadik félnek. Nincs hatásuk ugyanis arra, hogy ki és hogyan irányít linkeket a weboldalukra, pedig a találati besorolásnál ez sokat számít. Miközben nagyon nehéz elérni, hogy egy-egy link kikerüljön a megfelelő oldalakra, addig nagyon könnyű megjelentetni olyan oldalakon, ahol nem szeretnék, ha megjelenne. A Google-nek ezért optimális megoldásként lehetőséget kellene teremtenie a webmestereknek, hogy a megjelenő backlinkeket moderálják, ahelyett, hogy nekik kellene felfedezni ezeket, és aztán disavow fájlt használni megoldásként.

Mi a helyzet most?

Hivatalosan 2016. szeptember 23-án frissült a Google Pingvin, mely a Pingvin 4.0 nevet kapta. Két évet kellett várni a Google lépésére. Az algoritmus azonban az előzetes híreknek megfelelően valós idejű lett, és része az alapalgoritmusnak. Mindez azt jelenti, hogy további verziók nem lesznek, a folyamatos futás révén állandó jelleggel értékeli a weboldalakat.

Mint a Google szemptember 23-i bejelentéséből kiderült, vadonatúj az algoritmus, nem csak a régit pofozgatták. Feltehetően ezért is volt vele annyi munka. A szakértők azonban már korábban, szeptember során többször érzékeltek mozgásokat a találati oldalakon, és sokan azt tippelték, hogy a Google elkezdte tesztelni a Pingvin 4.0-át. A cég persze nem erősített meg semmilyen információt, azaz nem lehetett tudni, hogy a jelzések kapcsolódnak-e az új Pingvin indulásához.

Gary Illyes Twitteren az indulás kapcsán úgy nyilatkozott, hogy “ez egy meglepően komplikált kérdés”. Mint kiderült ugyanis, a Pingvin 4.0 több részből állt, melyek egymástól elkülönítve, más-más időpontokban indultak el. A szeptember 23-i bejelentési dátumot úgy választották ki, hogy akkorra essen a legjelentősebb “rész” indulása. Elvileg ekkor már az utolsó szakasz futott ki. Azt azonban Illyes nem árulta el, hogy az egész folyamat, tehát az első rész mikor indult el.

Azóta viszont kiderült egy-két érdekes részlet. De lássuk először, milyen is lett az utolsó Pingvin!

VALÓS IDEJŰ

Most már egy real time futású algoritmusról van szó – akárcsak a Pandánál. Így a jövőben már nem lesz abban a szerencsében részünk, hogy körömrágva várhatjuk az újabb és újabb verziókról szóló bejelentéseket. A valós idejűség a gyakorlatban azt jelenti, hogy minden módosulás a linkeknél gyors változást jelenthet a találati listán. Ezt a gyorsaságot úgy kell érteni, hogy amint a Google újra átfésüli és újraindexeli az oldalaidat. Ez bizonyos esetekben gyorsan történik, bizonyos oldalaknál viszont akár hetekbe, hónapokba is beletelik az újraindexelés. Ha a Google gyakran indexeli újra a weboldalaidat, akkor gyorsan érkezik a változás, ha viszont csak ritkán, akkor több hétbe is beletelhet. Ennyit tehát adott esetben várni kell egy-egy link hatására.

Korábban a dolog úgy nézett ki, hogy időnként – régebben jellemzően fél évenként – elindított egy frissítést az adatbázisban a Google, ami azonnal éreztette a hatását. Ez persze azzal járt, hogy ha valaki büntetés alá került a manipulatív linkjei miatt, akkor a korrekció után meg kellett várnia, míg újra frissít a Google. Most viszont, ha sor kerül az újraindexelésre, máris látható az eredmény.

NEM AZ EGÉSZ WEBOLDALT BÜNTETI

Ráadásul kifinomultabb is lett az algoritmus, azaz nem az egész weboldalt bünteti, mint korábban. Az azonban nem egyértelmű, hogy mit. Elképzelhető, hogy csak az adott oldalt, ami spamnek tűnik számára, vagy bizonyos oldalcsoportokat. Viszont az ezzel kapcsolatos részeknek kicsit homályos a megfogalmazásuk, és azóta sem tisztázta száz százalékosan a helyzetet a Google.

HELYREÁLLNAK A BÜNTETETT OLDALAK

A Pingvin 4.0 részeként a Pingvin 3.0 által kiszórt büntetések alól mentesültek azok az oldalak, akik megszabadultak a spam linkektől. Helyezés-javulásra csak abban az esetben lehetett számítani, ha a Google 3.0 óta eltelt két évben az adott oldalnak sikerült értékes linkeket szereznie.

NEM BÜNTET, HANEM LEÉRTÉKEL A PINGVIN 4.0

Ami fontos változás a 3.0-ához képest, hogy a Pingvin 4.0 már nem “bünteti” a weboldalakat, ha rájuk mutató spam linkeket talál a Google, hanem úgymond “leértékeli” a spam linket. Ezt maga Gary Illyes jelezte egy facebookos hozzászólásban. Ugyanakkor azt is elmondta hogy a Google ajánlása a disavow fájl használatára vonatkozóan nem változott. Tehát ahhoz, hogy Pingvin büntetés alól kikerüljünk, érdemes használni a disavow fájlt. Ugyanakkor persze kérdés, hogy ha a Google csak leértékeli a spam linket, és nem büntet miatt, akkor minek használnánk? Később kiderült, hogy jogos a kérdés.

Illyes ugyanis a kérdésre válaszolva megjegyezte, hogy most már valóban kevésbé lesz szükség a diasavow fájl használatára. Ugyanakkor a disawov eszközzel segíteni tudjuk a Google munkáját is. Azaz jobb rálátása lesz arra, hogy melyek a spam linkek. És mivel kézi beavatkozásokra sor kerül, így ha látják, hogy valaki rendszeresen spammelni próbál, felléphetnek ellene.

A lényeg azonban itt az, hogy a Google a továbbiakban már nem bünteti a weboldalakat, illetve most már csak egyes aloldalaikat. Ehelyett inkább csak ignorálja/leértékeli a spam linkeket, így korrigálva a rangsorolást. A büntetés ugyanis azt jelentette, hogy általa romlott egy weboldal helyezése, ha valami rosszat tett. A leértékelés viszont azt, hogy gyakorlatilag a Google nem vesz tudomást a spam linkről, de miatta nem bünteti a weboldalt. Annyit romlik csak a helyezése, amennyivel kevesebbet ér az adott link, amiről nem vesz tudomást a Google. Vagyis adott esetben nem a 10. oldalra kerül egy weboldal, hanem mondjuk csak pár helyet csúszik lejjebb a találati listán. Így aztán a Pingvin miatt nem is igazán van értelme használni a disawov fájlt, inkább csak kézi beavatkozásoknál.

FELÉLED A BLACK HAT LINKÉPÍTÉS?

Az, hogy már nem büntet a Google a spam linkek miatt olyan szempontból nem jó hír – már ha tényleg pontosan így van -, hogy újra megnyílik az út a black hat SEO kísérletezek előtt. Mivel úgysem büntet a Google, legfeljebb nem eredményez javulást a találati oldalon a spam link, mivel ignorálja.

Ugyanakkor lehetséges, hogy a spam linkek miatt a Google balck hat módszereket használó weboldalakat nem engedi emelkedni a találati listán, amíg el nem távolítják a spam linkeket. Ez azonban csak feltételezés, és valószínűleg nem ez most a helyzet, legalábbis a Google szavai alapján.

Hogy végül mi lesz, az csak gyakorlatban fog kiderülni. Nálunk eddig is virágoztak a feketekalapos és szürkezónás linképítési technikák, mivel sem az algoritmus, sem a kézi beavatkozások nem működtek hatékonyan. Így várhatóan ezután is így lesz még jó darabig. Legalábbis, amíg nem lép fel nálunk is ugyanolyan hatékonysággal a Google, mint angol nyelvterületen.

A Kolibri (Hummingbird) algoritmus

A 2013 szeptemberében érkező Kolibri nem a veszélyes algoritmusok közé tartozik, mégis jelentősen megváltoztatta a dolgokat. Elkezdődött a szemantikus keresés korszaka, melyben már a felhasználók szándékát igyekszik kitalálni a Google, és nem csak azt nézi, hogy milyen szavakat ír be a keresőbe. A Kolibri megjelenésére azért került sor, mert a Google-nél felfigyeltek arra, hogy az emberek már nem kulcsszavakat írnak be kereséskor, hanem komplett kérdéseket.

A Kolibri esetében fontos megérteni, hogy nem egy büntető algoritmusról van szó, mely képes romba dönteni évek SEO munkáját. Ennek ellenére mégis érdemes némi figyelmet szentelni neki. Többek között azért is, mert a Kolibri a Google fő kereső algoritmusa, amelynek csak része a Panda és a Pingvin, ez a jelen és a jövő, ehhez kell igazodni.

A Kolibri egy újabb lökés volt abba az irányba, hogy még távolabb kerüljünk a linképítő, kulcsszavazó SEO-tól. Ahol annyi volt a feladat, hogy meg kellett szerezni egy nagy halom oldalunkra mutató linket – mindegy hogyan, csak link legyen -, és teleszemetelni kulcsszavakkal a szövegünket a minél több, annál jobb elv alapján, különös tekintettel a kiemelt fontosságú mezőkre. Ekkor elő is állt a kiválónak számító tartalom a Google keresője számára.

Ebbe már belerúgott évekkel korábban a Panda és a Pingvin, erősen szűrve az addig természetesnek és bizonyos szintig nem üldözött módszernek számító külső linkek halmozását és kulcsszavakkal teli, de gyenge tartalmat. Aztán ráerősített a Kolibri algoritmus, nem látványosan, viszont nagyon mélyrehatóan.

A Kolibri algoritmus szemantikussá tette a keresést, vagyis elkezdte kontextusában is értelmezni a keresőmezőbe beírt kifejezéseket, elsősorban persze a kérdéseket, és maga megadni rá a helyes választ. Tehát már nem pusztán a szavakat veszi figyelembe a Google, hanem próbálja megérteni magát a kérdést, azt hogy a mögötte álló felhasználó pontosan mit akarhat tudni. Ezért a weboldalak szempontjából az egyébként is fontos tartalom fontossága csak fokozódott, emellett felhasználóközpontúvá is vált. Nem elég már csak tartalmat gyártani, hanem a különböző felhasználókra kell szabni azt.

A Kolibri algoritmus ugyanis már olyan tényezőket is figyelembe vesz a találati lista kialakításánál, hogy honnan és milyen eszközzel netezik a felhasználó, melyek az érdeklődési körei, korábban milyen oldalakat látogatott meg, mire szokott keresni, stb. Ennek eredményeként sokkal természetesebb, párbeszédszerűbb, azaz kérdés-felelek jellegű és jobb keresési találatok jelennek meg. (Ami egyébként még inkább keresztbe tesz azoknak, akik tele akarják spamelni a találati oldalakat.)

A Google ugyan azt mondja, hogy a Kolibri algoritmus az indulását megelőző 12 év legnagyobb változását hozta a keresésben – hiszen olyan szinten írták át a keresőalgoritmust, amire 2001 óta nem volt példa -, azonban a weboldalak az új algoritmus hatására nem éreztek földindulásszerű változásokat. Sokan ugyanis még mindig kulcsszavakban gondolkodnak, és ha beírunk egy kulcsszót a keresőbe, akkor ott kisebb tere nyílik a Kolibrinek, hogy megcsillogtassa intelligenciáját (de azért ilyenkor is akadnak különbségek). A Google szerint viszont egyre többen nem kulcsszavakat írnak be, hanem kérdéseket, melyekre választ akarnak. A kereső pedig a legjobb választ akarja adni nekik.

Az irány tehát nem változott a weboldaltulajdonosok számára: továbbra is a lehető legjobb minőségű, eredeti tartalom előállítására kell összpontosítani, mely remélhetőleg hozza magával a külső linkek megjelenését. Ugyanakkor a kulcsszóelemzést se felejtsük el, hiszen ezáltal ismerjük meg olvasóink, felhasználóink érdeklődési körét, így tudjuk meg, hogy mire keresnek. És minél jobban megértjük ezt, annál jobb válaszokat tudunk megfogalmazni számukra a weboldalunkon.

A RankBrian algoritmus

A mesterséges intelligenciát használó algoritmus célja, hogy a Google jobban megértse az új keresési kifejezéseket. Nem csak angol nyelven működik, hanem minden nyelven, így magyarul is “tud”. A RankBrain nem váltotta le a jelenlegi Google alapalgoritmust, mindössze egy újabb jelzés a több ezer jelzés közül, melyeket a Google figyelembe vesz a találati oldalak alakításánál. Ugyanakkor rendkívül fontos jelzés: Greg Corrado, a Google szakembere szerint a harmadik legfontosabb jelzés a találati lista kialakításánál a tartalom és a linkek mellett.

A RankBrain lényege egyébként nagyon egyszerűen megfogalmazva annyi, hogy amikor találkozik egy eddig nem látott keresőkifejezéssel (napi 15 százalékban ez előfordul), akkor vektorokat használó mesterséges intelligenciája révén igyekszik megérteni, hogy valójában mi is lehet a lényege az adott keresésnek. Vagyis a szavakat és a mondatokat vektorokká alakítja, hogy azt a számítógépek is megértsék.

Lényeges, hogy a RankBrain nem a bizonytalan és távoli jövőben megvalósuló fejlesztés, hanem már most is hatással van a találati oldalakra, tehát már láthatjuk működés közben. A Search Engine Land szerint a hosszú keresési kifejezéseket leegyszerűsíti könnyebben kezelhető kulcsszavakká. Ugyanakkor nem egy folyamatosan tanuló algoritmusról van szó, hanem rendszeresen frissíteni kell, mint a Google más algoritmusait is. A The SEM Post szerint a RankBrain határozottan megváltoztatta azt, ahogy a Google látja és kezeli a kereséseket, még akkor is, ha ez a SEO-sok számára észrevétlenül történt. További információkat itt találsz még a RankBrainről.

Mobilbarát algoritmus

Nem rengette meg a világot a 2015 áprilisában érkező Mobilbarát algoritmus sem, mely csak néhány oldalt érintett, és ezáltal nagy csalódást okozott az izgalomtól remegő kezű SEO-soknak. Ennek talán az lehetett az oka, hogy a Google már rangosorolási jelzésként eddig is figyelembe vette bizonyos mértékben a mobilra optimalizáltságot. Amit tudni kell róla, ezen cikkünk egyik fejeztében már összefoglaltuk.

Minőségi (Quality, Phantom 2) algoritmus

A Quality Update, azaz a Minőségi algoritmus, az alapalgoritmus része, és soha nem volt olyan különálló algoritmus, mint például a Panda. Arra van hatása, hogy miként értékeli a Google algoritmusa a minőségi jelzéseket. A Google a tényezők igen széles skáláját veszi figyelembe egy-egy oldal minőségének meghatározásánál, ezeknek a tényezőknek van egy súlyozása, és amikor néhány tényező súlya nő, másoké pedig csökken, akkor beszélhetünk a minőségi algoritmus változásáról.

2015. május 3-án például egy 870 ezer miniblogot tartalmazó weboldal, a HubPages 22 százalékos forgalomcsökkenést szenvedett el az eleinte Phantom 2-nek, majd később Minőséginek nevezett algoritmus hatására. De nem csak egy-egy blogot érintett az akkori csökkenés, hanem a teljes honlapot, vagyis domain-szintű volt az algoritmus. Egyértelműen kirajzolódott a forgalomcsökkenés több “how to” weboldal esetében, melyeknek elég gyenge volt a tartalmuk. Közéjük tartozik a HubPages, az eHow, a WiokiHow és az Answers.com. Az érintett oldalak között voltak olyanok, melyek szerinte tényleg kifejezetten idegesítőek voltak, a felhasználókat és a Google-t is átverték.

Fred: újgenerációs minőségi algoritmus

Március 7-étől egy nagy hatású, de a Google által nem megerősített algoritmusfrissítésre figyelt a SEO-közösség. A Fred algoritmus az első feltételezések szerint a linkminőséget érintő vonatkozását célozta a fő algoritmusnak. Később azonban árnyaltabbá vált a kép, és a reklámmegjelenéseket kezdték gyanúsítani a szakemberek, majd a tartalom a minőségét. Ugyanakkor sokan semmiféle összefüggést nem láttak a mozgásoknál. Ennek a nagy bizonytalanságnak valószínűleg az az oka, hogy egy egészen új fajta minőségi algoritmust vetett be a Google.

Mivel a legtöbb észlelt, nagyobb horderejű algoritmusfrissítésnek adnak nevet a SEO-sok, így ez is kapott: Fred lett. A Fred egyébként Gary Illyes, a Google szakemberének ötlete volt, aki viccesen azt javasolta, hogy ezentúl minden algoritmusfrissítést nevezzenek Frednek. A lényeg azonban az, hogy már kezdetben jelentős hatása volt a frissítésnek, az elsők között az úgynevezett “black hat” SEO berkekben, vagyis azok esetében, akik nem tisztességes megoldásokkal dolgoznak. Az ő körükben a felbolydulás pedig általában arra utal, hogy linkekkel kapcsolatos változás történt. A dolog azonban nem ilyen egyszerű.

A GOOGLE NEM MONDott SEMMIT

A Fredet megelőzően 2017. február elején került sor egy spamlinkekkel kapcsolatos frissítésre, melyet megerősített a Google, a Fredet azonban nem. Igaz nem is cáfolta. Február elején volt egyébként egy másik frissítés is, mely a tartalom minőségét érintette, és ezt sem erősítette meg a Google. Ez az eljárás szokása a keresőóriásnak. Gary Illyes és John Mueller csak a megszokott dolgokat mondta a Twitteren, vagyis hogy a Google-nél folyamatosak az algoritmusfrissítések, és hogy egy nap alatt átlagosan háromra is sor szokott kerülni.

A Google megerősítésétől függetlenül azonban a találati listákat figyelő eszközök mind jelentős mozgásokat észleltek, melyek általában algoritmusfrissítést jeleznek. Arról nem is beszélve, hogy nagyon sokan panaszkodtak visszaesésre a találati oldalakon, míg mások a helyezésjavulásuknak örültek. Ez pedig igen valószínűvé tette, hogy valóban algoritmusfrissítésre került sor. Ez világosan látszik az alábbi grafikonokon is.

A Fred algoritmus felbukkanása

A Fred algoritmus felbukkanása

KEZDETI ZAVAR

Barry Schwartz, a SEO Roundtable szerzője 70 érintett oldal elemzése kapcsán pár nap elteltével arra jutott, hogy 95 százalékuk esetében sok volt rajtuk a tartalom és a reklám. Feltételezése szerint az oldalakat azért hozhatták létre, hogy hirdetéseket jelenítsenek meg rajtuk, és az embereknek egyébként kevés hasznukra voltak. Ezek az oldalak jelentős forgalomesést – egyes esetekben akár 90 százalékost – szenvedtek el az algoritmusfrissítés miatt. Feltételezése szerint egy korábbi algoritmusfrissítésnek, például a Phantomnak a kibővített verziója csapott le most sok weboldalra.

Mindez azonban egyáltalán volt biztosra vehető, hiszen sokan a gyenge tartalmakat gyanúsították, sokan viszont egyáltalán nem értették, mi történt, mert olyan weboldalak helyezését is rontotta a frissítés, melyekkel – úgy tűnt – nem volt semmi probléma. Akadtak, akik úgy vélekedtek, hogy semmiféle kapcsolat nem állapítható meg a felfelé és lefelé mozduló oldalak között. Aminek persze akár az is oka lehet, hogy a Google egyszerre több algoritmust is frissített, így keltve némi zavart.

A FRED ALGORITMUS EGY ÚJGENERÁCIÓS MINŐSÉGI ALGORITMUS

JenniferSlegg, a SEM Post szerzője úgy véli, hogy pont ez a lényeg. Mármint az, hogy a szakemberek és az érintettek nem tudják eldönteni, hogy milyen típusú algoritmusfrissítésre került sor. Ez pedig azt mutatja, hogy egy újgenerációs minőségi algoritmusról lehet szó. Ez az algoritmus képes egyszerre értékelni a weboldalaknak több olyan vonatkozását is, melyek alacsony minőségre utalnak. És persze a megfelelő feltételek teljesülése esetén leértékeli az oldalt.

Más szavakkal: azokat a weboldalakat bünteti, melyeket a SEO érdekében a Google kedvéért alakítottak olyanná, amilyenek, és nem a felhasználók igényeit veszik figyelembe. Ez összecseng azzal, amit Barry Schwartz is állít: ezek a weboldalak nem elsősorban az emberek érdekében léteznek. Fontos azonban, hogy Fredet

SZÉLESEBB PERSPEKTÍVÁBÓL KELL SZEMLÉLNI!

Ha így tekintünk rá, akkor kiderül, hogy az érintett oldalakban van valami közös: mégpedig az, hogy elsősorban a Google kedvéért hozták őket létre, és nem a felhasználókért. És teljesen mindegy, hogy a weboldaltulajdonos milyen jól próbálja vagy tudja leplezni azt, hogy pusztán a reklámbevételekért vagy a linkekért létezik az oldal.

Habár a Panda is a minőséget kéri számon a weboldalaktól, de csak a tartalmat vizsgálja. A Fred algoritmus annyiban különbözik tőle, hogy nem csak a tartalmat elemzi, hanem több más, minőségre utaló tényezőt is figyelembe vesz. Olyan oldalakat kap el, melyeket a Google minőségértékelőknek szóló iránymutatása alapján is gyenge minőségűnek kellene besorolni.

NEM A REKLÁMOK SZÁMÍTANAK, HANEM AZ ELHELYEZÉSÜK?

Habár azon weboldalakon, melyek a Fred leértékelése után eltávolítják a reklámokat, talán segít ez a lépés, ugyanakkor azt látni kell, hogy nagyon sok olyan, jó minőségű weboldal van, melyek ugyan tele vannak reklámokkal, mégis megmaradt a jó helyezésük. Ez pedig azt jelzi, hogy nem kifejezetten a reklámok mennyisége az ok, ami miatt egy oldal rangsorolása romlik a Fred miatt.

Tehát, ha elérte a Fred algoritmus a weboldaladat, és reklámok is vannak rajta, akkor nem biztos, hogy magukkal a reklámokkal van gond, hanem inkább az elhelyezésükkel. Például azok a reklámok, melyek az embereket folyamatosan megszakítják az olvasásban (mert mondjuk minden második bekezdésre jut belőlük egy) rossz minőséget jeleznek, mivel egyértelmű, hogy kattintást akarnak elérni a tartalom fogyasztása helyett. Ez egyébként a Google minőségértékelőknek szóló útmutatása (Quality Rater Guidelines) alapján is egyértelmű jelzés a gyenge minőségre.

AKKOR MI A HELYZET A LINKEKKEL ÉS A TARTALOMMAL?

Itt is a minőség a kérdés, azaz a weboldaladon szereplő és a weboldaladra mutató linkek az emberek hasznára vannak? Vagy csak a Google és a SEO miatt? Ha utóbbi, akkor az a Fred számára gondot jelent.

A tartalomnál is a minőséget kell vizsgálni. Azt, hogy a szöveg tartalmaz-e bármi eredetit, van-e hozzáadott értéke. A Fred algoritmus által érintett weboldalaknál hiányzik az úgynevezett “kiegészítő tartalom”. Vagyis azok a szövegek, képek, egyéb információk, melyek a konkurenciánál értékesebbé tehetik az adott oldalt. Hiányzik az a minőség, amiről a Google beszél a minőségértékelőknek szóló útmutatásban.

A GOOGLE EGYRE OKOSABB, A WEBOLDALTULAJDONOSOKNAK PEDIG EGYRE NEHEZEBB

Úgy tűnik, hogy a Google már algoritmussal is be tudja azonosítani az alacsony minőségi jellemzőket, legalábbis angol nyelvterületen. Ezeket sokáig csak manuálisan tudták eddig megfogni, vagyis emberek voltak csak képesek ennyire kifinomultan értékelni egy-egy weboldal minőségét.

Mindez persze azt is jelenti, hogy az érintett weboldalak tulajdonosainak nehezebb lesz a dolguk a helyreállítást tekintve. Hiszen míg egy-egy manuális akció után világos volt, hogy mi a gond a weboldallal, addig ha az algoritmus büntet, nehéz kitalálni, hogy pontosan mivel van gondja.

Ugyanakkor az ilyen oldalak tulajdonosainak a javítás egyébként is nehéz, hiszen azon kellene változtatni, hogy ne a Google jelentse számukra a célpontot, hanem az embereknek készítsék a weboldalaikat. Jennifer Slegg szerint nekik elsősorban a minőségértékelési irányelvekkel kellene mélyebben megismerkedniük, és követni az abban olvasottakat a weboldal kialakítása során. És persze nem rózsaszín szemüvegen keresztül nézni a weboldalukat, hiszen az útmutatás alapján még egy jó minőségű oldalon is van mit javítani.

Azoknak a weboldaltulajdonsoknak pedig korai örülni, akiket egyelőre nem érintett a Fred algoritmus és gyenge minőségű az oldaluk, ugyanis a Google folyamatosan fejleszti az algoritmusait. Így aztán a későbbiekben bármikor sor kerülhet a weboldaluk leértékelésére, ha nem állnak neki a munkának és fejlesztik.

Kalóz algoritmus

A Kalóz algoritmus az illegális tartalmakat kínáló oldalakat próbálja kiszűrni. Egy egészen hasonló algoritmusról van szó, mint a Panda vagy a Pingvin esetében, tehát úgy dolgozik, mint egy szűrő: a Google megvizsgálja az általa ismert oldalakat a Kalóz algoritmussal, és amelyik fennakad, azokat hátrasorolja a találati listán. Ugyanúgy mint a másik két algoritmusnál, ebben az esetben is egészen addig nem kaphat ismét jó helyezést egy büntetett oldal – a panaszok megszűnése vagy legalábbis megritkulása esetén -, amíg újra nem fut a Kalóz algoritmus.

A Kalóz algoritmust először 2012 augusztusában engedte el a pórázról a Google, majd következett több mint két évnyi csend. A cég azonban a külső nyomás hatására talán úgy vélte, hogy tennie kellene valamit. A Pirate Update 2 2014 októberében érkezett.

Doorway page algoritmus

A Google igyekszik kiszorítani az előszobaoldalakat, azaz doorway page-eket a találati listáról, mégpedig egy külön algoritmussal, mely a Panda kiegészítéseként fogható fel.

Az ok pedig egyszerű: ezek az oldalak igen jól optimalizáltak egy-egy kulcsszóra, viszont a látogatót egy másik weboldalra irányítják – ahol az adott kulcsszó talán nem is szerepel -, tehát tulajdonképpen a Google keresőrobotok és így a látogatók megtévesztésével terelnek forgalmat.

Fontos ugyanakkor, hogy nem keverendők össze a landing oldalakkal, melyek hasznos információkkal szolgálnak a látogatók számára, míg az előszobaoldalak alapvetően irreleváns információkkal tévesztik meg őket a találati listán. (Kérdés persze, hogy a Google algoritmus nem fogja-e őket időnként keverni, azaz hogy hány olyan oldal esik majd áldozatául, ami nem tartozik az előszobaoldalak közé.)

A Google az előszobaoldalakat egyébként így definiálta (magyarul), míg a bejelentésében úgy fogalmazott, hogy igen gyakran találkoznak olyan oldalakkal a neten, melyek a “keresési lábnyomuk” maximalizálására törekszenek, anélkül, hogy értékes, egyedi tartalommal szolgálnának. A találati lista javítása érdekében hamarosan némi kiigazításra kerül sor, amikor is megszűrik ezeket az előszobaoldalakat. Egyelőre tehát még nem élesedett az algoritmus, azonban hamarosan találkozhatnak a hatásával azok, akik ilyan doorway oldalakat használnak.

Honnan lehet tudni, hogy valamely oldalaid előszobaoldalnak számítanak-e a Google szemében? Erre is megadja a választ a keresőcég. Az alábbi kérdéseket kell feltenned magadnak:

  • A keresőmotorokra optimalizált, a látogatókat egy másik, már valóban használható oldalra terelő site-ról van szó, vagy pedig a weboldalad jó felhasználói élményt nyújtó, integráns része?
  • Egy általános kifejezésre akar jó helyezést elérni, miközben az oldalon található tartalom nagyon specifikus?
  • A weboldaladon már megtalálható elemeket (hely, termékek, stb.) tartalmaz annak érdekében, hogy nagyobb keresőforgalmat érj el?
  • Pusztán az a célja, hogy a forgalmat tereljen olyan affiliate oldalakra, melyek nem rendelkeznek semmiféle egyedi és értékes tartalommal vagy funkciókkal?
  • Ezek az oldalak mintegy “szigetként” léteznek? Az oldalad más részeiről egyébként nem lehet vagy nagyon nehéz elérni? Esetleg az oldaladról az előszobaoldalra mutató linkek csak a keresőmotorok miatt léteznek?

Ezeket a kérdéseket érdemes végiggondolni, habár feltesszük, hogy aki előszobaoldalakat használ, az azért nagyjából tisztában van azzal, hogy miről van szó, és miért is használja ezeket. Aki viszont nem, az ezek után inkább már ne vágjon bele egy előszobaoldalakra épülő megoldásba.

Ha elér egy Google-büntetés, a helyreállítással sem szerzed vissza a régi helyezésed

Amiről itt szót kell még ejteni, az a Google-büntetések kérdése. A felsorolt algoritmusok között ugyanis szerepelnek büntető algoritmusok, melyek futásakor alaposan leértékelődhet a weboldal, vagy akár el is tűnhet a találati listákról. Ilyenkor persze lehet törekedni a helyreállítása az oldal rendbe tételével, kérdés azonban, hogy ez milyen eredményt hoz. A Google szakembere szerint egy büntetés után nem nagyon érdemes a visszatérésben reménykedni.

Egy büntetés utáni helyreállás nem azt jelenti, hogy valaha is visszaáll az a büntetés előtti, eredeti állapotba az oldal a keresőben. Ezt John Mueller, a Google sokat idézett szakembere jelentette ki egy Google+ hangoutján. Hogy miért nem? Mert mint mondta, a web állandóan változik, és így a dolgok soha sem lesznek ugyanazok, mint egykor.

A HELYREÁLLÍTÁS NEM JELENT AZONOS POZÍCIÓBA VALÓ VISSZTÉRÉST

Logikus egyébként, hogy egy büntetés-eltávolítás nem jelenti azt, hogy a helyezésünk a károk elhárítása után ugyanolyan jó lesz, mint a büntetés előtt. Értelemszerűen ennek az az oka, hogy ugyanazok a tényezők eredményezték a rangsorolási előnyünket, amelyek a büntetést kiváltották. Tehát, ha a büntetést kiváltó tényezőket megoldjuk, akkor ezek már nem biztosítják a jobb helyezést számunkra. A Google szakembere azonban egy kicsit máshová helyezte a hangsúlyt.

A kérdező jelezte, hogy sokat veszített a helyezéséből a weboldala, valószínűleg egy Panda algoritmusfrissítés következtében. Arra volt kíváncsi, hogy ha a minőségi problémákat kiküszöbölik, akkor helyreállítja-e a Google a helyezését.

John Mueller ennek kapcsán elmondta, hogy természetesen megpróbálják figyelembe venni az erőfeszítéseket a probléma megoldására. Tehát amikor azt látják, hogy a weboldalon jelentős változások történtek az oldalak minőségét illetően, akkor feltételezhetően pozitív változások következnek be a helyezést illetően is.

AZ OK: AHOGY TELIK AZ IDŐ, SOKAT VÁLTOZIK A WEB

Ugyanakkor szinte soha nem kerül sor arra, hogy olyan pozícióba jusson vissza az oldal, ahol a büntetés előtt állt. Hiszen eltelt egy bizonyos idő a büntetés és megoldása között. Eközben a dolgok változtak az interneten, ahogy változott a Google algoritmusa is. Tehát, ha semmi nem történt volna az oldallal vagy akár az algoritmussal, akkor is fejlődött volna azon idő alatt a web. Így pedig az előző állapot semmiképpen nem lenne azonos az új állapottal.

Tehát, ha mondjuk három évvel egy bizonyos keresőkifejezésre egy bizonyos pozíciót foglalt el az adott weboldal, majd rendbe lett rakva, akkor visszakerül ugyanebbe a pozícióba? Nem. És minél hosszabb az idő, ami eltelik, annál kisebb az esély rá, hiszen annál többet változik a web és változik a helyzet a keresésben is. A lényeg tehát: nem elég rendbe tenni az oldalt, hanem folyamatosan tovább kell fejleszteni a SEO szempontokat – és persze a Google algoritmusait is – figyelembe véve.

A videó itt látható:

Végül

A fent felsorolt algoritmusok frissítéseitől a SEO-szakemberek rendszeresen sokkot kapnak, és üldözési mániájuk alakul ki. Ez abban nyilvánul meg, hogy kényszeresen találgatják: mikor, milyen algoritmus fog futni, és minden nap szorongva lesik a SEO-szeizmográfokat, hogy történt-e valami változás a találati listákon, annál is inkább, mert a Google pontos dátumokkal igen ritkán szolgál az algoritmusfrissítésekről. Ez a félelem azonban ma már irracionálisnak tekinthető. Ennek oka, hogy

  • a Google egyrészt nem fogja megváltoztatni az alapelveit a közeljövőben. Azok az alapok, melyek egy weboldalt számára – és a felhasználók számára – értékessé tesznek, továbbra is maradnak.
  • Másrészt a frissítések egyre kisebb hatásúak lesznek. Ráadásul az elmúlt évek során futó algoritmusfrissítések nem voltak már negatív hatással azokra az oldalakra, melyek betartották a Google irányelveit, csak azokat kapták el, akik megpróbáltak trükkökkel élni.
  • Végül pedig: a Google most már sokkal finomabb módon végzi az adat- és algoritmusfrissítéseket.

Mára tehát lezárult az ijesztő, földrengésszerű pusztítást okozó algoritmusfrissítések kora, nagy horderejű változásokra nem nagyon kell már számítani. Akik tehát az irányelveknek megfelelően kezelik az oldalaikat, komolyan figyelnek a felhasználói élményre és nem alkalmaznak manipulatív technikákat, azok megnyugodhatnak a keresőtalálati láthatóságukat illetően, és nem igen kell foglalkozniuk az algoritmusokkal.

A Google algoritmusfrissítések történeteA Google algoritmusfrissítések története

Címkék: , , , , , , , , ,

A Webshark.hu a hozzászólásoknál előzetes moderálást alkalmaz. Moderálási szabályaink itt olvashatók.

  • Ange Bo

    “Hivatalosan 2016. október 23-án frissült a Google Pingvin…”

    • nemethkrisztian

      Köszönöm, javítottam.