Mire figyelj a Google Ads Performance Max kampányodnál? (Frissítve, 2023.05.30.)
2021 novembere óta már elérhetők a Google Ads fiókokban az úgynevezett Performance..
Az algoritmusok határozzák meg azt, hogy miként szerepel a weboldalad a Google találati oldalain. Ezért nem árt ismerni őket, és igazodni hozzájuk. (Frissítés, 2023.05.31. – Egy új fejezettel bővítettünk: Nem csak leértékelni, felértékelni is tud a hasznos tartalom algoritmus)
A Google keresőalgoritmusa mintegy ötszázszor frissül évente – Gary Illyes, a Google szakembere szerint naponta háromszor -, vannak különálló algoritmusok, és vannak, amelyek részei az alapalgoritmusnak. Ezek között akadnak olyanok, melyek manuális frissítésűek, tehát szakaszosan futnak le a frissítések, más része valós idejű, azaz folyamatos a változás. Egyes nagyobb algoritmus-frissítéseket bejelent a Google, a legtöbbet viszont nem. Ha jelentős változásokat hoz egy-egy update, akkor a szakma találgat az érzékelhető jelek alapján.
Először lássuk azt, hogy mit is értünk kereső-algoritmus alatt. Egy kereső-algoritmus szabályok meghatározott sorát veszi figyelembe számítás közben. Egy weboldalnak van néhány alapvető paramétere, mely jellemzi: ilyen az URL, a tartalom, a belső linkek, a kifelé mutató linkek, képek, sebesség, stb. Ezeket algoritmusok értékelik formulák alapján, az algoritmusok alatt al-algoritmusok futnak. Tehát, amikor algoritmusról beszélünk, akkor tulajdonképpen algoritmusokról beszélünk. Ugyanakkor az algoritmusok felett áll egy olyan algoritmus, melynek az a feladata, hogy meghatározza az egyes algoritmusok súlyát. Ez fogja végül megadni a találati oldalon a találatok sorrendjét.
Összefoglalva tehát, van egy rakás formulánk és al-algoritmusunk, melyek értékelik a weboldal egyes elemeit (mint a tartalom, linkek, sebesség, stb.), miközben van egy mester-algoritmus vagy alap-algoritmus, mely ezek értékét határozza meg.
Egy olyan algoritmus, mint a Panda – amiről később szó lesz – abban segít a Google-nek, hogy megítélje, szűrje, büntesse és jutalmazza a weboldalakat tartalmaik alapján, ugyanakkor a Panda algoritmusok sorából áll össze. Ugyanígy a Pingvin a linkeket értékeli, és kiválogatja a link-spamet, de olyan algoritmusokat fog össze, melyek például csak a linkek minősítésével foglalkoznak, vagy a gyakori link-spamek jellemzőit határozzák meg.
Egy további fogalommal is érdemes azonban megismerkedni: ez az úgynevezett entitás. A Google egy entitást úgy határoz meg, hogy egy dolog vagy koncepció, mely egyedi, jól definiált és megkülönböztethető. A Google a világot entitások soraként látja. Az is fontos azonban, hogy ezek miként viszonyulnak egymáshoz, milyen kapcsolatban állnak. Egy weboldal lehet egy entitás (nem feltétlenül az), ha egy másik weboldal linkel rá, akkor a Google-nek tudnia kell, hogy ezeknek van-e valamilyen azonos alap-entitásuk.
Mielőtt az entitások használata megjelent volna a keresésben olyan elemek alapján határozta meg a keresőmotor a relevanciát, mint a kulcsszavak sűrűsége, közelsége, melyek könnyen félreértelmezhetők és manipulálhatók voltak. Egy entitást azonban már nehezebb manipulálni. Az entitások megértése segíthet abban, hogy megállapítsd, mennyire értékes egy tartalom, illetve mely linket fog kedvezőbben megítélni a Google. Vannak olyan algoritmusok, melyek kifejezetten azért léteznek, hogy értelmezzék az entitásokat, és azt, hogy az entitások miként kapcsolódnak, mivel ezáltal tudják jelezni más algoritmusoknak a relevanciát és a kontextust.
Az első hivatalosan is bejelentett algoritmus-frissítésre 2002 szeptemberében került sor. Ezt megelőzően a keresőmotorok havi frissítéseken estek át, mely az indexet és a PageRanket érintette. Az első nagy algoritmusfrissítést Bostonnak nevezték el, és innentől ezek rendszeressé váltak. Az igazán földrengésszerű mozgásokat okozó algoritmusok, mint a Panda vagy a Pingvin, azonban csak közel egy évtized múlva indultak el.
Ezeknek az algoritmusoknak a lényegét mi az alábbiakban összefoglaltuk, de aki kíváncsi az algoritmusfrissítések történelmére, az a Moz.com-on megtalálja az összeset szépen, időrendbe szedve.
A Panda először 2011 februárjában futott, és az volt vele a Google célja, hogy a jó tartalmat szolgáltató, jó minőségű oldalakat jobb helyre mozdítsa a találati listán, illetve a gyenge, duplikált, irreleváns és alacsony minőségű tartalommal rendelkező oldalakat kiszűrje. A Panda a minőséget tette elsődleges tényezővé, és egy sokkal kifinomultabb rendszert vezetett be az addigiaknál arra, hogy meghatározza a weboldalak minőségét.
Emellett a Panda volt az, mely elindította a viszonylag ritkán, de rendszeresen érkező algoritmusfrissítések korát. Az elkövetkező években érkező Panda 2.0 és a 3.0 is alaposan megbolygatta a keresőtalálati listákat. Azóta már több frissítése is érkezett, így évek óta tartja rettegésben a SEO-sokat, és innentől vált rendkívül fontossá, hogy a weboldalakat eredeti és jó tartalommal lássák el.
A Panda egy olyan algoritmus, mely átfogóan tekint a weboldalakra, és az egyik legfontosabb rangsorolási jelzéssé vált. A weboldalak minőségét értékeli, melyről a Google irányelveiben olvashatunk bővebben. A Panda teszi lehetővé a Google számára, hogy figyelembe vegye a minőséget, és ennek megfelelően alakítsa a rangsort.
Amikor a Panda 2011-ben elindult – akkor még Farmer néven – egy egyszerű spam-szűrő volt, mely azután lépett működésbe, hogy az alapalgoritmus elvégezte a munkáját, és attól teljesen elkülönült. 2016 eleje óta azonban már része az alapalgoritmusnak, ami azt jelenti, hogy amikor az alapalgoritmus módosul, akkor tulajdonképpen Panda-frissítésről is szó lehet. Legalábbis most már bármilyen alapalgoritmus módosítás kapcsolatban lehet a Pandával is. Mindez ugyanakkor nem jár a Panda, illetve az alapalgoritmus valós idejűvé válásával.
Mivel a Google-nek is érdeke, hogy a Panda által használt adatok minél frissebbek legyenek, ezért arra törekszenek, hogy az eddiginél gyakoribbá tegyék a frissítéseket. Ezekre a frissítésekre azonban manuálisan kerül sor, és nem is várható egyelőre olyan valós idejű futása a Pandának, mint más algoritmusaiknak.
Utoljára, különállóan egyébként 2015 júliusában futott le a Panda, akkor a 4.2-es verziója. Ennek indulását a legtöbben észre sem vették, mivel egy nagyon-nagyon lassú frissítésről van szó, mely csak fokozatosan éreztette hatását, sőt voltak olyan pillanatok, amikor az addigi változások visszaváltoztak. A viselkedése tehát határozottan eltért már a korábbi Panda update-ektől, azok ugyanis jellemzően rövid időn belül nagyobb mértékű változásokat eredményeztek a weboldalak forgalmában.
A Google frissességi (Freshness Algorithm) algoritmusa háromféle keresési kifejezés kategóriában határozza meg a weboldalak rangsorolását. Egy elég jelentős algoritmusról van szó, melynek hatására a keresési eredmények pontosabbak lettek, és jobban reagálnak a felhasználói szándékra. Az algoritmus eredményeként ugyanis megjelent az idő-faktor a kereséseknél: a Google bizonyos esetekben előtérbe helyezte a felkapott, a rendszeresen előforduló, vagy a gyakran frissített tartalmakat.
A Google 2011. november 3-án jelentette be az új algoritmust, mely állítása szerint a keresőkifejezések 35 százalékát érintette, ugyanakkor észrevehetően azok 6-10 százalékára volt hatással. A frissességi algoritmust a Caffeine Update által 5 hónappal korábban elindított infrastruktúra-változás tette lehetővé, melynek révén a Google képessé vált az indexelés gyorsítására, így akár néhány perce megjelent tartalmakat is meg tudott már jeleníteni a találati oldalakon bizonyos keresésekre.
Ugyanakkor nem csak ez jelentette a változást, hanem az is, hogy sokkal részletesebbé vált a frissesség definíciója: meghatározták, hogy egyes lekérdezések három különböző típusú, időhöz kapcsolódó relevanciatényezővel rendelkezhetnek. Ezek:
A frissességi algoritmussal kapcsolatos az a SEO-stratégia, mely szerint blogbejegyzések, cikkek dátumát mindig érdemes frissíteni, mondván „a Google szereti a friss tartalmakat”. Még olyan WordPress plugin is készült emiatt, ami tömegesen képes bejegyzések dátumfrissítésére.
A helyzet azonban az, hogy az algoritmus nem így működik. Már csak azért sem, mert a frissesség a keresések nagy részénél nem rangsorolási tényező, hiszen örökzöld témákról szólnak, mint például az étel-receptek. Ráadásul azt is érdemes észben tartani, hogy bár a friss tartalmakat előrébb sorolja a Google, ez az előre sorolás nem tart sokáig, hiszen hamar veszít a frissességéből egy hír, és onnantól már nem érdekes.
A Pingvin algoritmus 2012 áprilisában indult el, és elsősorban azt akarta kikényszeríteni, hogy a weboldalak vegyék figyelembe a Google minőségi irányelveit. Aki ezt nem tette, az büntetéssel számolhatott, ahogy azok az oldalak is, melyek manipulációs célzattal építettek linkprofilt, hogy befolyásolják a találati listán való helyüket.
A Pingvin algoritmus a linkeknél tette meg azt, amit a Panda a tartalomnál. A Pingvin kiirtotta a túloptimalizált horgonyszövegű linkekkel rendelkező weboldalakat a találatok közül, és azt sem díjazta, ha gyenge minőségű oldalról, katalógusokból érkeztek ezek a hivatkozások a weboldalra.
Amit érdemes tudni róla, hogy mint a Google hangsúlyozza: a Pigvin esetében egy „web spam” algoritmusról van szó. Ez azért fontos, mert a SEO szakemberek hajlamosak csak a linkekkel kapcsolatos szerepére fókuszálni, azonban a Pingvin nem csak a linkekre figyel, azaz nem kizárólagosan „link spam” algoritmusról van szó. Egy link esetében a forrásoldalon több tényezőt megvizsgál, majd a speciális jelzések alapján hoz döntést a link minőségére vonatkozóan.
Természetesen a linkeknél van jelentősebb szerepe, azonban a Pingvin nem magukat a linkeket értékeli, hanem elsősorban a forrás weboldalt, ahol a link szerepel. Tehát a Pingvin megnézi, hogy milyen oldalról van szó, mi a szerepe rajta a linknek, majd ez alapján hozza meg döntést, hogy leértékeli-e a linket vagy sem.
Ezért fontos, hogy a linkek jó minőségű weboldalakról érkezzenek, és ne értéktelen oldalakról. A Pingvin 4.0 révén azonban a gyenge oldalakról érkező linkek miatt sem büntet már a Google, csak leértékeli a linkeket. Büntetésre csak manuálisan kerülhet sor, ez viszont kizárólag akkor várható, ha valaki jelentős mértékben visszaél a linkekkel.
Amit a Google linkekkel kapcsolatos technikájáról még érdemes tudni, hogy címkéket helyeznek minden egyes link mellé. Ilyen címkéből rengeteg van, és több is kerülhet egy-egy link mellé. Egy ilyen címke például, ha láblécben szereplő linkről van szó. Ennek jóval kisebb az értéke, mint egy szövegben szereplő linknek. Egy másik címke a Pingvin real time címke.
Ezek a címkék azért fontosak, mert a Google manuális beavatkozásokat végrehajtó szakemberei ezeket a címkéket figyelik, és ez alapján döntenek egy-egy manuális akcióról. Tehát ha például sok Pigvin real time címkét találnak egy oldalon, akkor közelebbről is megvizsgálják, hogy mi a helyzet ezzel az oldallal, és adott esetben kiszabnak egy büntetést is.
Utóbbi miatt érdemes használni a Pingvin 4.0 után is a disavow eszközt, hiszen ez is egy címkét jelent a link mellett, ami a Google-nek jelzi, hogy már lépéseket tettek a linkkel kapcsolatban.
Hivatalosan 2016. szeptember 23-án frissült a Google Pingvin, mely a Pingvin 4.0 nevet kapta. Két évet kellett várni a Google lépésére. Az algoritmus azonban az előzetes híreknek megfelelően valós idejű lett, és része az alapalgoritmusnak. Mindez azt jelenti, hogy további verziók már nincsenek, a folyamatos futás révén állandó jelleggel értékeli a weboldalakat.
Mint a Google szemptember 23-i bejelentéséből kiderült, vadonatúj az algoritmus, nem csak a régit pofozgatták. Feltehetően ezért is volt vele annyi munka. A szakértők azonban már korábban, szeptember során többször érzékeltek mozgásokat a találati oldalakon, és sokan azt tippelték, hogy a Google elkezdte tesztelni a Pingvin 4.0-át. A cég persze nem erősített meg semmilyen információt, azaz nem lehetett tudni, hogy a jelzések kapcsolódnak-e az új Pingvin indulásához.
Gary Illyes Twitteren az indulás kapcsán úgy nyilatkozott, hogy “ez egy meglepően komplikált kérdés”. Mint kiderült ugyanis, a Pingvin 4.0 több részből állt, melyek egymástól elkülönítve, más-más időpontokban indultak el. A szeptember 23-i bejelentési dátumot úgy választották ki, hogy akkorra essen a legjelentősebb “rész” indulása. Elvileg ekkor már az utolsó szakasz futott ki. Azt azonban Illyes nem árulta el, hogy az egész folyamat, tehát az első rész mikor indult el.
Azóta viszont kiderült egy-két érdekes részlet. De lássuk először, milyen is lett az utolsó Pingvin!
Most már egy real time futású algoritmusról van szó – akárcsak a Pandánál. Így a jövőben már nem lesz abban a szerencsében részünk, hogy körömrágva várhatjuk az újabb és újabb verziókról szóló bejelentéseket. A valós idejűség a gyakorlatban azt jelenti, hogy minden módosulás a linkeknél gyors változást jelenthet a találati listán. Ezt a gyorsaságot úgy kell érteni, hogy amint a Google újra átfésüli és újraindexeli az oldalaidat. Ez bizonyos esetekben gyorsan történik, bizonyos oldalaknál viszont akár hetekbe, hónapokba is beletelik az újraindexelés. Ha a Google gyakran indexeli újra a weboldalaidat, akkor gyorsan érkezik a változás, ha viszont csak ritkán, akkor több hétbe is beletelhet. Ennyit tehát adott esetben várni kell egy-egy link hatására.
Korábban a dolog úgy nézett ki, hogy időnként – régebben jellemzően fél évenként – elindított egy frissítést az adatbázisban a Google, ami azonnal éreztette a hatását. Ez persze azzal járt, hogy ha valaki büntetés alá került a manipulatív linkjei miatt, akkor a korrekció után meg kellett várnia, míg újra frissít a Google. Most viszont, ha sor kerül az újraindexelésre, máris látható az eredmény.
Ráadásul kifinomultabb is lett az algoritmus, azaz nem az egész weboldalt bünteti, mint korábban. Az azonban nem egyértelmű, hogy mit. Elképzelhető, hogy csak az adott oldalt, ami spamnek tűnik számára, vagy bizonyos oldalcsoportokat. Viszont az ezzel kapcsolatos részeknek kicsit homályos a megfogalmazásuk, és azóta sem tisztázta száz százalékosan a helyzetet a Google.
A Pingvin 4.0 részeként a Pingvin 3.0 által kiszórt büntetések alól mentesültek azok az oldalak, akik megszabadultak a spam linkektől. Helyezés-javulásra csak abban az esetben lehetett számítani, ha a Google 3.0 óta eltelt két évben az adott oldalnak sikerült értékes linkeket szereznie.
Ami fontos változás a 3.0-ához képest, hogy a Pingvin 4.0 már nem “bünteti” a weboldalakat, ha rájuk mutató spam linkeket talál a Google, hanem úgymond „leértékeli” a spam linket. Ezt maga Gary Illyes jelezte egy facebookos hozzászólásban. Ugyanakkor azt is elmondta hogy a Google ajánlása a disavow fájl, azaz a link-visszautasító eszköz használatára vonatkozóan nem változott. Tehát ahhoz, hogy Pingvin büntetés alól kikerüljünk, érdemes használni a disavow fájlt. Ugyanakkor persze kérdés, hogy ha a Google csak leértékeli a spam linket, és nem büntet miatt, akkor minek használnánk? Később kiderült, hogy jogos a kérdés.
Illyes ugyanis a kérdésre válaszolva megjegyezte, hogy most már valóban kevésbé lesz szükség a link-visszautasító eszköz használatára. Ugyanakkor a link-visszautasító eszközzel segíteni tudjuk a Google munkáját is. Azaz jobb rálátása lesz arra, hogy melyek a spam linkek. És mivel kézi beavatkozásokra sor kerül, így ha látják, hogy valaki rendszeresen spammelni próbál, felléphetnek ellene.
A lényeg azonban itt az, hogy a Google többnyire már nem bünteti a weboldalakat. Ehelyett elsősorban csak ignorálja/leértékeli a spam linkeket, így korrigálva a rangsorolást. A büntetés ugyanis azt jelentette, hogy általa romlott egy weboldal helyezése, ha valami rosszat tett. A leértékelés viszont azt, hogy gyakorlatilag a Google nem vesz tudomást a spam linkről, de miatta nem bünteti a weboldalt. Annyit romlik csak a helyezése, amennyivel kevesebbet ér az adott link, amiről nem vesz tudomást a Google. Vagyis adott esetben nem a 10. oldalra kerül egy weboldal, hanem mondjuk csak pár helyet csúszik lejjebb a találati listán. Így aztán a Pingvin miatt elvileg már nem is igazán van értelme használni a link-visszautasító eszközt, inkább csak kézi beavatkozásoknál.
Frissítés, 2021.12.15.:
Míg a Google 2016-os kommunikációja arról szólt, hogy alapvetően a leértékelésre állnak át a valós idejűvé váló és az alapalgoritmusba integrálódó Pingvin-algoritmusnál, és ezt így nagyjából mindenki elkönyvelte, még 2021-ben is tudott újat mondani ezzel kapcsolatban a Google tanácsadója, John Mueller.
November elején ugyanis a Google Search Central YouTube-csatorna egy videójában egy kérdésre válaszul jelezte, hogy bár a Pingvin elsősorban arra törekszik, hogy figyelmen kívül hagyja a spam linkeket, vannak olyan esetek, amikor büntet. Ez akkor történik meg, amikor valamely oldalra jelentős spam link tömeg mutat. Ilyenkor nem finomkodik az algoritmus, hanem büntetés alá helyezi az egész oldalt, és megbízhatatlannak nyilvánítja. Ami persze a helyezés jelentős romlásával jár.
Egyes SEO-szakembereket ez persze nem lepett meg, különösen, ha korábban már találkoztak olyan ügyfelekkel, akik masszívan építették a spam-linkeket. Náluk ugyanis olykor bele lehetett futni jelentős helyezés- és forgalomesésbe, feltehetően a linkjeik miatt. És nem manuális beavatkozás révén történt a visszaesés, mivel a Google nem küldött erről semmiféle tájékoztatást a Search Console-ban.
Az ilyen weboldalaknál azt lehetett látni, hogy nagy mennyiségben találkozni olyan rájuk hivatkozó linkekkel, melyek fizetett linkek, vendégposztok, lábléc-linkek – pontos egyezésű horgonyszövegekkel – olyan oldalakról, melyek meglehetősen ismeretlenek voltak. Ezeknél általában az jellemző, hogy az éveken keresztül építgetett nagy tömegű, masszív mennyiségű spam-linkeken kívül alig van értékelhető backlinkjük, tehát nem az egyébként a weboldalakra normál esetben jellemző vegyes linkprofilt lehet látni egy linkauditnál.
Persze a weboldaltulajdonosok sokszor azt gondolták, hogy azért romlik a helyezésük, mert mondjuk valaki negatív SEO támadást indított ellenük. Erről azonban szó sem volt, egyszerűen nagyon rossz linkprofilt alakítottak ki, melyet felfedezett a Pingvin-algoritmus.
Ilyen esetekben nem maradt más lehetőség, mint a link-visszautasító eszköz használata és normális linkek szerzése.
A Venice azért volt jelentős algoritmus, mert innentől kezdve a Google már azt is figyelembe vette, hogy a felhasználók olykor a „helyi” eredményekre kíváncsiak. A Venice kifutása után tehát a Google találati oldalainak egy része már az alapján jelent meg, hogy honnan böngésztél vagy milyen IP-címet használtál.
A Kalóz algoritmus az illegális tartalmakat kínáló oldalakat próbálja kiszűrni. Egy egészen hasonló algoritmusról van szó, mint a Panda vagy a Pingvin esetében, tehát úgy dolgozik, mint egy szűrő: a Google megvizsgálja az általa ismert oldalakat a Kalóz algoritmussal, és amelyik fennakad, azokat hátrasorolja a találati listán. Ugyanúgy mint a másik két algoritmusnál, ebben az esetben is egészen addig nem kaphat ismét jó helyezést egy büntetett oldal – a panaszok megszűnése vagy legalábbis megritkulása esetén -, amíg újra nem fut a Kalóz algoritmus.
A Kalóz algoritmust először 2012 augusztusában engedte el a pórázról a Google, majd következett több mint két évnyi csend. A cég azonban a külső nyomás hatására talán úgy vélte, hogy tennie kellene valamit. A Pirate Update 2 2014 októberében érkezett.
A 2013 szeptemberében érkező Kolibri nem a veszélyes algoritmusok közé tartozik, mégis jelentősen megváltoztatta a dolgokat. Elkezdődött a szemantikus keresés korszaka, melyben már a felhasználók szándékát igyekszik kitalálni a Google, és nem csak azt nézi, hogy milyen szavakat ír be a keresőbe. A Kolibri megjelenésére azért került sor, mert a Google-nél felfigyeltek arra, hogy az emberek már nem kulcsszavakat írnak be kereséskor, hanem komplett kérdéseket.
A Kolibri esetében fontos megérteni, hogy nem egy büntető algoritmusról van szó, mely képes romba dönteni évek SEO munkáját. Ennek ellenére mégis érdemes némi figyelmet szentelni neki. Többek között azért is, mert a Kolibri a Google fő kereső algoritmusa, amelynek csak része a Panda és a Pingvin, ez a jelen és a jövő, ehhez kell igazodni.
A Kolibri egy újabb lökés volt abba az irányba, hogy még távolabb kerüljünk a linképítő, kulcsszavazó SEO-tól. Ahol annyi volt a feladat, hogy meg kellett szerezni egy nagy halom oldalunkra mutató linket – mindegy hogyan, csak link legyen -, és teleszemetelni kulcsszavakkal a szövegünket a minél több, annál jobb elv alapján, különös tekintettel a kiemelt fontosságú mezőkre. Ekkor elő is állt a kiválónak számító tartalom a Google keresője számára.
Ebbe már belerúgott évekkel korábban a Panda és a Pingvin, erősen szűrve az addig természetesnek és bizonyos szintig nem üldözött módszernek számító külső linkek halmozását és kulcsszavakkal teli, de gyenge tartalmat. Aztán ráerősített a Kolibri algoritmus, nem látványosan, viszont nagyon mélyrehatóan.
A Kolibri algoritmus szemantikussá tette a keresést, vagyis elkezdte kontextusában is értelmezni a keresőmezőbe beírt kifejezéseket, elsősorban persze a kérdéseket, és maga megadni rá a helyes választ. Tehát már nem pusztán a szavakat veszi figyelembe a Google, hanem próbálja megérteni magát a kérdést, azt hogy a mögötte álló felhasználó pontosan mit akarhat tudni. Ezért a weboldalak szempontjából az egyébként is fontos tartalom fontossága csak fokozódott, emellett felhasználóközpontúvá is vált. Nem elég már csak tartalmat gyártani, hanem a különböző felhasználókra kell szabni azt.
A Kolibri algoritmus ugyanis már olyan tényezőket is figyelembe vesz a találati lista kialakításánál, hogy honnan és milyen eszközzel netezik a felhasználó, melyek az érdeklődési körei, korábban milyen oldalakat látogatott meg, mire szokott keresni, stb. Ennek eredményeként sokkal természetesebb, párbeszédszerűbb, azaz kérdés-felelek jellegű és jobb keresési találatok jelennek meg. (Ami egyébként még inkább keresztbe tesz azoknak, akik tele akarják spamelni a találati oldalakat.)
A Google ugyan azt mondja, hogy a Kolibri algoritmus az indulását megelőző 12 év legnagyobb változását hozta a keresésben – hiszen olyan szinten írták át a keresőalgoritmust, amire 2001 óta nem volt példa -, azonban a weboldalak az új algoritmus hatására nem éreztek földindulásszerű változásokat. Sokan ugyanis még mindig kulcsszavakban gondolkodnak, és ha beírunk egy kulcsszót a keresőbe, akkor ott kisebb tere nyílik a Kolibrinek, hogy megcsillogtassa intelligenciáját (de azért ilyenkor is akadnak különbségek). A Google szerint viszont egyre többen nem kulcsszavakat írnak be, hanem kérdéseket, melyekre választ akarnak. A kereső pedig a legjobb választ akarja adni nekik.
Az irány tehát nem változott a weboldaltulajdonosok számára: továbbra is a lehető legjobb minőségű, eredeti tartalom előállítására kell összpontosítani, mely remélhetőleg hozza magával a külső linkek megjelenését. Ugyanakkor a kulcsszóelemzést se felejtsük el, hiszen ezáltal ismerjük meg olvasóink, felhasználóink érdeklődési körét, így tudjuk meg, hogy mire keresnek. És minél jobban megértjük ezt, annál jobb válaszokat tudunk megfogalmazni számukra a weboldalunkon.
Egy újabb madárról elnevezett algoritmus, mely 2014-ben indult el, a helyi SEO-ra összpontosított. Az algoritmusfrissítés mind a találati oldalakat, mind a Google Térképes megjelenését megváltoztatta. Sokkal pontosabb helymeghatározást eredményezett, a Google innentől kezdve még inkább figyelembe vette azt a földrajzi helyet, ahonnan a felhasználó a keresést indította. Emellett azt is megcélozta, hogy a helyi eredmények még relevánsabbak és jobb minőségűek legyenek.
Annak érdekében, hogy kihangsúlyozza a biztonság fontosságát, a Google 2014-től egy kis rangsorolási előnyt adott azoknak az oldalaknak, melyek elkezdték alkalmazni a https-t annak érdekében, hogy biztonságosabbá tegyék a weboldal és a felhasználó közötti kapcsolatot.
Míg néhány éve még általában úgy kerestünk a Google-en, hogy beírtuk az általunk elképzelt kulcsszavakat, például, addig ma már akár kérdéseket is feltehetünk a keresőnek (ez azért magyar nyelven még nem működik olyan szépen, mint angolul). A Google ugyanis már kezdi megérteni a keresési szándékot.
Míg 2015 előtt még azon kellett gondolkodni, hogy mi lehet a legjobb kulcsszó ahhoz, hogy megkapjuk a leghasznosabb találatokat, addig a gépi tanulást használó RankBrain indulása (2015. október 26.) óta ez már gondolkodik helyettünk, nekünk csak be kell írni (vagy mondani), amit szeretnénk.
A mesterséges intelligenciát használó algoritmus célja, hogy a Google jobban megértse az új keresési kifejezéseket. Nem csak angol nyelven működik, hanem minden nyelven, így magyarul is “tud”. A RankBrain nem váltotta le a jelenlegi Google alapalgoritmust, mindössze egy újabb jelzés a több ezer jelzés közül, melyeket a Google figyelembe vesz a találati oldalak alakításánál. Ugyanakkor rendkívül fontos jelzés: Greg Corrado, a Google szakembere szerint a harmadik legfontosabb jelzés a találati lista kialakításánál a tartalom és a linkek mellett.
A RankBrain tehát a Google fő kereső algoritmusának része, mely kihasználva a gépi tanulást, segít a Google-nek megérteni azt, hogy valamely weboldal miként kapcsolódik bizonyos keresési kifejezéshez, mely egyébként nem tartalmazza az oldal kulcsszavait.
A RankBrain lényege egyébként nagyon egyszerűen megfogalmazva annyi, hogy amikor találkozik egy eddig nem látott keresőkifejezéssel (napi 15 százalékban ez előfordul), akkor vektorokat használó mesterséges intelligenciája révén igyekszik megérteni, hogy valójában mi is lehet a lényege az adott keresésnek. Vagyis a szavakat és a mondatokat vektorokká alakítja, hogy azt a számítógépek is megértsék. Vagyis egyszerűen: a RankBrain igyekszik megérteni a felhasználói szándékot.
Lényeges, hogy a RankBrain nem a bizonytalan és távoli jövőben megvalósuló fejlesztés, hanem már most is hatással van a találati oldalakra, tehát már láthatjuk működés közben. A Search Engine Land szerint a hosszú keresési kifejezéseket leegyszerűsíti könnyebben kezelhető kulcsszavakká. Ugyanakkor nem egy folyamatosan tanuló algoritmusról van szó, hanem rendszeresen frissíteni kell, mint a Google más algoritmusait is. A The SEM Post szerint a RankBrain határozottan megváltoztatta azt, ahogy a Google látja és kezeli a kereséseket, még akkor is, ha ez a SEO-sok számára észrevétlenül történt.
Annak ellenére, hogy a RankBrain elvileg leváltotta a kulcsszavakat, a SEO továbbra is kulcsszavakra optimalizál. Lényeges azonban itt az elvileg. A megoldás még nem minden esetben működik igazán jól, ráadásul a felhasználók nagyobb része továbbra is próbálja a legjobbnak tűnő kulcssszavakat használni egy-egy keresés során, így elsősorban az adott kulcsszóhoz kapcsolódó oldalakat jeleníti meg számukra a Google. Különösen így van ez magyar nyelvterületen, miközben angol nyelven már láthatóan elég jól működik a long tail kulcskifejezések megértése.
A lényeg tehát az, hogy a RankBrain SEO szempontból nem jelent változást: létre kell hoznod kiváló tartalmakat egy adott kulcsszóra, mint témára. Majd e köré lehet építeni a relevánsnak és használhatónak tűnő long tail kifejezésekre a hozzá linkelt aloldalakat. Fontos azonban megérteni, hogy elsősorban jó minőségű tartalmakra van szükség minden kulcsszóhoz, nem pedig gyenge minőségű, de nagy mennyiségű tartalomra, mely ugyanazt az egy kulcsszót célozza.
Az is fontos, hogy könnyen megértse a szövegünket a RankBrain, és összhangban legyen a felhasználói nyelvhasználattal. Gary Illyes a Google szakember a RankBrainre való optimalizálás kapcsán elsősorban azt javasolta, hogy természetes nyelvezetet kell használni a szövegeink megírásakor. Ha úgy írsz, mint egy gép (például, mert erőszakosan kulcsszóhalmozol), akkor csak összezavarod a RankBraint, és ennek következtében valószínűleg lecsúszol a találati oldalakon is. Ha viszont úgy hangzik a szöveged, mint egy beszélgetés, vagy mint a természetes nyelv, melyet a mindennapokban használunk, akkor biztos lehetsz benne, hogy már optimalizáltál is a RankBrainre – magyarázta a szakember.
További információkat itt találsz még a RankBrainről.
Nem rengette meg a világot a 2015 áprilisában érkező Mobilbarát algoritmus sem, mely csak néhány oldalt érintett, és ezáltal nagy csalódást okozott az izgalomtól remegő kezű SEO-soknak. Ennek talán az lehetett az oka, hogy a Google már rangosorolási jelzésként eddig is figyelembe vette bizonyos mértékben a mobilra optimalizáltságot. Amit tudni kell róla, ezen cikkünk egyik fejeztében már összefoglaltuk.
A Quality Update, azaz a Minőségi algoritmus, az alapalgoritmus része, és soha nem volt olyan különálló algoritmus, mint például a Panda. Arra van hatása, hogy miként értékeli a Google algoritmusa a minőségi jelzéseket. A Google a tényezők igen széles skáláját veszi figyelembe egy-egy oldal minőségének meghatározásánál, ezeknek a tényezőknek van egy súlyozása, és amikor néhány tényező súlya nő, másoké pedig csökken, akkor beszélhetünk a minőségi algoritmus változásáról.
2015. május 3-án például egy 870 ezer miniblogot tartalmazó weboldal, a HubPages 22 százalékos forgalomcsökkenést szenvedett el az eleinte Phantom 2-nek, majd később Minőséginek nevezett algoritmus hatására. De nem csak egy-egy blogot érintett az akkori csökkenés, hanem a teljes honlapot, vagyis domain-szintű volt az algoritmus. Egyértelműen kirajzolódott a forgalomcsökkenés több “how to” weboldal esetében, melyeknek elég gyenge volt a tartalmuk. Közéjük tartozik a HubPages, az eHow, a WiokiHow és az Answers.com. Az érintett oldalak között voltak olyanok, melyek szerinte tényleg kifejezetten idegesítőek voltak, a felhasználókat és a Google-t is átverték.
A Google igyekszik kiszorítani az előszobaoldalakat, azaz doorway page-eket a találati listáról, mégpedig egy külön algoritmussal, mely a Panda kiegészítéseként fogható fel.
Az ok pedig egyszerű: ezek az oldalak igen jól optimalizáltak egy-egy kulcsszóra, viszont a látogatót egy másik weboldalra irányítják – ahol az adott kulcsszó talán nem is szerepel -, tehát tulajdonképpen a Google keresőrobotok és így a látogatók megtévesztésével terelnek forgalmat.
Fontos ugyanakkor, hogy nem keverendők össze a landing oldalakkal, melyek hasznos információkkal szolgálnak a látogatók számára, míg az előszobaoldalak alapvetően irreleváns információkkal tévesztik meg őket a találati listán. (Kérdés persze, hogy a Google algoritmus nem fogja-e őket időnként keverni, azaz hogy hány olyan oldal esik majd áldozatául, ami nem tartozik az előszobaoldalak közé.)
A Google az előszobaoldalakat egyébként így definiálta (magyarul), míg a bejelentésében úgy fogalmazott, hogy igen gyakran találkoznak olyan oldalakkal a neten, melyek a “keresési lábnyomuk” maximalizálására törekszenek, anélkül, hogy értékes, egyedi tartalommal szolgálnának. A találati lista javítása érdekében hamarosan némi kiigazításra kerül sor, amikor is megszűrik ezeket az előszobaoldalakat. Egyelőre tehát még nem élesedett az algoritmus, azonban hamarosan találkozhatnak a hatásával azok, akik ilyan doorway oldalakat használnak.
Honnan lehet tudni, hogy valamely oldalaid előszobaoldalnak számítanak-e a Google szemében? Erre is megadja a választ a keresőcég. Az alábbi kérdéseket kell feltenned magadnak:
Ezeket a kérdéseket érdemes végiggondolni, habár feltesszük, hogy aki előszobaoldalakat használ, az azért nagyjából tisztában van azzal, hogy miről van szó, és miért is használja ezeket. Aki viszont nem, az ezek után inkább már ne vágjon bele egy előszobaoldalakra épülő megoldásba.
2016 szeptemberében egy újabb „helyi” algoritmusfrissítés futott be. Az Oposszum algoritmus több változást is hozott a Google helyi rangsorolási szűrőjében, így tovább javította a helyi találati oldalakat. Az Oposszum indulása után a helyi találatok sokkal színesebbé, szélesebb körűvé váltak, és sokkal inkább a felhasználó helye határozta meg őket, mint maga a keresőszó. Sok cég, melynek korábban komoly gondot okozott jó helyezés megszerzése az organikus találatok között, könnyebben tudott előre jutni a frissítést követően. Ez azt jelenti, hogy az Oposszum révén a helyi keresések még függetlenebbé váltak a normál találati oldalaktól.
Március 7-étől egy nagy hatású, de a Google által nem megerősített algoritmusfrissítésre figyelt a SEO-közösség. A Fred algoritmus az első feltételezések szerint a linkminőséget érintő vonatkozását célozta a fő algoritmusnak. Később azonban árnyaltabbá vált a kép, és a reklámmegjelenéseket kezdték gyanúsítani a szakemberek, majd a tartalom a minőségét. Ugyanakkor sokan semmiféle összefüggést nem láttak a mozgásoknál. Ennek a nagy bizonytalanságnak valószínűleg az az oka, hogy egy egészen új fajta minőségi algoritmust vetett be a Google.
Mivel a legtöbb észlelt, nagyobb horderejű algoritmusfrissítésnek adnak nevet a SEO-sok, így ez is kapott: Fred lett. A Fred egyébként Gary Illyes, a Google szakemberének ötlete volt, aki viccesen azt javasolta, hogy ezentúl minden algoritmusfrissítést nevezzenek Frednek. A lényeg azonban az, hogy már kezdetben jelentős hatása volt a frissítésnek, az elsők között az úgynevezett “black hat” SEO berkekben, vagyis azok esetében, akik nem tisztességes megoldásokkal dolgoznak. Az ő körükben a felbolydulás pedig általában arra utal, hogy linkekkel kapcsolatos változás történt. A dolog azonban nem ilyen egyszerű.
A Fredet megelőzően 2017. február elején került sor egy spamlinkekkel kapcsolatos frissítésre, melyet megerősített a Google, a Fredet azonban nem. Igaz nem is cáfolta. Február elején volt egyébként egy másik frissítés is, mely a tartalom minőségét érintette, és ezt sem erősítette meg a Google. Ez az eljárás szokása a keresőóriásnak. Gary Illyes és John Mueller csak a megszokott dolgokat mondta a Twitteren, vagyis hogy a Google-nél folyamatosak az algoritmusfrissítések, és hogy egy nap alatt átlagosan háromra is sor szokott kerülni.
A Google megerősítésétől függetlenül azonban a találati listákat figyelő eszközök mind jelentős mozgásokat észleltek, melyek általában algoritmusfrissítést jeleznek. Arról nem is beszélve, hogy nagyon sokan panaszkodtak visszaesésre a találati oldalakon, míg mások a helyezésjavulásuknak örültek. Ez pedig igen valószínűvé tette, hogy valóban algoritmusfrissítésre került sor. Ez világosan látszik az alábbi grafikonokon is.
A Fred algoritmus felbukkanása
Barry Schwartz, a SEO Roundtable szerzője 70 érintett oldal elemzése kapcsán pár nap elteltével arra jutott, hogy 95 százalékuk esetében sok volt rajtuk a tartalom és a reklám. Feltételezése szerint az oldalakat azért hozhatták létre, hogy hirdetéseket jelenítsenek meg rajtuk, és az embereknek egyébként kevés hasznukra voltak. Ezek az oldalak jelentős forgalomesést – egyes esetekben akár 90 százalékost – szenvedtek el az algoritmusfrissítés miatt. Feltételezése szerint egy korábbi algoritmusfrissítésnek, például a Phantomnak a kibővített verziója csapott le most sok weboldalra.
Mindez azonban egyáltalán volt biztosra vehető, hiszen sokan a gyenge tartalmakat gyanúsították, sokan viszont egyáltalán nem értették, mi történt, mert olyan weboldalak helyezését is rontotta a frissítés, melyekkel – úgy tűnt – nem volt semmi probléma. Akadtak, akik úgy vélekedtek, hogy semmiféle kapcsolat nem állapítható meg a felfelé és lefelé mozduló oldalak között. Aminek persze akár az is oka lehet, hogy a Google egyszerre több algoritmust is frissített, így keltve némi zavart.
JenniferSlegg, a SEM Post szerzője úgy véli, hogy pont ez a lényeg. Mármint az, hogy a szakemberek és az érintettek nem tudják eldönteni, hogy milyen típusú algoritmusfrissítésre került sor. Ez pedig azt mutatja, hogy egy újgenerációs minőségi algoritmusról lehet szó. Ez az algoritmus képes egyszerre értékelni a weboldalaknak több olyan vonatkozását is, melyek alacsony minőségre utalnak. És persze a megfelelő feltételek teljesülése esetén leértékeli az oldalt.
Más szavakkal: azokat a weboldalakat bünteti, melyeket a SEO érdekében a Google kedvéért alakítottak olyanná, amilyenek, és nem a felhasználók igényeit veszik figyelembe. Ez összecseng azzal, amit Barry Schwartz is állít: ezek a weboldalak nem elsősorban az emberek érdekében léteznek. Fontos azonban, hogy Fredet
Ha így tekintünk rá, akkor kiderül, hogy az érintett oldalakban van valami közös: mégpedig az, hogy elsősorban a Google kedvéért hozták őket létre, és nem a felhasználókért. És teljesen mindegy, hogy a weboldaltulajdonos milyen jól próbálja vagy tudja leplezni azt, hogy pusztán a reklámbevételekért vagy a linkekért létezik az oldal.
Habár a Panda is a minőséget kéri számon a weboldalaktól, de csak a tartalmat vizsgálja. A Fred algoritmus annyiban különbözik tőle, hogy nem csak a tartalmat elemzi, hanem több más, minőségre utaló tényezőt is figyelembe vesz. Olyan oldalakat kap el, melyeket a Google minőségértékelőknek szóló iránymutatása alapján is gyenge minőségűnek kellene besorolni.
Habár azon weboldalakon, melyek a Fred leértékelése után eltávolítják a reklámokat, talán segít ez a lépés, ugyanakkor azt látni kell, hogy nagyon sok olyan, jó minőségű weboldal van, melyek ugyan tele vannak reklámokkal, mégis megmaradt a jó helyezésük. Ez pedig azt jelzi, hogy nem kifejezetten a reklámok mennyisége az ok, ami miatt egy oldal rangsorolása romlik a Fred miatt.
Tehát, ha elérte a Fred algoritmus a weboldaladat, és reklámok is vannak rajta, akkor nem biztos, hogy magukkal a reklámokkal van gond, hanem inkább az elhelyezésükkel. Például azok a reklámok, melyek az embereket folyamatosan megszakítják az olvasásban (mert mondjuk minden második bekezdésre jut belőlük egy) rossz minőséget jeleznek, mivel egyértelmű, hogy kattintást akarnak elérni a tartalom fogyasztása helyett. Ez egyébként a Google minőségértékelőknek szóló útmutatása (Quality Rater Guidelines) alapján is egyértelmű jelzés a gyenge minőségre.
Itt is a minőség a kérdés, azaz a weboldaladon szereplő és a weboldaladra mutató linkek az emberek hasznára vannak? Vagy csak a Google és a SEO miatt? Ha utóbbi, akkor az a Fred számára gondot jelent.
A tartalomnál is a minőséget kell vizsgálni. Azt, hogy a szöveg tartalmaz-e bármi eredetit, van-e hozzáadott értéke. A Fred algoritmus által érintett weboldalaknál hiányzik az úgynevezett „kiegészítő tartalom”. Vagyis azok a szövegek, képek, egyéb információk, melyek a konkurenciánál értékesebbé tehetik az adott oldalt. Hiányzik az a minőség, amiről a Google beszél a minőségértékelőknek szóló útmutatásban.
Úgy tűnik, hogy a Google már algoritmussal is be tudja azonosítani az alacsony minőségi jellemzőket, legalábbis angol nyelvterületen. Ezeket sokáig csak manuálisan tudták eddig megfogni, vagyis emberek voltak csak képesek ennyire kifinomultan értékelni egy-egy weboldal minőségét.
Mindez persze azt is jelenti, hogy az érintett weboldalak tulajdonosainak nehezebb lesz a dolguk a helyreállítást tekintve. Hiszen míg egy-egy manuális akció után világos volt, hogy mi a gond a weboldallal, addig ha az algoritmus büntet, nehéz kitalálni, hogy pontosan mivel van gondja.
Ugyanakkor az ilyen oldalak tulajdonosainak a javítás egyébként is nehéz, hiszen azon kellene változtatni, hogy ne a Google jelentse számukra a célpontot, hanem az embereknek készítsék a weboldalaikat. Jennifer Slegg szerint nekik elsősorban a minőségértékelési irányelvekkel kellene mélyebben megismerkedniük, és követni az abban olvasottakat a weboldal kialakítása során. És persze nem rózsaszín szemüvegen keresztül nézni a weboldalukat, hiszen az útmutatás alapján még egy jó minőségű oldalon is van mit javítani.
Azoknak a weboldaltulajdonsoknak pedig korai örülni, akiket egyelőre nem érintett a Fred algoritmus és gyenge minőségű az oldaluk, ugyanis a Google folyamatosan fejleszti az algoritmusait. Így aztán a későbbiekben bármikor sor kerülhet a weboldaluk leértékelésére, ha nem állnak neki a munkának és fejlesztik.
Mivel a felhasználók a minél gyorsabban szállított információkat várják el a weboldalaktól, ezért a Google elindította a Sebesség algoritmust, mely a weboldalsebesség önálló rangsorolási tényezővé tette a mobilkereséseknél is. A frissítés elsősorban azokat az oldalakat érintette hátrányosan, melyeknek rendkívül lassú volt a mobilos weboldaluk.
A fő algoritmus frissítése elég nagy kavarodást eredményezett az orvosi témájú kereséseknél. Sok orvosi oldalnak zuhant a helyezése, ráadásul nem csak őket érte el, és igazából nem derült ki, hogy mi is volt az algoritmus célja. Vagy egyszerűen a találati oldalak javítása volt a célja, vagy pedig a felhasználókat akarta megóvni a Google szerint téves információktól.
2019. október 25-én a Google bejelentette, hogy néhány nappal korábban elindította a BERT algoritmust, „mely a legnagyobb előrelépés az elmúlt 5 évben, és az egyik legnagyobb lépés a keresés történetében”. A célja, hogy a Google jobban megértse a kereséseket, illetve olyan módon értse őket, ahogy azt az emberek is teszik. Néhány dolog, amit tudni kell róla:
A Google be is mutatott néhány példát, ami által talán jobban lehet érteni az általa hozott változást:
Mint azt említettük, a BERT induláskor csak angol nyelvterületen fejtette ki hatását, 2019. december 9-én aztán a Google jelezte, hogy további 72 nyelv esetében is működni fog, a felsorolásba pedig a magyar nyelv is bekerült. Ez azt jelenti, hogy most már a magyar keresési kifejezéseket is jobban érti a Google.
BERT, our new way for Google Search to better understand language, is now rolling out to over 70 languages worldwide. It initially launched in Oct. for US English. You can read more about BERT below & a full list of languages is in this thread…. https://t.co/NuKVdg6HYM
— Google SearchLiaison (@searchliaison) December 9, 2019
Ennek kapcsán tehát azt érdemes tudni, hogy a BERT a keresési kifejezések 10 százalékát érinti angol nyelven az Egyesült Államokban, így feltehető, hogy ugyanez a helyzet a többi nyelv esetében is. A BERT által a Google jobban megérti a keresési kifejezéseket, ami azért fontos, mert így relevánsabb oldalakat tud kínálni a felhasználóknak. Ez pedig azt jeleni, hogy javulnak a találati oldalak, illetve az egyes weboldalak számára is javuló minőségű forgalmat hoz.
Ha röviden akarunk fogalmazni, akkor Danny Sullivan tanácsát fogadjuk meg, és azt mondjuk: sehogy. A Google szakembere szerint ugyanis nincs semmi teendő a BERT-tel kapcsolatban optimalizálási téren, mindössze tartalmat kell írni a felhasználók számára.
There’s nothing to optimize for with BERT, nor anything for anyone to be rethinking. The fundamentals of us seeking to reward great content remain unchanged.
— Danny Sullivan (@dannysullivan) October 28, 2019
Ugyanakkor John Mueller ezt a tanácsot egy kicsit körülírta, bár a lényege érvényben maradt. A Google másik szakembere azzal kezdte a vonatkozó kérdésre adott válaszát, hogy az új algoritmus célja a szövegek jobb megértése volt. Ez egyrészről azt jelenti, hogy jobban meg akarták érteni a keresőkifejezéseket, másrészt viszont a weboldalak szövegeit.
E kettő közül a keresőoptimalizálás során az elsőt nem lehet befolyásolni, míg a másodikat, azaz a weboldalon szereplő szövegeket igen. A Google javaslata pedig ezzel kapcsolatban annyi, hogy
„írj természetesen”!
Habár ez elsőre elég egyértelműnek tűnhet, de az algoritmusok épp azon fáradoznak, hogy megértsék a természetes szövegeket, és felfogják, hogy egy adott oldal milyen témáról szól. Tehát, ha bármit is lehet tenni annak érdekében, hogy az oldalad a BERT algoritmusra optimalizáld, az az lehet, hogy
természetes szövegekkel írod meg az oldalaidat.
Tehát olyan szövegeket vár a Google, és azok fognak jól szerepelni a találati oldalakon, melyek normál emberi nyelven íródnak. Ez azt jelenti, hogy kulcsszóhalmozás helyett amennyire csak lehet természetesen kell megírni a szövegeiket – tette hozzá John Mueller.
Mindez tehát a relevanciáról szól, ahogy a Rank Brain is ezt célozta, melyet a nyelv jobb megértése alapján lehet pontosabban értékelni. A Google célja az, hogy minél jobban megértse, miről szól egy oldal. A relevancia pedig azért fontos, mert sokan, akik keresőoptimalizálnak, inkább csak a kulcsszavakra figyelnek és nem a relevanciajelzésekre.
Frissítés, 2021.10.06.:
A Google MUM algoritmusát 2021 szeptemberének végén jelentette be. A MUM (Multitask Unified Model) esetében egy több célra irányuló, fejlett, mesterséges intelligencia alapú algoritmusról van szó, melyet a rangsoroláson túlmenően is használ a Google. A MUM lehetővé teszi a felhasználók számára, hogy olyan összetett kereséseket is végrehajtsanak, melyekre a hagyományos kereséseknél nem kaptak volna értelmes választ. A Google a keresés redesignjaként jellemezte a MUM-ot.
A MUM azért érdekes algoritmus, mert úgy tud válaszok után kutatni a weben minden nyelven, hogy képeket is fel tud használni a keresés részeként. Ez annyit jelent, hogy a felhasználók képeket is használhatnak kulcsszavak helyett egy keresésnél. Ezért talán nem meglepő, hogy a MUM-ot a Google Lens is használni fogja, hiszen természetesen illeszkedik annak működéséhez.
A MUM annyiban változtatja meg a találati oldalakat, hogy új lehetőségek jelennek meg a felhasználók számára annak érdekében, hogy részletesebben is felfedezzenek valamely témát. Ezt a Google a „things to know” funkcióként említi, mely népszerű utakat jelenít meg a felhasználó számára, hogy elmélyedjen az adott téma valamely, őt érdeklő részében.
Tehát, ahelyett, hogy a kereső személy újra és újra, tovább finomítva keresne egy témában, a Google megpróbálja az első keresésénél elindítani ezen az úton, további keresések nélkül. Itt jön képbe a „topic zoom”, melynek segítségével elmélyedhet a téma valamely szegmensében. A felhasználó szélesíteni és szűkíteni is tudja a zoomot, hogy a számára megfelelő választ kapja.
És adott esetben mindezt képekkel is kiegészítve teszi, ami a „vizuális felfedezés” elnevezést kapta a Google-től. Egy ilyen képekre épülő találati oldal azonban csak akkor jelentik meg a felhasználó számára, ha a Google úgy ítéli meg, hogy inspirációs szándékkal keresett rá, például karácsonyi dekorációs ötleteket szeretne kapni valaki.
A hazai felhasználók szempontjából fontos, hogy az algoritmus nem korlátozódik egyetlen nyelven adott válaszokra. Összetett válaszok megtalálására is képes különböző nyelveken, annak érdekében, hogy valóban segítséget jelentő választ adjon.
Amikor a MUM-ról kérdezték John Muellert, a Google szakemberét, akkor ő jelezte, hogy nem tudja pontosan megmondani, hogy a keresések hány százalékát befolyásolja a MUM. Azt is hozzátette, hogy ezt azért nehéz megmondani, mert az arány állandóan változik. Korábban ugyan a BERT esetében is említettek 10 százalékot, azonban ez sem igaz már.
A lényeg szerinte az, hogy a MUM egy többcélú gépi tanulásra építő könytár, egy olyan algoritmus, mely a keresés számtalan részét érinti. Mindenesetre nem egy olyan algoritmus, mely csak a rangsorolásra lenne hatással. Sokkal inkább arra jó, hogy szofisztikált módon megértsenek vele dolgokat, amelynek eredménye aztán megjelenik a találatoknál is.
Arra is felhívta ugyanakkor a figyelmet, hogy ha a napokban a MUM körül kialakult hype-ot elhagyjuk, akkor nem annyira különleges ez az algoritmus, mint ahogy az sok laikusnak a médiabeszámolók alapján tűnhetett. Ugyanakkor a Google keresési minőséggel foglalkozó szakemberei elégedettek azzal, ahogy ez a fajta gépi tanulási modell működik.
A Google 2022 augusztusának közepén jelentette be egy új algoritmus indulását (mely első körben csak angol nyelven fejti ki hatását), az úgynevezett „hasznos tartalom” (helpful content) algoritmusét, melyről sok SEO-snak a Panda algoritmus jutott eszébe. Az algoritmus célja ugyanis „az emberek számára írt tartalom” előtérbe helyezése, illetve a csak SEO miatt születő tartalom hátra sorolása. A Google megfogalmazása szerint a céljuk az, hogy az emberek több eredeti, hasznos tartalmat lássanak, melyek valóban számukra íródtak, és nem pusztán a keresőből érkező forgalom felpörgetése a célja.
A hasznos algoritmus azonban nem váltja le a Panda algoritmus, mely már hosszú évek óta része az alap-algoritmusnak (míg a hasznos tartalom algoritmus nem), vagyis a Pandával párhuzamosan fut.
A Google gyakorlatilag rákényszerült egy ilyen algoritmus elindítására, mivel az elmúlt években rengeteg kritikát kapott a találati oldalak minőségével kapcsolatban.
A hasznos tartalom algoritmus egy új jelzést vezet be a rangsorolásnál. A jelzés azokat a weboldalakat sorolja hátra, melyek nagy mennyiségű, de csekély értékű, az emberek számára nem igazán használható tartalmat publikálnak. Mint írták, az ilyen csekély értékű tartalom eltávolítása egyben azt is jelenti, hogy más tartalmak helyezése javul. Ebből egyébként az is látszik, hogy bár a Google nem emlegeti büntető algoritmusként, mégis erről van szó.
Az algoritmus folyamatos futású, tehát vizsgálja az újonnan induló és a meglévő oldalakat is. Nincs szó kézi műveletről, a folyamat automatizált és gépi tanulás alapú. A Google folyamatosan frissíti a „pontszámát” az oldalaknak, ugyanakkor, ha eléri az oldalaidat a hasznos tartalom algoritmus negatív hatása, melyet követően gyorsan rendbe rakod (már ha tudod) a tartalmakat, akkor nem fog azonnal helyreállni a helyezése az adott oldalaidnak. Ez néhány hónapba is beletelhet, mivel van egy ellenőrzési időszak, plusz egy várakozási időszak, ami alatt a Google meggyőződik arról, hogy valóban elkötelezett vagy a weboldalad minőségének javítása mellett.
Fontos még, hogy az egész weboldalt érintő algoritmusról van szó, vagyis, ha egy webhelyen nagy mennyiségű, értéktelen tartalmat talál, akkor az egész webhelyet leértékeli. Vagyis a rossz minőségű tartalmakat el kell távolítani, (ideiglenesen akár „noindex” jelöléssel ellátni, ahogy John Mueller javasolja) vagy rendbe kell rakni, ha nem akarod az egész webhelyed pozícióját megingatni. Ha ezt megteszed, akkor a Google szerint a webhelyed többi oldalának is javulhat a helyezése.
Sokáig a SEO-sok úgy tudták, hogy a helpful content algoritmus ugyan nem büntet, de ez is egy „leértékelő” algoritmus, vagyis teljesen nem üti ki az oldalakat, de hátra sorolja őket, ha nem felelnek meg a benne foglalt kritériumoknak. A helyzet azonban egy frissítés után változhat.
Danny Sullivan, a Google szakembere 2023 májusában rámutatott, hogy a hasznos tartalom algoritmus nem csak arra képes, hogy leértékeljen oldalakat, hanem úgymond kihalássza a „rejtett gyöngyszemeket” a web zavaros tengeréből és kiemelje azokat a felhasználók számára.
Sullivant Glenn Gabe kérdezte ezzel kapcsolatban, ugyanis a szakember korábban már jelezte, hogy az algoritmus „bővíthető”, így egyszerre több feladatot is végrehajthat: leértékelhet és felértékelhet.
A Google szakembere erre válaszul a Twitteren úgy nyilatkozott, hogy a helpful content algoritmus azon fog dolgozni, hogy azonosítson és megmutasson rejtett gyöngyszemeket a keresésnél, azzal együtt, hogy közben a haszontalan tartalmakat továbbra is hátrébb sorolja.
Egyébként a helpful content dokumentáció is utal arra, hogy az algoritmus többre képes a haszontalan tartalmak egyszerű leértékelésénél. Ebben szerepel ugyanis egy olyan mondat, mely szerint a hasznos tartalom rendszer célja, hogy jutalmazza azokat a tartalmakat, melyekkel a felhasználók elégedettek, miközben azoknál, melyek nem felelnek meg a várakozásaiknak, rontsa a teljesítményt.
Hozzáteszik: a rendszer automatikusan képes azonosítani azokat a tartalmakat, melyek csekély értékűek, alacsony hozzáadott értékkel bírnak, vagy egyébként nem különösebben hasznosak az emberek számára. Ráadásul hozzáteszik azt is, hogy a haszontalan tartalmak egy adott weboldal többi tartalmának teljesítményét is rontják, így a nem hasznos tartalom eltávolítása javíthatja a többi tartalom rangsorolását.
Végül fontos megjegyezni, hogy súlyozott jelzésről van szó, amit azt jelenti, hogy bizonyos oldalak nagyobb csapást szenvedhetnek el, mint mások.
Ha az alábbi kérdések némelyikére igennel felelsz, akkor az figyelmeztetés kell legyen számodra, hogy elérhet a hasznos tartalom algoritmus büntetése:
Tedd fel az alábbi kérdéseket, és ha igennel válaszolsz, akkor valószínűleg megfelelő a megközelítésed:
Amiről itt szót kell még ejteni, az a Google-büntetések kérdése. A felsorolt algoritmusok között ugyanis szerepelnek büntető algoritmusok, melyek futásakor alaposan leértékelődhet a weboldal, vagy akár el is tűnhet a találati listákról. Ilyenkor persze lehet törekedni a helyreállítása az oldal rendbe tételével, kérdés azonban, hogy ez milyen eredményt hoz. A Google szakembere szerint egy büntetés után nem nagyon érdemes a visszatérésben reménykedni.
Egy büntetés utáni helyreállás nem azt jelenti, hogy valaha is visszaáll az a büntetés előtti, eredeti állapotba az oldal a keresőben. Ezt John Mueller, a Google sokat idézett szakembere jelentette ki egy Google+ hangoutján. Hogy miért nem? Mert mint mondta, a web állandóan változik, és így a dolgok soha sem lesznek ugyanazok, mint egykor.
Logikus egyébként, hogy egy büntetés-eltávolítás nem jelenti azt, hogy a helyezésünk a károk elhárítása után ugyanolyan jó lesz, mint a büntetés előtt. Értelemszerűen ennek az az oka, hogy ugyanazok a tényezők eredményezték a rangsorolási előnyünket, amelyek a büntetést kiváltották. Tehát, ha a büntetést kiváltó tényezőket megoldjuk, akkor ezek már nem biztosítják a jobb helyezést számunkra. A Google szakembere azonban egy kicsit máshová helyezte a hangsúlyt.
A kérdező jelezte, hogy sokat veszített a helyezéséből a weboldala, valószínűleg egy Panda algoritmusfrissítés következtében. Arra volt kíváncsi, hogy ha a minőségi problémákat kiküszöbölik, akkor helyreállítja-e a Google a helyezését.
John Mueller ennek kapcsán elmondta, hogy természetesen megpróbálják figyelembe venni az erőfeszítéseket a probléma megoldására. Tehát amikor azt látják, hogy a weboldalon jelentős változások történtek az oldalak minőségét illetően, akkor feltételezhetően pozitív változások következnek be a helyezést illetően is.
Ugyanakkor szinte soha nem kerül sor arra, hogy olyan pozícióba jusson vissza az oldal, ahol a büntetés előtt állt. Hiszen eltelt egy bizonyos idő a büntetés és megoldása között. Eközben a dolgok változtak az interneten, ahogy változott a Google algoritmusa is. Tehát, ha semmi nem történt volna az oldallal vagy akár az algoritmussal, akkor is fejlődött volna azon idő alatt a web. Így pedig az előző állapot semmiképpen nem lenne azonos az új állapottal.
Tehát, ha mondjuk három évvel egy bizonyos keresőkifejezésre egy bizonyos pozíciót foglalt el az adott weboldal, majd rendbe lett rakva, akkor visszakerül ugyanebbe a pozícióba? Nem. És minél hosszabb az idő, ami eltelik, annál kisebb az esély rá, hiszen annál többet változik a web és változik a helyzet a keresésben is. A lényeg tehát: nem elég rendbe tenni az oldalt, hanem folyamatosan tovább kell fejleszteni a SEO szempontokat – és persze a Google algoritmusait is – figyelembe véve.
Frissítés, 2023.02.09.:
Az alcímben feltett kérdést John Mueller válaszolta meg egy 2022 decemberében tartott Google SEO office-hours során, mégpedig egy olyan esettel kapcsolatban, amelynél a gyenge minőségű tartalom miatt kapott büntetést egy webhely. A kérdező tulajdonképpen arra volt kíváncsi, hogy a webhely tartalmának mekkora részét kell módosítani, hogy mentesüljön a büntetés alól.
John Mueller válasza szerint egyrészt a korábban létrehozott alacsony minőségű vagy spames tartalmakat teljes egészében el kell távolítani, másrészt algoritmus-szintű büntetésnél néhány hónapba is beletelik, mire újra értékeli a webhely egészét a Google, azaz mire megvizsgálja, hogy most már nem spam-tartalom található rajta.
Fontos hangsúlyozni, hogy a rangsorolás feltétele az, hogy javításra kerüljön valamennyi gyenge minőségű tartalom. Majd aztán csak ezt követően kezdődik az a több hónapig tartó folyamat, amíg a Google újraértékeli a webhelyet. Azután pedig elhelyezi valahol a találati oldalakon az egyes oldalait.
2021 novemberében egyébként hasonlóan nyilatkozott John Mueller, amikor azt is elmondta, hogy meglehetősen nehéz meghatározni egy weboldal általános minőségét és relevanciáját. Sok időbe kerül a Google-nek, hogy megállapítsa, hogy egy adott webhely miként illeszkedik bele az internet egészébe.
De itt is elmondta azt, hogy néhány hónap, talán egy fél év vagy annál is hosszabb idő kell ahhoz, hogy felismerjék az oldal általános minőségében bekövetkezett jelentős változásokat. Ez indokolja tehát azt, hogy akár fél évig, vagy még hosszabb ideig is eltart, mire egy javított weboldalt újra megfelelően értékel a keresőmotor.
A fent felsorolt algoritmusok frissítéseitől a SEO-szakemberek rendszeresen sokkot kapnak, és üldözési mániájuk alakul ki. Ez abban nyilvánul meg, hogy kényszeresen találgatják: mikor, milyen algoritmus fog futni, és minden nap szorongva lesik a SEO-szeizmográfokat, hogy történt-e valami változás a találati listákon, annál is inkább, mert a Google pontos dátumokkal igen ritkán szolgál az algoritmusfrissítésekről. Ez a félelem azonban ma már irracionálisnak tekinthető. Ennek oka, hogy
Mára tehát lezárult az ijesztő, földrengésszerű pusztítást okozó algoritmusfrissítések kora, nagy horderejű változásokra nem nagyon kell már számítani. Akik tehát az irányelveknek megfelelően kezelik az oldalaikat, komolyan figyelnek a felhasználói élményre és nem alkalmaznak manipulatív technikákat, azok megnyugodhatnak a keresőtalálati láthatóságukat illetően, és nem igen kell foglalkozniuk az algoritmusokkal.
A Webshark.hu a hozzászólásoknál előzetes moderálást alkalmaz. Moderálási szabályaink itt olvashatók.