Hogyan működik a SEO szövegírás?
Amikor szöveget írunk egy weboldalra, nem árt, ha az a cél is a..
A SEO jelentése a Search Engine Optimization, vagyis a SEO magyarul keresőoptimalizálás. A tevékenység lényege: egy weboldalt bizonyos szavakra, kifejezésekre a találati lista adott helyeire, optimális esetben az első helyre juttatni. (Frissítés, 2020.06.23. – Egy új fejezettel bővítettünk: Akár egy évig is összevissza mozoghat a rangsorolásod)
Nem véletlen a nagy igyekezet, hiszen az emberek egy keresés során jellemzően csak a találati lista első oldalát nézik meg (90%), ami a Google esetében 10 találatot (most már kevesebbet átlagosan 8,5-öt, de erre a cikk legvégén még kitérünk) jelent, és közel felük az első találatra fog kattintani, de az első három találat elviszi a kattintások több mint kétharmadát.
Annak érdekében, hogy a weboldal jó helyet szerezzen meg a találati oldalakon, a weboldalt a Google algoritmusaihoz kell “igazítani”. Habár a Google algoritmusai nem nyilvánosak, tehát a nagyközönség nem tudja hogyan működnek, miként rangsorolnak, több mint 10 év tapasztalata révén felépült egy SEO-tudásanyag. Ami persze állandóan változik, ahogy az algoritmusok is változnak.
Keresőoptimalizálás azóta létezik, mióta a keresők 1993-ban megjelentek az interneten. Eleinte a weboldalak tartalma és a tulajdonos által megadott kulcsszavak alapján rangsorolták az oldalakat. A következő lépés az volt, amikor egyes oldalak népszerűsége határozta meg, hogy a találati listán (SERP, Search Engine Result Page) milyen pozícióba kerüljön egy oldal. Később már azt is figyelték, hogy egy látogató mennyi időt tölt egy oldalon. Az előbbi kettőt ötvözték is, de a keresőpotimalizálók a SEO során ezeket robottokkal képesek voltak kijátszani.
Ezt követően jelent meg az a módszer, hogy külső, az adott oldalra mutató linkek száma és minősége határozta meg, hogy az oldal milyen pozícióba kerül az organikus találatok között. A Google is ezt a módszert használta 1996-tól kezdődően.
Jelenleg a SEO Magyarországon szinte teljes mértékben a Google keresőjére történik, mivel ez vált egyeduralkodóvá több országban, köztük hazánkban is. Ugyanakkor más keresők is jelen vannak, lényegesen kisebb részesedéssel: ilyen többek között az Egyesült Államokban a Microsoft keresője, a Bing, a Yahoo, az Ask.com vagy az AOL, de egy-egy országban vannak más, elterjedtebb keresők is, ilyen például Oroszországban a Yandex, mely ott egyeduralkodó.
A keresőoptimalizálás kapcsán még fontos tudni, hogy a keresések soha nem valós időben zajlanak, az oldalakat a keresőrobotok járják be rendszeres időközönként, az általuk fontosnak tartott információkat pedig eltárolják róluk. Kereséskor ezen eltárolt adatok között keresnek a keresők, a minél gyorsabb eredmény érdekében. A lényeg, hogy nem fésülik át a teljes netet minden egyes kereséskor, hiszen az beláthatatlan időt emésztene fel.
A keresők az indexelt adatbázis alapján képeznek organikus találati listát. A keresők nem állítanak be egy-egy kulcsszóra állandó értéket, ezért sem lehet egy oldalt az organikus találati listán biztos helyre pozicionálni. A találati eredmény felhasználótól függően változhat és változik, vagyis egy adott kifejezésre tulajdonképpen mindenki számára saját preferenciáinak, lokációjának megfelelően egyedi találati listát képez a Google.
A találati lista sorrendje tehát az algoritmusok által figyelembe vett SEO tényezők alapján épül fel. Ezeket alapvetően két csoportba tudjuk sorolni:
Ebbe beletartozik minden olyan tényező, melyre hatással lehetsz a saját weboldaladon. Ide tartoznak a technikai részletek, melyek alapvetően fontosak annak érdekében, hogy a Google figyelembe vegye és rangsorolja a weboldaladat. Az on-page SEO részét képezi még többek között
Vagyis elég sok dolog, úgyhogy nem is sorolnánk tovább, mert ezekről részletesen a SEO rangsorolási tényezőkről szóló anyagunkban olvashatsz, persze néhány off-page tényező mellett.
Az on-page SEO mellett a másik nagy kategóriába azok a tényezők tartoznak, melyekre kicsit nehezebben tudsz befolyást gyakorolni, hiszen a weboldaladon kívüli tényezők. Az off-page SEO alapvetően azután következik, ha az on-page SEO már rendben van, azaz a minőség megfelelő a weboldaladon SEO szempontból. Az on-page SEO tehát meghatározza azt is, hogy mit hozhatsz ki az off-page SEO-ból.
Ilyen tipikus off-page SEO tényezőt jelentenek a külső linkek, melyek a weboldaladra mutatnak más weboldalakról. Minél több és jobb minőségű weboldalon jelennek meg linkek a weboldaladra, annál jobb helyezést érsz el a Google találtai oldalain. Az off-page SEO azonban nem merül ki a linkekben, ide tartoznak tulajdonképpen a külső reakciók a weboldaladra. Ahhoz, hogy ezek jók legyenek, egy kiváló “termékkel” kell előállnod, nem csak “egy újabbal” a piacon.
Ha viszont kiváló a termék, akkor az off-page SEO gyakorlatilag magától elvégzi a feladatát (ellentétben az on-page SEO-val). Az emberek beszélni fognak róla, mert meggyőzted őket a termékeddel. De, hogy tisztán lásd miről is van szó, soroljuk, mi tartozik bele:
A SEO-ra tehát ezen tényezők összességeként kell tekinteni, és nem szabad elveszni egy-egy elemében, például a linképítésben vagy a kulcsszavak használatában. A SEO-ban vannak ugyan gyors eredményeket hozó megoldások, ezek azonban csak rövid távon eredményesek. A keresőoptimalizálás egy hosszú távú munka, mely nem hoz azonnali eredményeket.
Tehát, ha egy bizonyos keresőkifejezésre az első helyet szeretnéd megszerezni, akkor az a dolgod, hogy abban a témában a Te weboldalad kínálja a legjobb választ. Ehhez kell a kiváló tartalom, a technikailag helytálló oldal, a jó felhasználói élmény és a biztonságos weboldal. Ezek mindegyikét figyelembe kell venni, amikor a weboldalad optimalizálni akarod a keresőre.
Ha a Google rangsorolási tényezőire is kíváncsi vagy, akkor itt találsz róluk bővebben információkat.
Ha pedig a legfontosabb SEO alapokat tekintenéd át, akkor erre a bejegyzésünkre kattints!
A keresőoptimalizálás folyamata, vagyis egy oldal SEO-ja mindig az elemzéssel indul. Egy már létező weboldal esetében fel kell mérni azoknak a paramétereknek az értékeit, melyek a keresők számára is meghatározók. Felsoroljuk a fontosabb elemeit annak, hogy egy ilyen elemzés során mire kell figyelni. A munka a SEO-audittal indul, melyet részletesen ebben a cikkünkben tekintettünk át, de itt is érintjük. Ezután pedig keresésekkel, szoftverekkel és manuális elemzéssel elkezdjük átnézni, hogy rendben vannak-e a SEO-alapok, nincs-e gond az előző fejezetben felsorolt SEO-tényezőkkel. Érdemes átfutni a linkelt cikkeket, de azért felsoroljuk itt is, hogy nagy általánosságban, négy fő csoportot tekintve mire is kell figyelni:
Többek között (az indexelés és feltérképezhetőség vizsgálata után) megnézzük, milyen az oldal helyezése a találati listán egyes kulcsszavakra. Ha rossz, akkor lehet, hogy csak nem figyeltek a SEO-ra, de lehet, hogy gyanakodhatunk valamilyen büntetésre. A Google Search Console és egyéb szofterek segítségével számos egyéb fontos tényezőt is ellenőrizni kell a technikai részletekkel kapcsolatban, és kiderül az is, hogy miként alakult a teljesítménye az oldalnak, láthatóvá válnak az alapvető hibák.
Habár az utóbbi időben a kulcsszavakhoz való viszony jelentős változáson esett át, még mindig ez a keresőoptimalizálás kiindulópontja. Mielőtt tehát bármilyen SEO-tevékenységbe belevágnánk, tisztázni kell, hogy melyek a meghatározó kulcskifejezések. Ezek vagy már rendelkezésre állnak, tehát van egy létező lista, melyet csak átvizsgálni vagy bővíteni kell, vagy pedig kulcsszóelemzéssel előbb meg kell határozni.
Ennek kapcsán fontos felhívni a figyelmet arra, hogy ma már nem csak egyszavas kulcskifejezésekben kell gondolkodni, különösen akkor nem, ha jelentős a verseny a weboldalak között az adott kulcsszóra. Ehelyett számba kell venni az ún. long tail kifejezéseket, sőt esetleg gondolni kell a szemantikus keresésekre is. Az olvasókban már kérdések merülnek fel, és nekünk ezekre a kérdésekre kell oldalainkon válaszokat megfogalmazni, hogy azok megjelenjenek a keresőkben. Ezekre ugyan kevesebb látogató fog érkezni, mint egy-egy felkapott egyszavas kifejezésre, azonban több több olyan kifejezés van, és egyes szavakra kisebb lehet a verseny, így jobb esélyünk van megjelenni kedvezőbb helyen az organikus találati listán.
A kulcskifejezések listájának és azok fontossági sorrendjének kialakításakor sok szempontot kell mérlegelni, sok kifejezést kell megvizsgálni a mérési eredmények figyelembevételével. Ezért némi időt vehet igénybe egy használható, induló kulcskifejezési lista elkészítése, mellyel szemben ugyanakkor a folyamatos frissítés, illetve bővítés is felmerülő igény.
Miután a technikai tényezőket, kulcsszavakat meghatároztuk, ezek fényében elkezdhetünk a tartalommal foglalkozni, hiszen ma már ez a SEO egyik legfontosabb eleme. A tartalom elemzése alatt az oldal különböző szövegeinek vizsgálatát értjük. Ennek során nem csak a kenyérszövegeket elemezzük, hanem az úgynevezett meta sorokat, a képekhez tartozó alt tagokat, a címsorokat, stb. Ilyenkor nem csak az a lényeg, hogy mindegyikben szerepeljenek a kulcskifejezések, hanem az, hogy hol, milyen eloszlásban, milyen mennyiségben. A sokkal és a kevéssel is gond lehet, ahogy a pozícióval is.
Vizsgálni kell maguknak a szövegeknek az egyes oldalakon megjelenő minőségét, mennyiségét, struktúráját, médielemekkel való megfelelő kiegészítését a SEO irányelveinek megfelelően. Különös figyelmet kell fordítani az oldalon belüli és neten előforduló duplikációkra, a megfelelő átirányításokra, melyek, ha hibásak, szintén duplikációként jelentkeznek.
Mára csökkent a jelentősége a linkeknek, azonban még mindig meghatározó eleme a keresőoptimalizálásnak. Mivel az elmúlt években komoly változás következett be az irányelveket illetően, ezért sok esetben ma már azt kell megvizsgálni, hogy rendelkezik-e az oldal nem megfelelő linkekkel: sok, egyetlen IP-ről érkező, azonos kulcsszavas horgonyszövegű, rossz minőségű oldalról, például katalógusokból érkező linkekkel. Az elemzés kiterjed a közvetlen konkurencia linkprofiljának elemzésére, miben tér el minőségben és mennyiségben, hol vannak jelen, ahol a mi oldalunk nem.
Különös jelentőséggel bír a Google számára egy weboldal sebessége mind desktop, mint pedig mobilos keresés esetén. Egy weboldal betöltődésének idejét minél lejjebb kell szorítani, lehetőleg 1,5 másodperc alá asztali gépen, illetve laptopon, és egy másodperc alá mobilon mobilhálózatot használva. Mérni kell tehát az oldal betöltési idejét, valamint lefuttatni a Page Speed Insightsnak elnevezett, Google által a fejlesztők számára készített eszközt, mely megmutatja, hogy az oldalon hol keressék az optimalizálási lehetőségeket.
Weboldal sebesség és konverzió (Forrás: Tagman)
Mivel ma már sok keresés érkezik mobiltelefonokról is, így a Google azokat az oldalakat részesíti előnyben, melyek mobilra optimalizáltak. Előnyt élveznek a reszponzív weboldalak, míg hátrányt szenvednek a mobilra nem felkészített oldalak, így ezt az elemet is vizsgálni kell.
Ezeken túl mindenképpen figyelni kell a közösségi média jelenlétre, annak beágyazására az oldalba, hiszen közvetetten mindenképpen befolyással van a találati listán való helyezésünkre, habár a közösségi média optimalizálás (SMO) már túlmutat a SEO keretein.
Ugyancsak rá kell tekinteni a webdesignra, illetve a UX-re, hogy megfelelő-e a weboldal menürendszerének, belső linkstruktúrájának felépítése, ezeket könnyen be tudja-e járni a robot, helyett kapott-e a láblécben vagy külön oldalon oldaltérkép, stb. Meg kell nézni az URL-eket, megfelelőek vagy kell-e rajtuk változtatni, mert mondjuk nem érthetőek a felhasználók számára, vagy azt is, hogy használ-e az oldal strukturált adatokat a schema.org-nak megfelelően.
Mindezen fő csoportokba sok-sok elem beletartozik, melyek között akár a legapróbb tényezők is nagymértékben befolyásolhatják a weboldal helyezését. Ezeket néha nehéz megtalálni, hiszen összességében már több száz olyan dolgot kell átvizsgálni, ellenőrizni, melyekkel hatással lehetnek a weboldal SEO-jára.
Amikor azt veszed észre az analitikát figyelve, hogy egyszer csak jelentős esés következik be a forgalmadban, akkor érdemes lehet keresőoptimalizálási okokra is gyanakodni. Ehhez persze először meg kell győződnöd arról, hogy nem szezonális változások miatt hullámzik a forgalmad, nincs-e a jelenség mögött egyéb, külső vagy éppen technikai tényező. Ezt az analitika elárulhatja. Ha úgy tűnik, hogy nincsenek ilyen okok, akkor az alábbi tényezőket érdemes lehet ellenőrizni.
Minden mélyebb változtatás visszaesést eredményezhet a forgalomban. Lehet szó egy redesignról, migrálásról, de akár egy egyszerű tartalomtisztításról vagy -törlésről is. Ha az elmúlt időszakban bármi ilyesmire sor került, akkor érdemes erre gyanakodni a forgalomesés okaként.
A leggyakrabban figyelmen kívül hagyott ok az indexelési és a feltérképezési probléma. Ehhez meg kell vizsgálni a Search Console-ban, hogy vannak-e feltérképezési hibák.
Szintén érdemes egy pillantás vetni a Googe Index menüpont alatt található Indexelési állapotra is, hátha látható a nyoma egy nagyobb esésnek. Fontos még a robots.txt ellenőrzése, hogy nem kerültek-e ott kizárásra oldalak.
Előfordulhatnak weboldalak esetében úgynevezett kézi műveletek a Google részéről, amikor azt érzékeli, hogy megsértette az oldal a webmester minőségi irányelveket. Az algoritmus-szintű büntetésektől eltérően ezekről értesítést küld a Google, mely a Keresési forgalom menüpontban a Kézi műveleteknél található. Már, ha kaptál ilyet. Nem csak az lehet az oka egy ilyen büntetésnek, ha valamilyen black hat SEO tevékenységet folytatsz (amiről egy később fejezetben találhatsz mélyebb részleteket), hanem az is, ha feltörik az oldalad és azon változtatásokat eszközölnek a hackerek.
Persze a leggyakoribb eset, amikor spam-linkek miatt kap büntetést egy oldal. Ezek kapcsán is érdemes bevetni a Search Console-t, na meg más szoftverek sem ártanak, melyek a büntetési kockázatok mértékét tudják elemezni. De nem csak backlinkekről lehet szó, hanem kifelé mutató linkekről is. Gondot okozhatnak persze a félrevezető átirányítások, úgyhogy érdemes ellenőrizni a 301-es és 302-es átirányításokat is. Szintén problémát jelent, ha mást látnak a keresőmotorok, mint a felhasználók. Ezt a Search Console-ban a Megtekintés Google-ként résznél ellenőrizheted egyes oldalak esetében. Nem kedveli ugyanakkor a kereső a gyenge minőségű tartalmakat és a duplikált tartalmakat sem. Utóbbi vonatkozik a címekre és a meta leírásokra is.
Ha pedig sikerült rendbe raknod, megtisztítanod az oldalad, akkor ne feledkezz meg a felülvizsgálati kérelemről a Search Console kézi műveleteinél.
Nagyobb az esély azonban arra, hogy nem kézi büntetést szenved el az oldalad, hanem algoritmus-szintűt. Azaz a Google frissíti egy algoritmusát, aminek hatására bezuhan az oldalad a találati oldalakon. Ezt akkor viszonylag egyszerű kideríteni, ha valamilyen nagyobb, a hírekben is szereplő algoritmusfrissítésre kerül sor.
Jelentős befolyással bír a helyezésedre a weboldaladra mutató linkek minősége és száma. Egy-egy jobb link elveszítése pozícióromlást is eredményezhet, különösen akkor, ha a weboldaladra nem mutat belőlük túl sok. Ehhez persze ellenőrizni kell rendszeresen a backlink profilt, elsősorban azt, hogy történt-e valami változás. Ehhez érdemes a megfelelő szoftvereket használni, különben elég nehéz megtalálni a bűnöst.
Ha a forgalom visszaesése nem zuhanásszerű, hanem inkább fokozatos és csak bizonyos kulcsszavakra következik be, akkor arra is gyanakodhatsz, hogy beerősített a konkurencia. Nagyobb lett a forgalmuk, jobb lett a tartalmuk, több a hivatkozás rájuk, vagy akár csak egy jobb meta leírás vagy a strukturált adatok használata miatt hatékonyabb lett a megjelenésük a találati oldalakon, stb. De még az is lehet, hogy elkezdtek Adwords-ben hirdetni, ezáltal pedig az eddigi forgalmad egy része náluk csapódik le, hiszen így legelől jelennek meg a találati oldalon egy adott kulcsszóra. Ilyenkor persze már nem SEO-eszközökkel oldható meg a probléma, hanem azzal, hogy Te is hirdetni kezdesz Adwordsben.
Amennyiben ezeket áttekintettük, kezdődhet a tulajdonképpeni keresőoptimalizálás: az eddig elemzett pontokon végighaladva a kereső igényeinek megfelelően rendbe kell tenni az oldalt. Ennek egy része webdesign, weboldalfejlesztési munka, foglalkozni kell a tartalommal, és aztán még ott van az off-page SEO is.
Amennyiben az oldal technikailag rendben van, webdesignja, UX-e, struktúrája jó, a menürendszer és az URL-ek érthetőek, akkor elkezdhetjük az egyes aloldalak mindegyikén a tartalom korrekcióját vagy kialakítását a jelenleg érvényes SEO-irányelveknek megfelelően, annak fényében, hogy melyek a kulcskifejezéseink, és melyik oldalt melyikre akarjuk optimalizálni. Rendbe tesszük a meta sorokat a kulcskifejezéseket és a karakterszámokat figyelembe véve, kialakítjuk a megfelelő minőségű és hosszúságú kenyérszöveget az oldalon, különös figyelmet fordítva a címsorokra.
Ami fontos, hogy lehetőleg ne legyenek tartalom nélküli, túl rövid szövegeket tartalmazó oldalaink. Ugyanakkor fontos ezek minősége, és az, hogy mennyire elégítik ki a közönség igényeit. Amelyik oldalt nem szeretnénk a közönség és a Google elé tárni bármilyen okból, akár duplikált szöveg, akár szövege vagy minősége miatt, azt ellátjuk a noindex jelzéssel. A képek alt tageket kapnak, hogy szintén kereshetők legyenek, a szöveget pedig az olvasók számára befogadhatóvá formázzuk.
Fontos, hogy a weboldal tartalmi szempontból folyamatosan frissíthető legyen, illetve frissüljön, az oldalak rendszeres időközönként módosuljanak. A gyakorlatban megoldásként általában egy blog vagy hírrovat, vagy bármilyen beszámoló-oldal kialakítása szokott felmerülni, melyek segítenek abban, hogy újabb kulcsszavakra optimalizált újabb tartalmakkal bővüljön, és ezek linkjei más, magas minőségű oldalakon jelenjenek meg, kialakítva egy jó linkprofilt is egyben. Az optimális természetesen az, hogy jó minőségű (magas PR és DA értékű) oldalakról érkezzenek a backlinkek.
Utóbbi fejlesztéséhez természetesen további erőfeszítéseket is érdemes tenni, mely azonban pénzügyi kérdés is egyben, különösen, hogy folyamatos és komoly odafigyelést igénylő munkáról van szó, és nem egyszeri, rohamtempóban elvégzett katalógusregisztárcióról, mely évekkel ezelőtt volt jellemző, mára azonban már nem igazán értékeli a Google.
Programozói munkaként a weboldal gyorsítása merül fel, a Page Speed Insight minden weboldal esetén rámutat a hibákra és a fejlesztési lehetőségekre a tömörítéseket és gyorsítást illetően. Mint azt korábban már jeleztük: mobilra is optimalizálni kell az oldalt, akár reszponzív dizájn kialakításával, valamint a strukturált adatokra is figyelmet kell fordítani.
A weboldaltulajdonosoknak általában elég homályos elképzeléseik vannak a SEO-ról. Ez persze érthető, hiszen el vannak foglalva a cégük ügyeivel, nem érnek rá a keresőoptimalizálás részletkérdéseivel foglalkozni. Ugyanakkor vannak olyan alapvető dolgok, melyekkel nekik is tisztában kell lenni, mielőtt egyáltalán elkezdenek a SEO-n gondolkodni. Ezzel ugyanis több felesleges körtől kímélnék meg magukat, és azt is, akit kiszemeltek a SEO-munkára.
Tehát mielőtt még bármilyen lépést tennétek a weboldalatok keresőoptimalizálásával kapcsolatban fontoljátok meg az alábbiakat:
A keresőoptimalizálás alapvetően hosszú távú munkával hozza meg az eredményét, és nem egy egyszeri tevékenység. Habár vannak olyan elemei, melyeket egyszer elvégezve is változást hozhatnak a helyezést, komolyabb eredményeket csak folyamatos erőfeszítésekkel, optimalizálással lehet elérni. Ennek több oka is van.
Egyrészt a SEO dinamikusan változik, ezért érdemes folyamatosan figyelemmel kísérni és munkálkodni rajta. Ahelyett, hogy egyszer kiadnánk feladatként, majd elfelejtkeznénk róla néhány évre. És nem csak a Google algoritmusainak változásai miatt, hanem azért is, mert az emberek keresési szokásai folyamatosan változnak. Máshogy keresünk mobilon, mint korábban laptopon vagy asztali gépen, ráadásul egyre nagyobb teret hódít a hangalapú keresés, ami még inkább előtérbe tolja a long tail kulcsszavakat. Ezekhez a változásokhoz pedig folyamatosan igazodni kell.
Másrészt a végrehajtott változtatásoknak is csak lassan bontakozik ki az eredménye. Hónapokat kell várni arra, hogy az SEO-munka hatását teljes egészében láthassuk. A büdzsét tehát ennek megfelelően kell tervezni.
Végül azt is fontos tisztázni, hogy a SEO nem egy csodaszer, nincsenek benne trükkök. Olyan kipróbált megoldásokra épül, melyek javítják egy weboldal organikus helyezését. Az indulásnál alaposan meg kell vizsgálni a weboldalt, fel kell fedezni az egyéni adottságait, lehetőségeit, problémáit. Fontos tehát egy részletes auditálás, majd a tervezés.
Lehet, hogy sokan úgy vélik, a SEO egy gyors és könnyű megoldás a látogatók számának gyarapítására, ez nincs így. Habár az e-mail marketing után a második legolcsóbb lehetőség vevőszerzésre, ennek ellenére elég csak arra gondolni, hogy egy folyamatos, költséges munkáról van szó.
Mivel a Google algoritmusainak működését nem könnyű megérteni, ráadásul állandóak a változások. Persze keresőoptimalizálásra többféle megoldás létezik, a tiltott és szürkezónás technikák – melyek rövid távon hozhatnak eredményt, hosszabb távon azonban kockázatosak – olcsóbbnak tűnhetnek, de ezek meglehetősen igénytelenek.
A legbiztosabb eredményt csak a tiszta SEO-vel lehet elérni, ami persze idő- és munkaigényesebb. Azt talán felesleges is mondanunk, hogy Amerikában átlagosan évi 60 ezer dolláros (18 millió forint) büdzsével számolnak egy-egy SEO-megbízás esetén. A hazai piac kicsit más pénzügyi keretek mozog.
A keresőoptimalizálást minden kis és közepes méretű cég esetében bele kell illeszteni az átfogó marketingstratégiába. Ez azt jelenti, hogy eredményeket az hoz, ha a közösségi médiát, a tartalomkészítést, a PPC-kampányokat és a klasszikus marketinget integráljuk a SEO-val, sőt még a sales munkájával is. Így tudnak egy cél érdekében hatékonyan dolgozni.
A jó SEO a jó weboldalnál kezdődik. Egy jó weboldalnak pedig most már mobilbarátnak kell lennie, azaz mobiltelefonra optimalizált elsősorban. Ráadásul a Google hamarosan átáll az úgynevezett mobil indexre, vagyis a helyezéseidet egyes kulcsszavakra a mobilos weboldalad alapján fogja meghatározni. Úgyhogy biztosra veheted, hogy a mobilbarátság fontos tényező a Google számára, ezért Te is tekintsd annak.
Végül pedig itt van az eredmények kérdése, azaz miként méred a megtérülést a SEO-nál? Sokan a helyezést veszik figyelembe egy-egy kulcsszóra, ez azonban nem a legjobb mérőszám, amikor a keresőoptimalizálás hatékonyságát akarjuk megállapítani. Mert mi van, ha ugyan elérsz egy jó helyezést egy-két kulcsszóra a Google-ban, de ez összességében nem hoz forgalomnövekedést? A látogatóid vissza-visszatérnek a weboldaladra? A forgalomból konverzió is lesz? Mi a helyzet a visszapattanással? Mit mutatnak az eladási adatok?
Megannyi kérdés, mely azt jelzi, hogy a helyezésnél jobb mérőszámokat érdemes használni, mert ma már nem sokat jelent, hogy néhány kulcsszóra ügyes megoldással az első oldalra vagy akár az első helyre kerülsz, tegyük hozzá: sok esetben ideiglenesen. A keresések és a Google arra adott válaszai ma már meglehetősen szofisztikáltak. Ezért gondolkodj látogatószámban, visszatérő látogatókban, vagy még inkább: leadekben, konverziós arányban és eladásokban! (A mennyit számít egy jó helyezés egy adott kulcsszóra kérdését ennek a bejegyzésnek a kulcsszavakról szóló fejezetében érintettük. Érdemes elolvasni kiegészítésként!)
A Google keresőalgoritmusai egy év alatt mintegy 500-szor változnak, mindenféle jelzés nélkül. De nem csak a SEO-ban folyamatos a változás, hanem a Facebook és más közösségi csatornák esetében is érzékelhető a gyors tempó. A legjobb taktika tehát az online marketingben az, ha folyamatosan képben vagyunk a változásokat illetően, vagy kiadjuk a feladatot egy olyan szakembernek, cégnek, aki ezt megteszi helyettünk
A Google most már olyan, mint egy barát vagy egy ismerős egy idegen városban: ellát tanácsokkal, megmondja, hol a legközelebbi bolt, hol érdemes vásárolni, hova menjél fodrászhoz, kávézóba vagy edzőterembe. A Google is egy ilyen jól informált ismerős akar lenni, amikor kérdezünk tőle valami, akkor a legjobb válaszokkal áll elő. Ezért is kellenek a mobilbarát oldalak, melyek alkalmazkodnak minden eszközhöz, amelyek rendszeresen jelentetnek meg minőségi, a felhasználók kérdéseire választ adó tartalmakat, és mindezt megfelelően optimalizálva a keresőre.
A SEO tehát nem egy csodaszer. Érdemes tisztában lenni az általa használt megoldásokkal, a korlátaival, a költségekkel és persze a lehetséges eredményekkel, melyeket egyáltalán remélhetsz tőle.
Most már talán mindenki tudja, hogy a Google számára a három legfontosabb rangsorolási tényező a tartalom, a linkek és a RankBrain. Azt is tudjuk, hogy a tartalom esetében egyedi és minőségi megoldásra kell törekedni, míg a linkeknek megbízható forrásokból kell érkezniük. Rendben, de hogyan is kezdjünk bele az egészbe?
Okkal merülhet fel mindenkiben ez a kérdés, aki keresőoptimalizálni próbálja a weboldalát. A megoldás azonban nem olyan bonyolult. Van ugyanis egy fontos kérdés, melyet a SEO-munka kezdetén érdemes feltenni magunknak a helyes kiindulási pont és irány megtalálása céljából. Ez így hangzik:
Mármint a találati oldalakon. Minden cégtulajdonos úgy gondolja ugyanis, hogy ő a legjobb, és neki kellene az első helyen állnia a találati oldalakon. Akkor viszont meg is kell tudni fogalmazni pontosan, hogy miért is indokolt ez az első hely?
Az nem elég, hogy “mert mindenkinél jobbak vagyunk”, vagy mert “jobban odafigyelünk az ügyfeleinkre”. Ezek általánosságok, kicsit mélyebben át kell gondolni a helyzetet a pontos válaszért. Viszont, ha a válasz végre megvan, akkor jóval könnyebbé válik a SEO-munka (és persze a marketing is). Ennek oka, hogy
Amikor sikerül kiötlened a kellően részletes és alapos választ a kérdésre, akkor pontosan fogod tudni, hogy miben különbözik a céged a versenytársaktól, miben vagy egyedi. Ezzel a tudással pedig a tartalmad szinte önmagát fogja megírni.
Emellett persze egyszerűbbé válik a linképítés is, hiszen tudni fogod, hogy milyen irányban érdemes próbálkoznod. A linkjeid egyedibbek lesznek és valóban rád szabottak a megjelenések, ez pedig a weboldalad forgalmára is jó hatással lesz, ráadásul nem fogsz kínlódni, amikor ötletek kellenek.
Emellett persze jót tesz a megjelenésednek is. Hiszen nem lehet mindenkire ugyanazt a méretű ruhát ráadni, és amikor elkezdesz ismerkedni a feltett kérdéssel, majd végül valóban előállsz egy jól átgondolt és részletes válasszal, azt mindenki észre fogja venni rajtad, hogy passzol hozzád, amit csinálsz. Hiszen valóban elkezdesz különbözni a többiektől, ami hozni fogja az eredményeket is.
A másik kérdés, ami jó kiindulópontot biztosít a SEO-hoz:
Ha elfogultság nélkül tekintesz a weboldaladra, akkor milyennek látod az értékét és a megjelenését? Csak olcsó trükkökkel és üres tartalommal próbálod elérni az embereket, vagy valóban adsz nekik valami fontosat és használhatót? Ha meg akarsz jelenni a Google találati listáján, akkor nem a saját, hanem a Google nézőpontjából kell szemlélned a világot.
Miközben a Google algoritmusaival kapcsolatban főként csak találgatunk, addig az egészen biztos, hogy a keresőcég célja az, hogy azt mutassa az embereknek, amire valóban kíváncsiak. Vagyis olyan weboldalakat sorol fel, melyek jól használhatók és értékes a tartalmuk.
Az átgondolandó feladatok három csoportra oszthatók. Az elsőt a szélesebb stratégiai döntések jelentik – melyek inkább csak a kulcsszavak, témák kapcsán érintik a SEO-t -, a másodikba a technikai megoldások tartoznak, melyeket a fejlesztőkkel kell megbeszélned, míg a harmadik terület a designé.
Miután meghatároztad a klasszikus marketinges értékajánlatodat, azt is ki kell találnod, hogy miként kommunikáld ezt online. Az általad használt kifejezések azok, amelyekre az emberek rákeresnek, amikor meg akarják oldani a problémáikat? Mennyire versenyképesek ezek a kifejezések a keresőben? Elképzelhető, hogy a kiválasztott kulcsszavakra túl nagy a verseny, ezért más vagy long tail variációkat kell találnod.
A kérdések, amelyeket a kutatás előtt fel kell tenned magadnak:
Hogyha ezeket a kérdéseket megválaszolod, akkor fel tudod építeni a weboldalad azon szakaszokat figyelembe véve, melyeken a felhasználóknak át kell jutniuk, hogy elérjék a céljukat. A legjobb esetben ezeket a kérdéseket még az oldal készítése előtt át kell gondolnod, mert így tudni fogod, hogy melyik oldalakat milyen speciális szándékokat és kulcsszavakat figyelembe véve hozz létre.
Az, hogy kikkel versenyzel a digitális térben, meghatározza a weboldalad architektúráját vagy a felhasználói élmény kialakítását. A versenytársaidnak három típusa van:
Miután elkészítetted a versenytársak listáját, elemezned kellene, hogy hol állnak és neked mekkora erőfeszítésedbe fog kerülni, hogy utolérd őket.
Még az oldal indulása előtt érdemes eldöntened, hogy https-t vagy http-t használj. Egyszerűbb így, mint később váltani, miközben lehet tudni, hogy előbbit támogatja a Google, és már rangsorolási tényezővé is előlépett, miközben egyre nő a https-t használó oldalak száma. És nem csak akkor van erre szükséged, ha felhasználói adatokat kezelsz. Ha viszont ezt teszed, akkor mindenképpen.
A duplikált tartalom miatt ugyan nem büntet a Google, de komoly problémát jelenthet számodra, ha ugyanaz a tartalom több URL-en is megjelenik. A duplikált tartalmak kérdését már alaposan átrágtuk, érdemes még a weboldal elkészítése előtt végiggondolni. A lényeg itt az, hogy lehetőleg minden tartalmi egység külön URL alatt legyen elérhető.
A fejlesztés során a programozókat szorítja a határidő, és ennek gyakran áldozatul esnek olyan területek, melyek aztán érintik a weboldalsebességet. Ezért már az indulásnál érdemes külön kommunikálni a weboldalsebességgel kapcsolatos elvárásaidat feléjük. Fontos dologról van szó, nem véletlenül írtunk már ilyen sokat a weboldalsebességről.
Előbbihez kapcsolódik, de külön is érdemes kitérni arra, hogy a képek lehetőleg jól tömörítettek és a lehető legkisebbek legyenek. Általában a képek szokták leginkább megterhelni a weboldalt. Ezzel azonban még nem ért véget a dolgod.
Amikor képeket helyezel el a weboldaladon, akkor mindegyiket el kell látnod a megfelelő szöveggel, hogy jó eséllyel megjelenjen a keresőben, és ezzel tovább optimalizálhatod az adott oldalt is. Szerepeljen a képek fájlnevében is a kívánt kulcsszó, emellett jelenjen meg az alt tagben és a kép title-ben (ez látható akkor, amikor egy kép fölé viszed az egérmutatót) egy értelmes mondat keretében. Ezen túl még képaláírással is elláthatod a képed.
Ha azt tervezed, hogy külföldi országokban élő felhasználókat is megcélzol a weboldaladdal, akkor el kell döntened, hogy egy többnyelvű, egy többrégiós, vagy a kettő kombinációját alkalmazó weboldad lesz-e. Ez fontos a lokalizált kulcsszókutatás, a hreflang és a duplikált tartalom szempontjából is.
Ha különféle ország-szintű domaint használsz, azzal képes leszel minden országot és egy nyelvet sokkal jobban megcélozni. Ugyanakkor ez egy jóval komolyabb infrastruktúra kialakítását és fenntartását jelenti, melynek során minden oldalra egyedi tartalmat kell készíteni, és minden domaint külön kell marketingelned.
Ha a több nyelvet egy weboldalon próbálod megoldani, akkor a legjobb megoldás, ha almappákat használsz (például: www.valami.hu/hu, www.valami.hu/en, stb.) Ezek az almappák egyetlen platform, illetve CMS segítségével futtathatók, ami azt jelenti, hogy a fejlesztési igény jóval szerényebb.
A weboldalad redesignja során ne hagyd elveszni a régi oldalaidat. Ha meg is szűnik egy weboldalad, a régi URL-eket irányítsd át az új megfelelőire. Ennek hiányában a felhasználók a régi URL-ek meglátogatása során csak egy 404-es hibaüzenettel találkoznak. Ami persze nem feltétlenül gond, de ha a régi weboldalad jó helyezést ért el a keresőben, és egyszerűen megszünteted, akkor az a forgalom kiesik, míg ha átirányítod, akkor a régi oldaladra érkező forgalmat megkapja az új oldalad.
Ehhez használj 301-es átirányítást, ezzel jelezve a keresőnek, hogy melyik régi URL-ednek melyik új URL-ednek felel meg. Ennek persze megvannak a szabályai – melyeket az előző linkre kattintva megtalálsz -, melyeket érdemes betartani, hiszen a Google nem szereti, ha manipulálod az átirányításokat.
Ha beállítottad az átirányításokat, akkor a Google Search Console-lal ellenőrizd, hogy maradt-e bármilyen 404-es oldal. Ha igen, akkor azt is irányítsd át a megfelelő, új oldalra. A felhasználók számára nem túl kellemes élmény egy-egy 404-es hibaüzenetbe belefutni, ezért, ha mégis van ilyen linked, akkor készíts egy egyedi megoldást rá, melyen elnézést kérsz a kellemetlenségért, valamint linket ajánlasz nekik.
A Google gyakran változtatja ajánlásait és elvárásait a weboldalakkal szemben. Ehhez igazodnod kell, amit könnyebben teszel meg, ha az általad használt platform/CMS kellően rugalmas a gyors változtatásokhoz.
Egy hatékony információs architektúrára van szükséged ahhoz, hogy a keresőmotorok képesek legyenek megtalálni a tartalmaidat, és megmutatni azt az embereknek. Ha a robotok nem férnek hozzá a tartalomhoz, akkor nem is fogják rangsorolni. Egy weboldal információs felépítése fontos a Google számára, mivel az emberek számára is lényeges, hogy könnyen megtalálják, amit keresnek.
Meg kell próbálnod egy lapos oldalstruktúrát kialakítanod, vagyis egyetlen oldal se kerüljön négy kattintásnál mélyebbre a főoldalhoz képest. Ezzel lehetővé teszed a keresőmotorok és az emberek számára, hogy viszonylag kevés kattintással megtaláljanak mindent a weboldaladon.
A kulcsszó és a versenytárs-kutatást kell használnod ahhoz, hogy megtudd, milyen weboldalakra van szükséged. Ugyanakkor mindig a felhasználók lebegjenek a szemed előtt, amikor meghatározod, hogy miként csoportosítod és kapcsolod össze ezeket a weboldaladakat.
A Google azt javasolja, hogy a weboldaladon alakíts ki világos hierarchiát és használj szöveg alapú linkeket. Emellett minden aloldalad legyen elérhető legalább egy statikus, szöveges linkről. Amit fontos elkerülni, például egy webáruház esetében, hogy túlságosan bonyolulttá tedd a hierarchiát. Az ugyanis rontja a felhasználói élményt, amikor egy termékhez úgy tudnak csak eljutni a látogatók, ha a főoldalról átkerül a vevő egy kategóriaoldalra, onnan egy alkategóriába, majd onnan egy újabb aloldalra kell navigálni, hogy aztán ott végül megjelenjen maga a termék.
Miközben a keresőmotorok többféle médiát is képesek értelmezni, a keresőoptimalizálás szempontjából még mindig a szöveg a legfontosabb. Ezért is beszél mostanában mindenki a tartalommarketingről, többek között mi is, valamint ezért van szükséged arra, hogy minden oldaladon legyen tartalmad. Habár nem mindegy, hogy milyen minőségű és mélységű, de még egy 150 szavas szöveg is jobb, mint ha semmi sem lenne ott. Arról se feledkezz meg, hogy minden oldal címét és meta leírását is töltsd ki a megfelelő karakterhosszúságú szövegekkel. Ezek nem ismétlődhetnek meg más oldalaidon, és nem árt, ha az adott aloldal kulcsszavai szerepelnek benne.
Gyakori hiba, amikor kép formában szerepelnek fontos információk egy-egy weboldalon. Ezeket nem tudja értelmezni a kereső, helyette a fontos nevek, a cím, a telefonszám, bármilyen tartalom, linkek mind szöveges formában kerüljenek feltüntetésre. Emellett fontos az URL-eket is megfelelően szövegezni, bár SEO szempontból ennek már nincs olyan nagy jelentősége.
A design során abból indulj ki, hogy milyen tartalmat akarsz megosztani az emberekkel. A tartalmi stratégiádat is írd le, mert így derül ki, hogy milyen formát fogsz használni, és milyen funkciók szükségesek hozzá. Tudnod kell, hogy alapvetően milyen tartalomtípusokat készítesz majd, mert ennek alapján lehet megtervezni a weboldalakat és segít kialakítani egy következetes felhasználói felületet.
Egy weboldal sokféle technológiát használhat, melyek tartalmát a robotoknak nem mindig könnyű dekódolni. Habár ezek fontosak lehetnek a megfelelő felhasználói élmény megteremtéséhez, azzal is tisztában kell lenned, hogy ezek használata okozhat-e gondot a kereső szempontjából. A weboldalad gépi olvashatóságát javíthatod azzal is, ha strukturált adatokat használsz.
A kis cégek számára – különösen, ha helyi szinten akarnak érvényesülni – rendkívül fontos, hogy jó helyezést érjenek el a mobil találati oldalakon is. Azon felhasználók 50 százaléka, akik valamilyen helyi vállalkozást keresnek a mobiljukon, még aznap el is fognak látogatni az adott céghez. Ráadásul a mobilkeresések 78 százalékából lesz offline vásárlás a helyi üzletben.
Ahhoz viszont, hogy jól teljesíts a mobilkeresésekre, mobilbarát webdesignra van szükséged. A legjobb megoldás ebből a szempontból a reszponzív design, mely azonos tartalmat és felhasználó élményt kínál a desktopos, a tabletes és az okostelefonos felhasználóknak is.
A mobil ma már egyre kevésbé elkülönült csatorna, sokkal inkább egy gyakran használt technológia, mellyel az emberek nap mint nap elérik a webet. A hosszú távú célod nyilván az, hogy egy akadálytalan és következetes felhasználói élményt teremts minden eszközön. Ehhez a reszponzív design, illetve a dynamic serving megoldások kínálják a legjobb lehetőséget.
Mint weboldal-, illetve cégtulajdonos nem feltétlenül kell minden témában mélyre ásnod (bár a linkelt cikkeink révén további betekintést nyerhetsz ezekbe), ugyanakkor érdemes tisztában lenned azzal, hogy melyek azok a területek, melyekre akkor is figyelned kell, ha a munkát mások végzik el, vagy akár másokat bízol meg azzal, hogy megmondják, mi a legjobb megoldás a weboldalad számára.
Ha meg akarod állapítani, hogy mennyire sikeres egy SEO-kampányod, ahhoz először célokat kell rendelned. Meg kell tudnod mondani, hogy mi a szándéka a SEO-stratégiádnak. Jobb helyezést akarsz vagy nagyobb forgalmat? Amennyiben megvannak a céljaid, már tudod is mérni a SEO-kampányod sikerességét.
Nyilván a legtöbb weboldaltulajdonos, ha a célokról kérdezik, akkor egyből rávágja, hogy az első helyre szeretne kerülni. De valóban ez a legfontosabb cél? Vagy pedig az, hogy nagyobb legyen a forgalma, több a konverziója, és növekedjenek a bevételek? Lehet, hogy Te valójában több megrendelést szeretnél vagy esetleg több visszaérő látogatót. Ezek mind eltérő célok, melyeket eltérő módon tudsz mérni.
Persze, nyilván egy jobb helyezés nagyobb forgalmat is hoz, az azonban nem szükségszerű, hogy tényleg jelentős mértékben növeli a látogatószámodat. Fontos ugyanis a kulcsszavaknál a keresési szándék, ami nem feltétlenül vásárlásra irányul. Tehát valójában a weboldaltulajdonosok nagyobb forgalmat szeretnének, nem pedig első helyeket. És ha termékeket vagy szolgáltatásokat árulsz, akkor eladásokat akarsz. A SEO stratégiádnak ilyen esetben tehát arra kell irányulnia, hogy a megfelelő embereket (azokat, akik vásárolnak is) vonzzad a megfelelő kulcsszavakkal a weboldaladra.
Kell tehát egy cél, amihez hozzáigazítod a SEO-stratégiád.
És most elérkeztünk oda, hogy miként tudod mérni a célok teljesülését. Viszont a célok tisztázása után ez már nem különösebben bonyolult. Persze azt tudnod kell, hogy a SEO-kampány előtt miként álltak a számok. De lássuk, az egyes célokat és a mérőszámaikat.
Ha jobb helyezést akarsz, akkor nyilván azt figyeled, hogy milyen helyet foglalnak el a vonatkozó weboldalaid az adott keresési kifejezésre. Ha feljebb akarsz kerülni, akkor javítod a meglévő tartalmad, esetleg új tartalmat készítesz. Nyilván szerezhetsz rá linkeket is. És közben folyamatosan figyeled, hogy miként változik a helyezés. Ezt megteheted akár a Search Console-ban is, de sok eszközt találsz a weben is.
Ha a nagyobb forgalom a célod, akkor elsősorban az egyedi látogatókra kell összpontosítanod. Ha az organikus forgalmad – vagyis azok, akik a keresőből érkeznek – növekszik a SEO-stratégiád hatására, akkor jó úton jársz. Ilyenkor egyre több ember kattint a linkedre a találati oldalakon, amit például a Google Analytics segítségével figyelhetsz.
Ha a megrendelések számát akarod növelni a weboldaladon, akkor már nehezebb dolgod van. Ugyanis itt a SEO közvetlen hatását kellene mérni. Ugyanakkor a Google Analyticsben megoldhatod, hogy hozzárendelj értéket az eladásokhoz.
Természetesen ezek mellett más célok is felmerülhetnek. Például megcélozhatod azt, hogy az embereket tovább tartsd a weboldaladon, és több cikket olvassanak el rajta. Ilyenkor az oldalon eltöltött időt méred. Az is előfordulhat, hogy azt akarod elérni, hogy az emberek visszatérjenek újra az oldaladra, vagyis a visszatérő látogatókat kezded mérni. De akár azt is vizsgálhatod, hogy az emberek megtalálják-e az információkat a weboldaladon, mert akkor nem lesz szükség arra, hogy felhívjanak tájékoztatásért.
Mindig tartsd észben, hogy a mérésnél ne változtass egyéb paramétereket, csak, ami a SEO-stratégiádban szerepel, különben az adatok nem lesznek megbízhatók, és továbbra is a sötétben tapogatózol a SEO-d eredményét illetően.
Gyakran merül fel az emberekben az a kérdés, hogy amikor elkészül egy új weboldaluk, akkor mennyi idő alatt kerül be az első 10 találat közé, vagy akár az első helyre. Ilyenkor a válasz általában az, hogy egyrészt nincs garancia arra, hogy be fog kerülni, másrészt pedig az, hogy ez elég sok tényezőtől függ, így a konkurenciától és a SEO munkába fektetett munkától és pénztől.
A weben napról napra születnek új weboldalak, új domaineken. SEO-szempontból azonban ezek komoly hátrányban vannak a már régóta létező weboldalakkal szemben. Irreális várakozás, hogy az új oldalak már az indulás után mindjárt jó pozíciókat érjenek el a találati listákon . A keresőmotorok részéről szándékosság is áll amögött, hogy egy-egy újonnan megjelenő oldalt nem engednek mindjárt jó pozíciókba, de persze ezek az oldalak nem is rendelkeznek azokkal a paraméterekkel, melyek indokolnák a jó helyezést. Mi az, ami számít a Google számára, viszont egy új oldal esetében még nem adott?
A konkurens weboldalak viszont már régóta működnek. Vegyük figyelembe, hogy a találati lista első helyeit gyakran olyan oldalak foglalják el, melyek nem velünk együtt indultak el, sőt nem is 3-4 hónapja, hanem akár már 5-10 éve jelen vannak a weben és a keresésekben. Ráadásul a velünk együtt indulók is sokszor ugyanolyan keményen vagy még több időt és pénzt beleölve dolgoznak a tartalmaikon, foglalkoznak a keresőoptimalizálással. Így a végeredményt egyáltalán nem lehet biztosra venni.
Az első évet tehát nyugodtan vehetjük az építkezés évének egy új weboldal esetében, amitől komolyabb eredményeket nem érdemes várni, habár az első biztató jelek már három hónap után jelentkezhetnek. Ebben az időszakban arra kellene összpontosítani, hogy legyen egy jól kidolgozott tervünk, melyet következetesen, fokozatosan végrehajtunk. Kapkodni, trükkökkel kísérletezni nem éri meg, mert weboldalunk hosszú távú sikerét kockáztathatjuk.
Léteznek átlagok, azaz meg lehet nézni, hogy “milyen öreg” is egy-egy első találati oldal, valamint, hogy hány weboldalnak, és milyen gyorsan sikerült jó pozícióba felküzdenie magát, azt is figyelembe véve, hogy kompetitív kulcsszóra versenyeztek vagy sem. Ezt az Ahrefs vizsgálta, így az ő adataikra támaszkodunk.
Ennek megállapítására 2 millió véletlenszerűen kiválasztott kulcsszó esetében elemezték az adatokat a top10-nél. Mint kiderült, a találati lista első oldalán szereplő weboldalak átlagosan több mint 2 évesek, de az első helyezettek már közel 3 éve ebben a pozícióban szerepelnek.
Ráadásul az itt szereplő weboldalaknak csak 22 százaléka keletkezett 1 éven belül. És ami még érdekes, hogy milyen eséllyel szerepel az egyes pozíciókban ilyen 1 éven belül létrehozott oldal? Mint kiderült, minél magasabb volt a pozíció, annál kisebb volt az esély. Erről itt látható a grafikon:
Nos, nem túl biztató, ugye? Ezek után lássuk, hogy hány weboldalnak sikerül felküzdenie magát az első találati oldalra, és ez mennyi időbe telik számukra.
Ehhez az Ahrefs megint csak 2 millió weboldalt vett alapul, melyek egy évvel ezelőtt jelentek meg a weben. Ezeknek megvizsgálták a pozíció-történetét minden olyan kulcsszóra, melyre rangsorolva lettek. Mint kiderült, mindössze a vizsgált oldalak 5,7 százalékának sikerült a top10-be kerülnie egy év alatt legalább egyetlen kulcsszóra. Nem sok.
Ezek után adódik a kérdés, hogy ez az 5,7 százaléknyi weboldal milyen gyorsan jutott a remek pozícióba? A válasz: nagyjából 2-6 hónap kellett hozzá. Ez azonban csak arra az 5,7 százaléknyi weboldalra igaz, mely egyáltalán bejutott az első 10-be. Majdnem 95 százaléknak ugyanis ez nem sikerült egy év alatt sem.
És itt akkor még nem számoltunk azzal, hogy vannak forgalmasabb kulcsszavak, melyekre nagyobb a verseny. Az elemzés szerint a nagy forgalmú kulcsszavak esetén csak a weboldalak 0,3 százalékának sikerült bejutnia a top10-be!
A részletesebb adatokból az is kiderül, hogy minél nagyobb forgalmú egy kulcsszó, annál hosszabb időbe telik elérni az első 10-be kerülés célját. Tehát még annak a mindössze 0,3 százaléknyi weboldalnak is közel egy évet kellett várnia rá, hogy eljusson oda.
Gyakran találkozni azzal a jelenséggel vadonatúj weboldalak esetében, hogy miután indexelte őket a Google, egyből jó pozícióba kerülnek, majd innen visszacsúsznak, és soha többet nem jutnak feljebb. De mi ennek az oka? Erre a kérdésre a Google szakembere, John Mueller válaszolt az egyik Google Webmaster Hours során.
John Mueller szerint ez a helyezésváltozás teljesen természetes az újonnan indexelt oldalak esetében. Ugyanis a pontos helyezés beállítása időbe telik a Google számára. Különösen, ha vadonatúj oldalról van szó, a Google számára nem állnak még rendelkezésre a különféle rangsorolási jelzések az oldal minőségére vonatkozóan. Így aztán feltételeznek egy helyezést, majd idővel a szerintük indokolt helyére kerül az oldal.
A lényeg tehát a feltételezés, melyről külön algoritmusok gondoskodnak az úgynevezett Score Modification Engine részeként. Ez az eszköz az, mely újrarangsorolja az eredményeket olyan tényezők alapján, melyek kívül esnek a rangsorolási motoron.
John Mueller egy másik beszélgetés során elmondta azt, amit már korábban is: a nehézséget az új oldalaknál az okozza, hogy nincs még elegendő jelzés, ami meghatározhatná a rangsorolást, így aztán becslést alkalmaznak. Ennek eredményeként néha egy weboldal jobb helyezést ér el, mint amit aztán később a pontos jelzések indokolnak.
Ez persze egyben azt is jelenti, hogy néha “egy kicsit kevésbé” látható lehet egy-egy újonnan induló oldal, mint amit később a jelzések meghatároznak. Tehát egy adott ideig, amíg a Google megérti a weboldalt és annak helyzetét a weben, ez a bizonytalansági tényező mindig jelen van.
A Google szerint teljesen normális, hogy az új weboldalak rangsorolása erősen ingadozik az indulásuk első évében. John Mueller legalábbis úgy nyilatkozott, hogy akár egy évet is igénybe vehet, amíg a keresőmotorok kitalálják, hogyan rangsoroljanak egy új weboldalt. Ezen idő alatt viszont óriási fluktuációt lehet tapasztalni a weboldal rangsorolást tekintve. És ez teljesen normális, nem jelez semmi olyasmit, hogy a weboldal valamit jól vagy épp rosszul csinál.
Ennek kapcsán John Mueller azt emelte ki egy 2020 júniusában történt beszélgetés során, hogy néhány hónap vagy akár egy év nem sok idő az internet történelmét tekintve. A Google algoritmusai pedig próbálják megfejteni, hogy miként kellene a weboldalt rangsorolni a többi, weben található tartalomhoz képest. A folyamat egészen egy évig eltarthat, ezután fog csak megállapodni az oldal. De addig is lehet dolgozni a weboldalon, ami aztán egy idő után eredményt is hoz majd a keresőben.
John Mueller korábban elhangzó szavaiból egyébként az derült ki, hogy különféle algoritmusaik vannak, melyek nagyon gyorsan megértik a “dolgokat”. Tehát például a hírek esetében másodpercekről van szó az értékelésnél.
Azt persze nem fejtette ki a szakember, hogy pontosan milyen megfontolásokon alapul az induló becslés, ugyanakkor feltételezhető, hogy mivel az új oldalaknál még csak on-page tényezők léteznek, nyilván on-page jelzések alapján kalkulál becslést a Google. Emellett egy másik lehetséges tényezőt a történeti adatok jelentik a hasonló tartalmú oldalakat figyelembe véve.
Azt ugyanakkor a Google mindig is tagadta, hogy az idő rangsorolási tényező lenne, vagyis, hogy pusztán azért, mert egy weboldal régebb óta létezik, jobb helyezést ér el.
Mindez azt jelenti, hogy ha a Search Console-ban használod az indexbe küldés funkciót a vadonatúj oldalaidnál, és azt látod, hogy azok jól nyitnak, akkor még ne nagyon örülj! Egyáltalán nem biztos, hogy meg fogják őrizni ezeket a jó pozíciókat. Ugyanakkor persze a romló helyezés után sem kell aggodalmaskodnod, egyszerűen csak javítani kell a tartalom minőségén (habár ennek eredménye nem azonnali, sőt)!
John Mueller, a Google szakembere 2020 áprilisában is adott néhány tanácsot azoknak, akik új weboldalt indítottak, egy olyan weboldaltulajdonos kérdése kapcsán, aki arra panaszkodott, hogy mindössze 5-10 látogató érkezik a keresésekből a weboldalára.
John Mueller azt hangsúlyozta, hogy nem elég, ha csak várunk arra, hogy majd megérkeznek a látogatók a weboldalra: a weboldaltulajdonosoknak proaktívnak kell lenniük. Ami nem azt jelenti, amit sokaknak eszébe jut a keresőoptimalizálásról, azaz, hogy egy SEO-szolgáltatást kínáló cégtől akkor megrendelik a “SEO-t”, aki majd csinál “néhány trükköt” a weboldalon, és így majd özönlenek a látogatók.
De erre rávilágítanak a Google szakemberének szavai is, aki szerint van egy kezdeti idő, amit ki kell várni, hogy a Google feltérképezze és indexelje az oldalt – már ha nincs semmilyen technikai probléma, ami ezt megakadályozná. Ráadásul ebbe beletartozik az is, hogy meg kell értenie, miről szól az oldal, miként illeszkedik a web nagy egészébe.
Ebben az időszakban lehet már tenni azért, hogy egy kicsit lendületbe hozzuk az oldalt. John Mueller egy weboldal indulását ahhoz hasonlította, mint amikor valaki megnyit egy új üzletet. Ahhoz, hogy a vevők felfedezzék, nem árt némi promóció. Ez lehet hirdetés, lehet más, releváns oldalak elérése, és azokon említések szerzése.
A lényeg, hogy ahelyett, hogy várnánk a keresők érkezésére, érdemes azon embereknek megmutatni a weboldalt, akiket érdekelhet a tartalma. Különben lehet, hogy túl sokat kell várni a megjelenésre a találati oldalakon, ha egyáltalán megtörténik.
Rand Fishkin, a Moz alapítója szedte össze azt a 8 technikát, mely szerinte már teljesen idejétmúlttá vált a SEO-ban. És ha valakire figyelni kell, rá mindenképpen. Röviden összefoglaljuk, mit is mondott a legutóbbi Whiteboard Fridayen, soroljuk a hibákat:
Az elképzelés ilyenkor az, hogy végzünk néhány kulcsszókutatást, összeszedjük a kulcsszavakat, elhelyezzük ezeket az oldalunkon, majd érkeznek látogatók. Az embereket azonban nem az általunk összegyűjtött és jónak gondolt kulcsszavak érdeklik. Nem ezek a kulcsszavak vonzzák a látogatókat, hanem az olyan tartalmak, melyek valóban izgalmasak számukra. A kattintásokra kell tehát figyelnünk, nem elsősorban a kulcsszavakra.
Ennek a megoldásnak korábban ugyan valóban volt hatása a helyezésre, azonban az elmúlt években már sokkal inkább úgy tűnik, hogy büntet miatta a Google, ha úgy ítéli meg, hogy manipulációról lehet szó. Ha a link a horgonyszöveggel a navigációs menüben, a láblécben, az oldalsó menüben, vagy akár a szövegben szerepel és releváns, jól megírt, jól használható, akkor nem okoz gondot. Viszont, ha például direkt apró betűvel van szedve, nem jól látható, mert nem is a felhasználóknak szánod, hanem csak a keresőnek, az hiba.
Még ma is bevett SEO-technika, és sokáig hatékony is volt. A dolog lényege az, hogy ha van egy variációd egy adott kulcsszóra, akkor létrehozol egy külön aloldalt erre, még akkor is, ha alig különbözik más oldalaidon használt kulcsszavaidtól. Ez a technika négy-öt éve még hatékony volt, és az emberek gyakran feláldozták emiatt a használhatóságot. A Kolibri, illetve a tavaly megelent RankBrain algoritmusok révén azonban a Google már egyre kevésbé a kulcsszavakra figyel, sokkal inkább a kereső szándékára és a témához illeszkedésre. Tehát ha vannak kulcsszóvariánsaid, melyekre valóban történik keresés, akkor sem külön oldalakat kell rájuk optimalizálni, hanem egyetlen, jól elkészített, tartalmas oldallal megcélozni mindegyiket.
Ezeket a linképítő-technikákat már mind bünteti a Google, vagy ha még nem is ér el mindenkit, akkor is veszélyesnek számít az alkalmazása, így jobb távol maradni tőlük. Azokat a megoldásokat is büntetheti, ahol a linkek egy olyan cikkben szerepelnek, mely felett semmiféle szerkesztői ellenőrzés nincsen. Ugyanígy a PR-cikkeket tartalmazó oldalakat. Vagy, ha nem is bünteti, nem tartja őket értékesnek. Ide tartoznak még a kommentekben elhelyezett linkek, a linkcsere, a magán linkhálózatok és bloghálózatok.
Ezek a megoldások tulajdonképpen működnek. Ilyenkor jellemzően a kulcsszavak már a domainben helyet kapnak, végül is ez a fő cél ennél a megoldásnál. A gond ezzel az, hogy így elforgácsolódnak az erőid. Minél több ilyen oldalad van, annál kevesebb energiád jut mindegyikre, ez pedig nem tesz jót a helyezésnek. Ezért érdemesebb egyetlen domain alá tartozó tartalmakba fektetni a munkát.
Az ilyen domainnevekkel az a baj, hogy nem úgy tűnnek, mint egy valódi márkának a neve, nem is ragadnak meg az emberek fejében, nem kötődnek hozzájuk pozitív asszociációik. Ezek a domainnevek nem igazán vonzzák az embereket, akik hajlamosak inkább olyan weboldalakra látogatni, melyek hitelesebbnek, hozzáértőbbnek, valódi céges oldalnak néznek ki. Fishkin szerint ezeknek az oldalaknak a kulcsszóelőnye kevés, mert tulajdonképpen a horgonyszöveg az, ami miatt a linkre kattintanak az emberek, nem a domainnév szövege. Van ugyan némi előnyük, de ő úgy véli, hogy több a hátrányuk.
Sokan abból indulnak ki, amikor kulcsszavakat keresnek, hogy milyen mértékű versenyt jelez ezekkel kapcsolatban az Adwords. Ez alapján akarják meghatározni, hogy az organikus találatoknál mennyire lesz nehéz vagy könnyű jó helyezést elérni. Ez azonban rossz megközelítés, hiszen a kettő között nincs feltétlenül összefüggés – hívta fel a figyelmet Fishkin. Sok tényezőtől függ az organikus helyezés: például, hogy milyen linkjei vannak a konkurenciának, milyen a közösségi megítélése, milyen a tartalma, milyen hatással vannak a felhasználókra. Ezt pedig nem egyszerű megítélni.
Sokan használják ezt, mivel a tartalommarketing és a tartalom most rendkívül népszerű téma, sokan invesztálnak is bele. Ilyenkor azt gondolják a weboldaltulajdonosok, hogy mindegy milyen a tartalom, mennyire elégíti ki az emberek igényeit, mennyire illeszkedik a weboldal karakterébe, csak az a fontos, hogy linkek mutassanak rá. Fishkin szerint az ilyen linkvadászat helyett érdemes jó minőségű tartalmak készítésével elérni, hogy külső linkek hivatkozzanak ránk. Csak ilyen tartalmak révén alakul ki az emberekben pozitív asszociáció a cégünkkel kapcsolatban.
A black hat SEO-t talán senkinek sem kell bemutatni. Olyan rangsorolást javító eszközökről van szó, melyeket finoman szólva “nem támogat” a Google. Ennek oka, hogy nem csak a Google-t, hanem ezáltal a felhasználókat is átveri, olyan tartalmakat juttatva jó pozícióba, melyek nem feltétlenül relevánsak számukra, vagy legalábbis nem megfelelő minőségűek és nem adnak megfelelő válaszokat a kérdéseikre.
A Google célja az, hogy a lehető legjobb találati listát kínálja egy-egy keresésre, vagyis megfelelő felhasználói élményt nyújtson. Ezt biztosítják az algoritmusaik és olyan kézi beavatkozások, melyekkel kizárják a fekete kalapos SEO-t használó oldalakat. A keresőalgoritmusok állandó változásban vannak, folyamatosan fejlődnek, így egyre nehezebb a Google-t kicselezni. De lássuk, hogy mi tartozik a black hat SEO taktikák közé!
Kulcsszóhalmozás esetén egy weboldalon túlzott mennyiségben, gyakran a szövegbe nem illően jelenik meg valamilyen kulcsszó vagy kulcsszavak. Azon célből, hogy ezáltal a weboldal jobb pozíciót szerezzen arra a kulcsszóra a találati oldalakon. A kulcsszóhalmozás azonban rontja a felhasználói élményt, ezért a Google sem szereti. Egyrészt azért rontja a felhasználói élményt, mert nehezebbé válik olvasni a szöveget, másrészt pedig, ha oda nem illő a kulcsszó, akkor irreleváns keresésekre dobja fel az oldalt a keresőben.
A Google fel is sorolja a kulcsszóhalmozás számára zavaró eseteit:
A technika sok-sok évvel ezelőtt még működött, mára azonban a Google könnyen felismeri – hiszen komoly, évtizedes tapasztalatot szerzett ezen a téren -, ha egy szöveg természetellenesnek hangzik. Az sem feltétlenül megoldás, ha szinonimákat használsz, ha ezek ugyanúgy zavaróak a szövegben, és a Google ezeket is felismeri.
Ugyanakkor persze annak ellenére, hogy a Google “felismeri” már a kulcsszóhalmozás eseteit, nem fogja kidobni az adott oldalt az indexből. Ezt John Mueller, a Google szakembere erősítette meg egy kérdésre válaszul a Twitteren. Ezért fordulhat elő, hogy találkozol még mindig olyan oldalakkal, melyek ezt a black hat SEO technikát alkalmazzák.
Sőt az is előfordulhat, hogy ezek az oldalak nincsenek is rossz pozícióban. Utóbbi azonban nem a kulcsszóhalmozás jótékony eredménye, hanem más rangsorolási tényezők hatása, melyek kellően erősek ahhoz, hogy fenntartsák egy jobb pozícióban az oldalt.
És mielőtt arra gondolnál, hogy akkor Neked is vissza kellene térni ehhez a jó öreg technikához – hátha mégis -, azt azért ne felejtsd el, hogy a Google a minőségértékelői iránymutatásában kifejezetten úgy beszél a kulcsszóhalmozásról, mint a leggyengébb minőségre utaló jelről. Ráadásul a kulcsszóhalmozás szembe megy a webmester-irányelvekkel is.
És persze azt sem szabad elfelejteni, hogy azért, mert nem büntet a Google, még leértékeli az oldalt. Vagyis nagyon erősnek kell lenni más rangsorolási tényezők tekintetében ahhoz, hogy kompenzálni tudja a weboldalad a kulcsszóhalmozás hibáját. A technikával tehát nem javítod a helyzetet, hanem éppen rontod, és jobb helyezést érhetnél el nélküle.
Arról nem is beszélve, hogy a felhasználóidat is zavarja, ha például azt látják az oldalad aljáig görgetve, hogy ott egy jó nagy részen elterpeszkedve csak mindenféle összefüggéstelen szavak vannak egymásra dobálva. Mindez persze nem azt jelenti, hogy a kulcsszavakkal nem kell törődnöd a weboldalaidnál, csak azt kell elkerülni, hogy a szövegben – vagy éppen azon kívül – oda nem illő szavakat vagy azok szinonimáit ismételgesd állandóan.
Az álcázás lényege, hogy kétféle tartalmat használsz: az egyiket a felhasználóknak jeleníted meg, a másikat a keresőmotoroknak. Ezt is arra használják a black hat SEO-sok, hogy az oldalhoz nem illeszkedő kifejezések esetében juttassák jó pozícióba a weboldalt. Tehát, miközben a Google számára egy megfelelő minőségű szöveget mutatnak, addig a felhasználók spam-tartalmat kapnak.
A megoldás itt az, hogy mindig ugyanazt a tartalmat kell kínálnod a látogatóknak és a Google-nek is. Azt, hogy mit lát a Google a weboldaladból, a Search Console-ban ellenőrizheted, a “Megtekintés Google-ként” menüpontban.
Az átirányítás lényege, hogy a látogatót egy másik URL-re vigye, ne pedig arra, amire kattintott. A black hat SEO-t használók visszaélnek az átirányításokkal: a keresőmotorokat és a felhasználókat eltérő URL-ekre küldik.
Egy másik lehetőség, amikor egy hiteles és erős weboldalról egy irreleváns oldalra irányítják a felhasználókat, annak érdekében, hogy utóbbi pozícióját erősítsék a keresőben. Itt azt használják ki, hogy egy 301-es átirányítással átadható az oldal ereje a céloldalnak. Arról, hogy a 301-es átirányításokat mire és hogyan érdemes használni, itt írtunk egy külön bejegyzésben.
Egy hosszú és értéktelen tartalom használata is feketekalapos SEO technika. Hiszen ez is a Google megvezetésére szolgál. Ilyenkor általában más weboldalakról másolt tartalmakról van szó. A Google Panda-algoritmusa persze 2011 óta felismeri, ha egy weboldal duplikált tartalmakat vagy gyenge minőségű tartalmakat használ.
Ide tartozik az is, amikor rejtett szövegek jelennek meg az oldalon, melyek kulcsszavakat tartalmaznak. Ez ugyanis azt jelenti, hogy az adott kulcsszóra megjelenik az oldal a keresőben, habár ezzel kapcsolatban nincs rajta látható tartalom. Ha pedig a felhasználó kattint a linkre egy keresésnél, akkor nem fogja megtalálni rajta az ezzel kapcsolatos szöveget.
Szintén itt lehet említést tenni a “szövegcsere” technikájáról. Ennél egy bizonyos tartalommal elér egy helyezést a weboldal, majd utána kicserélik a tartalmat. Ez ugyancsak rontja a felhasználói élményt, hiszen a látogató nem találja a weboldalon azt, amit a kereső ígért neki.
Mindezek helyett a jó megoldás, ha megfelelő hosszúságú, a felhasználók kérdéseire válaszoló, értékes tartalmakat készítesz, hiszen ezáltal tudod elkötelezni az embereket, nem pedig átverni őket.
Ha be akarod tartani a Google szabályait, akkor igyekezz elkerülni azt, hogy linkek megjelenéséért fizess. Ha mégis megjelenik ilyen linked valahol, akkor azt nofollow taggal kell ellátni. A nofollow az a jelzés a Google számára, mely által tudatja a weboldaltulajdonos a keresőmotorokkal, hogy fizetett linkről van szó. A másik megoldás, ha a disavow fájl használatával jelzed, hogy milyen linkektől kívánsz elhatárolódni.
A strukturált adatok lehetővé teszik, hogy információkat adj át egy szabályozott módon a keresőmotorok számára. Segítségükkel meghatározod, hogyan jelenjen meg a weboldalad a találati oldalakon, ezáltal kiemelkedve a többi találat közül, és esetleg nagyobb teret kapva. A black hat SEO esetében szándékosan hamis információk kerülnek a strukturált adatokba. Például valaki létrehoz egy hamis értékelő oldalt, majd a strukturált adatoknál megjeleníti az itt kapott értékelést.
Mivel a strukturált adatok hatékonyak, így ez a megoldás is működik, de érdemes a tiszta használatra törekedni, amihez a Google itt nyújt segítséget.
Mint a nevéből is kiderül, ebben az esetben a hozzászólások lehetőségét használják fel arra a SEO-sok, hogy linkeket jelenítsenek meg a saját oldalukra. Ezzel a gyakorlattal meglepő módon még mindig lehet találkozni, annak ellenére, hogy egyrészt a Google algoritmusa leértékeli a kommentekben megjelenő linkeket – ha nem lennének automatikusan egyébként is nofollow jelzéssel ellátva. Márpedig utóbbi most már eléggé bevett megoldás.
Ugyanakkor annak, akinek a weboldalán kommentrendszer működik, azért figyelnie kell az oldalain megjelenő link-spamekre – és igyekezni ezeket kizárni -, mert a Google leértékeli, illetve akár teljesen el is távolíthatja emiatt az adott oldalt a keresési találatok közül.
A linkfarm egy olyan weboldal vagy weboldalak hálózata, melyet pusztán linképítési célból hoztak létre, abból a megfontolásból, hogy az algoritmusok figyelembe veszik a weboldalaknál a linkek számát. Ugyanakkor a probléma az, hogy ezek a linkfarmok gyenge minőségű tartalmat szolgáltatnak és tele vannak linkekkel. Ezek a linkek a horgonyszövegükben azon kulcsszavaikat is tartalmazzák, melyekre jó helyezést szeretnének elérni.
A Google számára ma már nem okoz túl nagy nehézséget, hogy felismerjenek egy-egy linkfarmot, így nem igazán érdemes erre pénzt áldozni, mert nem sok eredménnyel jár. Célszerű inkább olyan tartalmak készítésére fordítani az energiát, melyek a felhasználóknak is hasznosak. Jó esetben ezek a tartalmak akár linkeket is szerezhetnek.
A magán bloghálózatokba olyan weboldalak tartoznak, melyek egyetlen weboldalra mutató linkeket tartalmaznak. Hasonlóak a linkfarmokhoz abban a tekintetben, hogy ilyenkor a linkek számának növelésével akarnak pozíciót szerezni a keresőben egy oldalnak. Az egyes oldalak általában egy oldalra mutatnak a linkekkel, de egymásra nem.
A SEO-sok általában lejárt domainek megvásárlásával építik a hálózatokat, mivel ezek már rendelkeznek némi súllyal. Hasonló tartalmakat készítenek rájuk, mint ami eredetileg is szerepelt ott, majd elhelyeznek rajtuk linkeket a cél-weboldalra. Ezután már csak abban kell reménykedniük, hogy a Google nem veszi észre a bloghálózatot. Ha viszont észreveszi, akkor büntetni fogja.
Ugyanakkor persze tagadhatatlan, hogy ezek közül a black hat SEO-technikák közül még mindig működik néhány. És ez különösen igaz például Magyarországra, ahol még mindig el lehet működgetni csaló linképítéssel.
Merthogy azt látjuk, hogy miközben angol nyelven hatékony lépéseket tett algoritmusaival a Google a webspam kiirtására a találati oldalakon, részben Magyarországon is és más kelet-európai országokban még messze nem ideális a helyzet. Még mindig jelen vannak például a manipulációs linképítés különböző technikái, ami erősen torzítja a találati oldalak minőségét.
De mi lehet az oka ennek? Nem működnek megfelelően a Google algoritmusai ezeken a nyelveken, vagy sokkal több lenne a spammer? Andrey Lipattsev, a Google keresőminőséggel foglalkozó senior stratégája beszélt erről korábban. Mint szavaiból kiderült, a Google szerint a legfőbb gondot a verseny hiánya jelenti, azaz a kevés tartalom.
Ez a helyzet jellemző a kelet-európai piacokra, az úgynevezett BRIM-országokra (Brazília, Oroszország, India és Mexikó), valamint az arab nyelven beszélő államokra. Ezeknél a Google szerint nincs elegendő tartalom a népesség arányához viszonyítva. Ez azt jelenti, hogy például a világon nagyon nagy arányt képviselnek például az arab nyelven beszélők, ugyanakkor az internetes tartalmakat tekintve csekély az arab nyelvű tartalmak aránya.
Vagyis a Google-nek egyszerűen nem áll rendelkezésére elegendő arab nyelvű tartalom, amit a felhasználóknak nyújthatnának egy-egy keresésre. Így aztán bármiféle tartalom készül arabul, akkor azt megjeleníti a Google a találati oldalakon, viszont így az eredmény katasztrofális (mármint a hasznosságot tekintve). Nyilván ugyanez igaz más nyelvekre is, köztük a magyarra is. Vagyis még mindig elegendő egy kis kulcsszóhalmozás, néhány értéktelen link megvásárlása, és máris megvan az első hely a találati oldalakon. És mindez azért, mert a Google szerint nincs mit mutatni helyette.
Ezen csak úgy lehet változtatni, ha egyre több lesz a minőségi tartalom magyar nyelven is. Az algoritmusokkal tehát nincs gond, azok minden nyelven működnek, csak a tartalommal vannak gondok. Legalábbis a Google szerint, aki szerint az a lényeg,hogy azok a tartalmak, amikre ezek az algoritmusok készültek, sok nyelven nem léteznek.
Sokáig úgy beszéltünk a találati lista első oldaláról, mint amely az úgynevezett 10 kék linket sorakoztatja fel, illetve, hogy “személyre szabott találatokat” tartalmaz, tehát mindenkinek más és más jelenik meg. A helyzet azonban az, hogy az első 10 kék link már nem is 10, főleg nem mobilon, és hogy igen kevéssé szabja rád a találati listát a Google.
Néhány évvel korábban még nagy hangsúlyt helyezett a Google annak kommunikálására, hogy a találati oldalak személyre szabottak, ami nagyban meghatározta a SEO-t is. Arról beszéltek a szakemberek, hogy senki sem tudja, mi jelenik meg egy bizonyos kereső személy számára, hányadik helyen áll az a weboldal – amit éppen optimalizálni szeretne – egy adott kulcsszóra, egy adott személynél.
A Google szerint viszont ma már nem igazán beszélhetünk személyre szabott találati listákról. Erre Barry Schwartz hívta fel a figyelmet a Search Engine Roaundtable-ön, majd a Google nyilatkozott a témában a CNBC-nek is. Azt hangsúlyozták, valójában ma már nem sok mindent jelent a személyre szabottság a Google-kereséseknél.
Ugyanezt megerősítette a Twitteren Danny Sullivan, a Google másik munkatársa is, aki valahogy úgy fogalmazott, hogy “a találatok személyre szabottsága elég mérsékelt”. Mint mondta, azok akik ugyanazon a nyelven, ugyanonnan keresnek rá valamire, nagyrészt ugyanolyan találati oldalt fognak látni.
FYI, personalization of results is very light. Most people searching in the same language and same location will see largely the same things. Location and language are far more influential about why results differ.
— Danny Sullivan (@dannysullivan) 2018. május 15.
Amit tehát figyelembe vesz a Google, az
Miközben a személyre szabottság más Google-termékeknél egyre fontosabb, a keresőnél nem ez a helyzet. A cég sokat tesztelte a dolgot, de azt állapították meg, hogy nem igazán segíti a felhasználóknak megtalálni azt a tartalmat, amit keresnek, és ugyanígy ritkán sikerül ennek révén javítani a keresési eredményeket.
Utoljára a Google 2011-ben emlegette azt, hogy miként segíti a személyre szabás a keresést. 2012-ben azonban kiderült, hogy az embereknek nem igazán tetszik a dolog, és a konkurencia fegyverként kezdte használni a Google ellen. Az, hogy a Google hátrébb lépett a személyre szabottságot illetően, segített is neki távol maradni az olyan vitáktól, melyek most a Facebookot elérték a hírfolyam-algoritmusa miatt.
A Google konkurenciájának tekinthető DuckDuckGo is végzett azonban a tárgyban kutatásokat az idei évben. Ők azt állapították meg, hogy a személyre szabottság miatt a Google kereső hozzájárul a “szűrőbuborékok” kialakulásához.
Ez a szűrőbuborék lenne az a fogalom, mely a közösségi média kapcsán mostanában gyakran felmerült, és néhány évvel ezelőtt Eli Pariser vezette be a köztudatba. Lényege, hogy a közösségi média oldalak és a keresők algoritmusai a felhasználók meglévő hiedelmeit és sztereotípiát erősítik.
A DuckDuckGo 87 amerikai felnőtt kereséseit vizsgálta 2018. június 24-én a “gun control”, az “immigration”, és a “vaccinations” keresési kifejezésekre. A keresést elvégezték inkognitó módban és normál módban is, többnyire desktopon, de néhány mobilos keresés is előfordult.
Amit megállapítottak:
Aki további részletekre kíváncsi, az feltétlenül olvassa el az eredeti bejegyzést, mert részletesen kiderül minden. Két dolgot kell ezzel kapcsolatban figyelembe venni:
1. DuckDuckGo a Google konkurense, mely elsősorban arra helyezi a hangsúlyt, hogy nem gyűjt személyes adatokat a keresőkről.
2. A Google a Facebook adatvédelemmel kapcsolatos botrányai után érthető módon nem akarja azt kommunikálni, hogy mennyi minden tud a felhasználókról, melyet azt fel is használ a találati oldalak összeállításánál.
De miért fontos ez a SEO szempontjából? Elsősorban azért, mert általában a SEO-sok azt figyelik, hogy az egyes kulcsszavakra milyen helyet sikerül megcsípnie az oldalnak. Ezt az értéket nagyon puhává tenné, ha mindenki számára személyre szabott találati listát kreálna a Google. Ha viszont a személyre szabottság minimális, akkor könnyebb meghatározni, hogy egy kulcsszó esetén sikerült-e eredményt elérni.
Persze, a keresés helye továbbra nagyon erős tényező, ugyanakkor nem számít a találati oldal elrendezése szempontjából az, hogy
Ezeket tehát nem veszi figyelembe a Google, amikor összeállítja a találati oldalakat számodra.
A másik fontos dolog, hogy
Egyre kevesebb az esélyünk arra, hogy a Google találati oldalain a klasszikus 10 kék linkbe fussunk bele. Ez a weboldalak szempontjából azt jelenti, hogy egyre nehezebb az első találati oldalra kerülni. Ennek oka, hogy a találati oldalon megjelenő egyéb elemek kiszorítják az organikus találatokat. Átlagosan már csak 8,5 darab jelenik meg az organikus linkekből mobilon, és nem sokkal több, 8,59 darab asztali gépen. Ráadásul, ha sikerül is az első oldalra kerülni, akkor is csökkenő forgalomra számíthatsz innen.
Sokak fejében még az a kép él, hogy a Google találati oldala 10 találatból és néhány felettük lévő hirdetésből áll. Pedig a Google találati oldalai ma már nagyon máshogy néznek ki, ahogy az Orbit Media által készített képek is rámutatnak:
Így változott a Google találati oldala 2013 és 2019 között
Az ábrán látható, hogy ebben az esetben az organikus első helyezett rettenetesen mélyre került. De az is jól kivehető, hogy a hirdetések sokkal jobban beolvadnak az oldalba, mint korábban.
Az első találat nagyon sok esetben most már becsúszik a hajtás alá:
A hajtás alá került az első organikus találat
Egy találati oldalon ma már helyet kaphat térkép, direkt válaszok, tudáspanel, videók és képek, bármi, amiről úgy gondolja a Google, hogy jó lehet a felhasználónak.
Az olyan egyéb elemeket, mint a tudáspanelt, a direkt válaszokat, híreket, appokat, stb. a Google egyre inkább előtérbe helyezi. Az, hogy milyen gyakran, az függ a keresőkifejezéstől és a keresés kategóriájától. Körülbelül minden tizedik mobilkeresés eredményezi azt, hogy appok is megjelennek találatként, és számítógépen kétszer akkora esélyed van, hogy direkt választ kapsz, mint mobilon.
Ebben a táblázatban az is látható, hogy pontosan milyen gyakorisággal számíthatsz az egyes elemek megjelenésére a találati oldalon mobilon és számítógépen:
Találati oldali megjelenések
Habár ezek is a weboldalak tartalmából építkeznek, nem nagyon kattintanak mondjuk egy direkt válasz alatti linkre a felhasználók. Mert minek? Ha minden ott van benne, amire kíváncsiak. Ez tehát azt jelenti, hogy a weboldalak kevesebb kattintást kapnak a Google oldaláról.
És persze ott van az is, hogy most már az esetek 18 százalékában bizony nem 10 organikus találat jelenik meg a találati oldalakon.
A legújabb, 2019-ben közzétett adatok azt mutatják, hogy tovább csökken az átkattintási arány (CTR) a Google európai és amerikai találati oldalain, mind desktopon, mind mobilon. Ennek oka, hogy a Google a saját instant válaszaival elszívja a forgalmat a weboldalak elől. Egyre kevesebbet érdemes tehát várni a SEO-tól.
A Jumpshot adatai szerint 2019 első negyedévében a keresések 48,96 százaléka után nem történt kattintás a Google találati oldalain. Ez 12 százalékos növekedés 2016 első negyedéve óta. Az is kiderült, hogy a keresések 41,45 százaléka eredményezett kattintást valamilyen weboldalra, míg 5,9 százalékos arányban a felhasználók egy másik Google-oldalra navigáltak.
Ha a kattintások számát vesszük, akkor azt látjuk, hogy körülbelül 61,5 millió organikus, böngésző alapú keresési kattintás jelent meg a Google rendszerében 2019 első negyedévében, ami 20 százalékos csökkenés a 2016-os 75,6 millióról.
Az is kiderült, hogy míg az organikus linkekre kevesebb kattintás érkezik, addig nő a kattintásszám a hirdetéseknél. Tehát míg az átkattintási arány az organikus kereséseknél 13 százalékkal csökkent 47,4 százalékra, addig a hirdetések átkattintási aránya 75 százalékkal 3,69 százalékra emelkedett.
Fontos megemlíteni, hogy ez a folyamat fokozottan érződik a mobilos találati oldalaknál.
És, hogy mi ennek az oka? Természetesen a Google instant válaszai és a mobilon néha az egész oldalt betöltő hirdetések. A Google ugyanis keresőmotorból egyre inkább portállá változik. A szakértői vélemények szerint a forgalom egyre inkább néhány nagy játékosnál koncentrálódik.
A számok nem csak az amerikai piacra igazak, hasonló eredmények rajzolódtak ki egy korábbi kutatás esetében Európában is:
Nagyobb esés tapasztalható a mobilos megjelenéseknél. Európában az organikus CTR 45 százalékról 36,7 százalékra esett vissza, míg a fizetett hirdetésekre érkező kattintások száma 2016 óta megduplázódott. Az Egyesült Államokban még nagyobb mértékű mindkét változás.
A mobilos megjelenésnél történő nagyobb mértékű CTR-esés nyilvánvaló oka, hogy desktopon nagyobb a kijelzőméret, így nagyobb hely áll rendelkezésre a találatok számára. A karuszelek, a válaszdobozok és a hirdetések viszont elnyomják a mobilos találatokat. Sok keresési kifejezésre 4 fizetett hirdetés jelenik meg, melyek olykor egy térkép és egy helyi kínálat követ, és csak ezután következnek az organikus linkek. Az viszont nem derült ki, hogy meddig görgetnek le a felhasználók a mobilos oldalakon, mely helyezésekre érkezik még számottevő kattintás.
Ami ebben a helyzetben megoldás lehet, hogy nagyobb hangsúlyt kell fektetni a Google Ads (Adwords) hirdetésekre, valamint a Google Cégem megjelenésre, illetve arra, hogy optimalizáljuk a kiemelt részletként való megjelenésre és használjuk a schema strukturált adatokat.
De azt is fontos tudni, hogy
Milyen változásokat hozott a mobilok elterjedése például. Ha visszatekintünk 2003-ra, amikor a Google lett a vezető kereső-szolgáltató, akkor azt látjuk, hogy az emberek elkezdték egy bizonyos módon használni a webet. A Google-ben találtak meg mindent a leggyorsabban, ez vált a web kezdőoldalává. 2006-ban az úgynevezett “aranyháromszög” rajzolódott ki a hőtérképes vizsgálatok során. A Mediative 2016-ban megvizsgálta azt, hogy mit néznek, hova kattintanak az emberek a Google találati oldalain. És mint kiderült,jelentősen átalakult ez a forma:
Hőtérkép vizsgálatok eltérései
Mi okozta ezt az átalakulást? A mobilok viselkedésformáló ereje. Az embereknek sokkal inkább függőlegesen mozog a tekintetük, mint vízszintesen. Ennek következtében pedig sokkal több találatot futnak át, mint tíz éve. Ugyanakkor az is látható, hogy jóval kevesebb időt töltünk velük, mint korábban. Az is fontos, hogy az emberek főleg a találatok első szavaira tekintenek rá, így a legfontosabb dolgokat mindig a sorok elejére kell helyezned.
Más dolgokkal is érdemes azonban tisztában lenni:
Az első organikus találat éri el még mindig a legtöbb kattintást, ugyanakkor 87 százalékkal hosszabb időbe telik eljutniuk ide a felhasználóknak mobilon, mint desktopon, ha az organikus találatok felett, illetve mellett megjelenik a knowledge panel (tudáspanel). Ez mobilon a találatok felett jelenik meg, míg monitoron a jobb oldalon, így nem tolja le az organikus találatokat. Az emberek a knowledge panel ellenére legörgetnek az első találatig mobilon.
A tudáspanel megjelenés mobil és desktop találati oldalakon
Ha csak organikus találatok szerepelnek egy találati oldalon:
Amikor ezzel szemben olyan oldalt vizsgáltak, ahol fizetett hirdetések, térképes találatok, vagy tudáspanel is megjelenik, ott kicsit másként alakultak az eredmények:
Ennek kapcsán érdemes tudni még néhány dolgot:
Megállapítható tehát, hogy olyan elemek, mint például a tudáspanel, jelentős figyelmet vesznek el az organikus találatoktól. A különbséget az okozza, hogy mobilon görgetni kell a tudáspanel miatt az organikus találatokhoz, míg desktopon nem. Fontos tehát a mobil SEO, illetve ha olyan kulcsszóra állsz jó helyen, melyen egy tudáspanelt is kilök a Google, akkor érdemes helyette egy másik kulcsszóra optimalizálni, ahol nem jelenik meg tudáspanel.
A Blue Nile Research szakembereiben felmerült a kérdés, hogy vajon egy-egy ilyen jól kidolgozott találat több kattintást vonz-e, mint egy szimpla link, ami az első helyre került? Három típusú rich snippetet vizsgáltak: az egyikben csillagozott értékelések egészítették ki a találatot, a másiknál a szerző fényképe volt látható mellette, míg a harmadiknál fényképes, térképes találatok jelentek meg.
300 ember megkérdezésével tesztelték a találati lista háromféle elrendezését, és arra jutottak, hogy egy rich snippetekkel kiegészített találat 13 százalékponttal több átkattintást hozott a második helyen, mint egy sima linkes találat az első helyen. Egészen pontosan a második helyen szereplő rich snippetes találat a kattintások 61 százalékát kapta meg átlagosan, míg a sima link 48 százalékát az első helyen. Amennyiben ez a sima linkes találat a második helyen szerepelt, akkor már csak a kattintások 35 százalékát szerezte meg, vagyis a rich snippetes találatok már 26 százalékponttal jobban szerepeltek ennél.
Az összefoglaló grafikon itt látható a kutatásról, a további részletek pedig ezen a linken érhetők el.
Az is kiderült azonban a vizsgálatból, hogy míg átlagosan az emberek 75 százaléka kattint az első négy organikus találatra mobilon, addig a negyedik organikus találat alá már csak a felhasználók 7,4 százaléka kattintott mobilon. Desktopon ez az érték még némileg jobb: 16 százalék, ezért ott az első négy találatra érkezik kevesebb, 60 százaléknyi kattintás.
Rendkívül fontossá vált tehát, hogy legalább a negyedik helyet elérjük a találati oldalon mobilon, hiszen ennél lejjebb lényegesen kevesebb kattintás érkezik. Érdemes egyébként az organikus találatok felett megjelenni valamilyen módon, mert ide a kattintások több mint 35 százaléka koncentrálódik.
Az első helyen álló hirdetést az emberek 91 százaléka látja, és átlagosan 0,36 másodpercig nézik az emberek. Ha fizetett hirdetések szerepelnek az organikus találatok felett, akkor az első organikus találat már 10 százalékkal kevesebb kattintást kap.
Mivel mobilon a rendelkezésre álló hely még értékesebbé vált, mint monitoron, így vagy PPC-hirdetésekben vagy erős mobil SEO-ban kell gondolkodnod. Ugyanakkor, ha hirdetsz is, nincs garancia arra, hogy mindig az első helyet szerzed meg. Ennek ellenére a 91 százalék miatt érdemes megfontolni az Adwords használatát.
Mobilon 19,2 százaléknyi kattintást kapott a legfelső két hirdetés, míg desktopon csak 14,5 százalékot. Ez azt mutatja, hogy mobilon nagyobb a hirdetésekben rejlő potenciál, mint desktopon. Érdemes emellett a hirdetésbővítményekkel is élni a láthatóság növelése érdekében.
Mivel a térképes listán csak három találat jelenhet meg, így az is rendkívül fontos lehet, hogy bekerülj ezek közé, különösen, ha az organikus találati listán a 4. hely alá csúszol. Ezért érdemes tisztában lenned azzal, hogy mi kell a jó helyezéshez a térképes találati listán.
Összességében tehát elmondható, hogy kritikus fontosságú mobileszközön az első organikus találatok között megjelenni. Az emberek ugyan görgetnek mobilon, azonban több mint 92 százaléknyi kattintás érkezik a 4. találat fölé. Ha tehát valaki ez alá csúszik, akkor szinte láthatatlanná válik mobilon.
adatait is érdemes azonban áttekinteni, mert segít az emberi viselkedés megértésében:
2019 júniusának elején a Google frissítette a találati oldalak megjelenítését, mely korlátozza az egyetlen weboldalról megjelenő találatok számát a Google találati oldalain. A változás lényege, hogy egyetlen weboldalról legfeljebb csak két találat jelenhet meg a találati oldalakon.
A módosítás arról szól, hogy a Google szeretné egy kicsit színesebbé tenni a találati oldalakat, amit azzal biztosít, hogy több domain alól szerez be találatokat. Természetesen ez nem vonatkozik a márkakeresésekre, hiszen ott a felhasználók az adott márkához kapcsolódó oldalakra kíváncsiak, azok pedig jellemzően egy weboldalon találhatók.
A Google indoklása szerint felhasználói igényekre reagálva változtatott az eddigi gyakorlaton: az emberek ugyanis változatosabb találati oldalakat akartak látni. Legalábbis ezt szűrték le a visszajelzésekből.
Mindez egyébként nem azt jelenti, hogy soha nem fogsz találkozni olyan találati oldalakkal (a márkakeresésen kívül), ahol több találat is egy domainről származik. Előfordulhat ugyanis, hogy a Google úgy ítéli meg, hogy a felhasználó számára releváns találatokat legnagyobb részben egy adott oldalon talál.
Ami még fontos ezzel kapcsolatban, hogy a legtöbb esetben az aldomaineket a gyökérdomain részeként kezelik. Vagyis a blog.webshark.hu aldomainről származó találatok beleszámítanak a webshark.hu domainről származó találatok számába. Ugyanakkor ennek kapcsán is megjegyezte a Google, hogy alkalomadtán eltérhet ettől a szabálytól is.
A “két találatos szabály” csak a 10 kék linkes organikus részre vonatkozik, nem számítanak bele a kiemelt részletek (featured snippet), a térképes találatok, a képek és egyéb megjelenések a találati oldalon.
A Webshark.hu a hozzászólásoknál előzetes moderálást alkalmaz. Moderálási szabályaink itt olvashatók.