Melyek a legfontosabb SEO alapok? (Frissítve, 2023.10.31.)

A legfontosabb SEO alapok összefoglaló jelleggel néhány kategóriába rendezhetők. Ezeket vesszük most végig a kulcsszavaktól kezdve egészen a felhasználói visszajelzésekig. (2023.10.31. – Egy új fejezettel bővítettünk: Hogyan találd meg a törött belső linkeket a weboldaladon? És mit tegyél velük?)
 
Míg néhány éve elegendő volt a backlinkekre és a kulcsszavakra figyelni egy weboldal keresőoptimalizálása során, addig ma már igencsak kibővült ezen kategóriáknak a köre. (Fontos kiegészítése a cikknek a legfontosabb SEO rangsorolási tényezők felsorolása, hiszen az a bejegyzés is nagyjából ugyanazt próbálja megfogni, mint a SEO alapokról szóló, csak más a kiindulási pont és így az egyes elemek elrendezése.) Következzenek a legfontosabb SEO alapok, de előtte még vessünk egy pillantást két olyan tényezőre, ami nélkül nincs megjelenés a keresőben.
 

I. Feltérképezés és indexelés

Amikor SEO-ról van szó, akkor mindenkinek egyből a kulcsszavak, linkek, tartalom ugrik be. Pedig mindezeket megelőzi az, hogy a keresőmotoroknak fel kell tudniuk dolgozni az oldalt. Ha itt valami hiba van, akkor a weboldal nem jelenik meg a találati oldalakon.
 
Tehát, mielőtt a Google rangsorolná a tartalmad, fel kell fedeznie, értékelnie kell, majd indexelnie. A legtöbb esetben általában nincs teendőd ezzel, mert a Google megoldja az indexelést, hiszen ez a dolga. Ugyanakkor nem mindig elég, ha csak kiteszel egy új tartalmat a weboldaladra.
 

Felfedezés

Annak érdekében, hogy a Google indexelje az oldalad, először is meg kell találnia azt. Ez azt jelenti, hogy valamilyen linknek mutatnia kell rá. Ez lehet akár ugyanazon weboldal egy másik, már indexelt oldala, vagy egy másik weboldalról érkező link is.
 
Az persze egy kis időbe telik, míg a Google ezen linkek nyomán rátalál az új oldalra. Ez az időtartam függ annak az oldalnak a relevanciájától és minőségétől, ahol a hivatkozás megtalálható. De persze egyéb technikai tényezők is befolyásolják a felfedezhetőséget (jelszó-védelem, letiltás a robots.txt-ben, bizonyos lokációk számára elérhetetlenné tétel).
 
A feltérképezés azért fontos, mert a keresőmotoroknak hozzá kell férniük a weboldalad tartalmaihoz, és át kell tudni tekinteniük azokat. Ha egy weboldalon nincs gond a feltérképezhetőséggel, akkor a Googlebot megtalálja a tartalmakat és könnyedén követi a benne szereplő linkeket. Probléma akkor van, ha törött linkekkel vagy zsákutcákkal találkozik.
 
 

Értékelés

Amikor a Google megtalálta az új oldalt, akkor elkezdi feldolgozni a tartalmát annak érdekében, hogy megállapítsa a relevanciáját és a minőségét. Ezen folyamat során több probléma is felmerülhet, melyek mind arra késztethetik a Google-t, hogy ne indexelje az oldalt:
  • Alacsony minőségű tartalom – ez következhet például a kevés szövegből, duplikált tartalomból, túloptimalizáltságból, fekete kalapos SEO megoldásokból.
  • Indexelési utasítások az oldalon – ezek a különböző robotoknak szóló jelzések, mint például a „noindex”, vagy egy másik oldalra mutató canonical URL jelenléte. A Google persze nem feltétlenül követi az utasításokat, csak megfontolja őket.
  • Nem látható vagy hozzáférhető a botok számára a tartalom – ha például egy weboldal nagyon erősen a JavaScriptre épít, esetleg a tartalom túlságosan összetett és nem szokványos módon épül fel, akkor nem biztos, hogy fel tudja dolgozni a Google.
  • Ha JavaScriptet kell feldolgoznia – ha egy nehéz JavaScripttel találja magát szemben, akkor a Google halasztja a feltérképezést. Ez az idő változó, a Google kapacitásaitól és az oldal besorolásától függ.

Indexelés

Ha az előbbi lépéseknél nem volt gond, akkor az oldal tartalmát indexeli a Google, így az bekerül a találati oldalakra. Ezt leellenőrizheted a Search Console-ban, ha rákeresel az új oldal linkjére, vagy akár a Google-keresőben is a site: operátorral az URL előtt.

Azt azonban ne felejtsd el, hogy azért mert egy oldal egyszer indexelésre került, még nem feltétlenül marad indexelt örökké. A Google újra és újra feltérképezi és újraértékeli az oldalak tartalmát. Ha például a tartalom minősége valami oknál fogva romlik, vagy fellép egy technikai tényező, mely ellehetetleníti a hozzáférést, akkor az oldal ki fog esni az indexből.

Mennyire fontos tényező az indexelésnél az oldal minősége?

Habár az előbbiekben már többször említettük, lehet, hogy mégis átsiklottál afelett, hogy gyenge minőségű tartalom esetében nem kerülnek indexelésre oldalak. Ennek kapcsán 2020 májusában nyilatkozott is John Mueller, a Google szakembere, jelezve, hogy az indexelési panaszok esetében általában azzal találkozik weboldalaknál, hogy azok minősége nem üti meg a Google által elvárt szintet, nem pedig technikai problémáról van szó. Mint mondta, az algoritmus áttekinti a weboldalt, illetve annak bizonyos részét, és sok esetben azt állapítja meg, hogy nincs értelme indexelni az oldalakat.

Ez egyébként egy olyan kérdésre válaszolva mondta, ahol a kérdező a rossz belső linkstruktúrában kereste az indexelési probléma forrását, vagyis abban, hogy a blogbejegyzéseik mindössze hónapok alapján voltak rendezve, nem használtak kategóriákat, illetve ezen túl mindössze némi szövegen belüli linkelés volt más, kapcsolódó bejegyzésekre. Mint kiderült, a Google első körben indexelte az oldalakat, de aztán kiestek az indexből.

Erre mondta azt John Mueller, hogy ha egyszer sikerült feltérképezni az oldalakat, akkor nem az a probléma, hogy nem elég jó a linkstruktúra, hanem általában az, hogy nem elég használhatóak ahhoz, hogy benne maradjanak az indexben. Mueller szerint ilyenkor érdemes megnézetni egy kívülállóval a weboldal tartalmát, hogy ő ítélje meg, vajon az egyes tartalmak egyáltalán nem releváns témákról szólnak, vagy valamikor azok voltak, de mára veszítettek jelentőségükből. Vagy talán az is előfordulhat, hogy nagyon hasonlítanak más weboldalakon található tartalmakhoz. Egy külső fél mindenesetre kritikusabban képes szemlélni a weboldalt, így könnyebben rámutat a lehetséges minőségbeli problémákra.

Az oldaladnak át kell mennie a minőségi teszten, hogy indexelésre kerüljön

Az előbb elmondottakat megerősítette Gary Illes is, a Google másik szakembere a Redditen, ahol jelezte, hogy egy oldal indexeléséhez arra van szükség, hogy átmenjen a minőségi ellenőrzésen. Ha viszont nem megy át ezen a minőségi teszten, akkor lehet, hogy a Google nem fogja indexelni, még akkor sem, ha manuálisan – a Search Console-on keresztül – beküldöd az oldalt indexelésre a Google-nek.

Mindezt arra válaszul közölte, hogy egy weboldaltulajdonos a Redditen arra panaszkodott, hogy szerinte „nem működik” a Google Search Console-ban az indexelés kérelmezése funkció. Gary Illes szerint viszont működik, de attól, hogy beküldi indexelésre az oldalát, még nem feltétlenül fogja azt indexelni a Google. Hangsúlyozta, hogy nem is garantálják azt, hogy mindenképpen indexelésre kerül a kérelmezett oldal (hiszen a tartalomnak még előbb át kell mennie a minőségi ellenőrzésen, hogy indexelésre kerüljön sor).

Végül a weboldaltulajdonos azon kérdésére, hogy akkor mit csináljon, hogy a Google indexelje az oldalait, Gary Illes úgy válaszolt, hogy összpontosítson a tartalomra, és próbáljon meg javítani rajta. Azt is megjegyezte, amit korábban John Mueller is, hogy kérje meg néhány barátját, hogy mondjanak őszinte véleményt a weboldal tartalmáról, és fogadja meg a tanácsaikat.

Akkor sem biztos, hogy indexeli a weboldalad a Google, ha annak minősége kiváló (FRISSÍTÉS, 2023.10.16.)

Hogy a helyzetet tovább bonyolítsuk: lehet, hogy jó minőségű az oldalad, illetve annak tartalma – és még a Google is annak látná -, emellett technikailag is rendben van, mégsem kerül indexelésre.

Eddig ugye arról volt szó, hogy ha egy weboldal nem kerül indexelésre, viszont technikai szinten rendben van, akkor annak a minőségével lehet probléma, mivel nem felel meg a Google keresési indexébe történő felvételhez szükséges minőségi követelményeknek.

John Mueller azonban 2023 szeptemberében úgy nyilatkozott a témában, hogy még a jó minőségű oldalak esetében sem garantált az indexbe kerülés.

A Google szakembere az X-en úgy fogalmazott, hogy „egy oldal lehet kiváló minőségű, mégsem kerül indexelésre – ez nincs garantálva”. Azt is hozzátette, hogy ugyanígy nincs garancia arra sem, hogy egy korábban indexelt oldal a megfelelő minősége mellett mindig indexelve marad. Hogy miért? Mert tele van a web egy csomó jó, illetve megkérdőjelezhető „dologgal” – adott hozzá némi magyarázatot.

Ez alatt viszont inkább azt értette, hogy a Google sem tökéletes. Tehát elviekben nyilván minden kiváló minőségű oldalt fel akar térképezni, majd indexelni, de ez nem mindig történik meg, sőt olykor a korábban indexelt oldalak is kiesnek az indexből. Annak ellenére, hogy a minőségükkel nincs probléma.

Az is igaz ugyanakkor, hogy ha egy weboldalnál arra van szükség, hogy azt külön be kell küldeni indexelésre a Google-nek – miközben technikailag nincs vele semmi probléma -, akkor erős a gyanú, hogy annak tartalmi minőségével valami gond van.

Mi okozhat még problémát az indexelésnél? Alapvetően olyan technikai problémáka, mint

  • a weboldal struktúrája – ha vannak olyan oldalaid, melyek más oldalaid felől nincsenek linkelve, akkor nehézséget okoz a botoknak hozzájuk férni. Természetesen külső linkekről is megtalálhatják, azonban összességében mégis feltérképezhetőségi problémát okoz egy ilyen strukturális hiba.
  • Belső linkrendszer – a botok a linkeket követve térképezik fel a webet, így csak azokat az oldalakat találják meg, melyek valahonnan linkelve vannak. Egy jó belső linkrendszer révén még azokat az oldalaidat is könnyen elérik, melyek mélyen el vannak rejtve a weboldaladon. Ha viszont hiányoznak a megfelelő belső linkek, akkor zsákutcába futhat a bot, és nem találja meg bizonyos tartalmaidat.
  • Hurkolt átirányítások – ha a bot törött átirányításokat talál, akkor azok megakasztják és nem fogja megfelelően feltérképezni az oldalaidat.
  • Nem támogatott szkriptek és más technológiai tényezők – feltérképezési hibák adódhatnak az általad használt technológiákból is. Például a botok nem tudják követni a formokat, tehát, ha egy form mögé elrejtesz tartalmakat, akkor azokat nem látják. A Javascript és az Ajax szint okozhat hozzáférési problémát a botok számára.
  • Blokkolt hozzáférés – szándékosan is korlátozhatod a botok hozzáférését bizonyos tartalmakhoz, így azokat nem tudják indexelni.
  • Szerverhibák – a rossz szerver átirányítások és más szerverrel kapcsolatos problémák is megakadályozhatják a Googlebotot a weboldalad feltérképezésében. Azt is érdemes azonban tudni, hogy ha gyakrabban találkozik valamilyen 5xx-es hibával a weboldaladnál a Google, akkor elkezdi csökkenteni az indexelés gyakoriságát.

A legtöbb weboldal esetében ilyen szerverhibák csak egy rövid időre jelentkeznek: például, amikor leáll a hosting szolgáltatás vagy frissítésre kerül a CMS. Ezzel nincs gond, mert minden weboldalnál jelentkezik egyszer-egyszer. Ugyanakkor vannak olyan weboldalak, ahol a szerverhibák krónikussá válnak, ami azt jelzi a Google-nek, hogy gond van a weboldallal. Például egy rosszul konfigurált tűzfal esetében kaphat 5xx-es hibát a Googlebot, de az is előfordulhat, hogy bizonyos országok felőli forgalom le van tiltva, és a Googlebot pont onnan érkezik indexelni.

A lényeg, hogy ha a Search Console szerverhibákat jelez, akkor utána kell járni annak, hogy valami ideiglenes problémáról van-e szó, vagy pedig nagyobb horderejű az ügy. Ha a Search Console-ban állandósul a hibák jelzése, akkor érdemes megnézni, hogy miként látja a weboldalt a Google, ami segíthet abban is, hogy megtaláld a hiba okát.

Ha a szerverhibák nem túl régóta fordulnak elő, akkor a Google időnként visszanéz az oldalra, hogy lássa, megoldod-e a problémákat. Ugyanakkor ritkábban kerít sort a feltérképezésre a bot, és a korábbi rendszeresség csak akkor áll vissza, ha már nem tapasztal hibákat. Erre itt utal John Mueller: That’s a very vague question, and a post from 2016, it makes it a bit hard to guess :). We do crawl old 404 pages from time to time, that’s nothing to worry about. It’s more problematic if they’re 5xx errors (we slow crawling), or if the URLs were meant to be indexed. — John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018. július 9.

Hogyan tedd a weboldalad könnyen feltérképezhetővé és indexelhetővé?

  • Küldd be a webhelytérképet a Google számára – a webhelytérkép egy kis fájl, mely a domained gyökérkönyvtárában található, és direkt linkeket tartalmaz minden egyes aloldalhoz. Ezt a Search Console-on keresztül tudod elküldeni a Google-nek.
  • Erősítsd meg a belső linkeket – kapcsolj össze minden tartalmat, hogy növeld az esélyét a Googlebot megfelelő hozzáférését.
  • Rendszeresen frissíts és adj hozzá új tartalmakat – a tartalom a weboldalad legfontosabb része, de a feltérképezésben is segít. A botok gyakrabban látogatják azokat az oldalakat, ahol gyakoribbak a frissítések.
  • Kerüld a duplikált tartalmakat – a duplikált tartalmak kérdése nem egyszerű, egy külön bejegyzésben már foglalkoztunk vele.
  • Gyorsítsd fel a weboldalad – a botoknak csak korlátozott idő áll a rendelkezésükre ahhoz, hogy feltérképezzék és indexeljék a weboldaladat. Ez az úgynevezett feltérképezési büdzsé. Vagyis minél gyorsabb a weboldalad, annál több oldalt tudnak feltérképezni a botok.

Hogyan ellenőrizd, hogy indexelte-e a weboldalad a Google?

Ha megtettél mindent a weboldalad indexelhetősége érdekében, akkor nyilván kíváncsi vagy arra is, hogy indexelte-e vajon a Google. De hogyan ellenőrizd? Szerencsére a dolgodat a keresőóriás is megkönnyíti:

  • egyszerűen csak lépj be a Google-keresésbe,
  • majd üsd be a keresőmezőbe a „site:” paraméter után az URL-t a https nélkül (pl. site:webshark.hu).
  • Ekkor a találati oldalon látnod kell az indexelt oldalt vagy oldalakat.

Ha mégsem látod, akkor bizony azt az oldalt még nem indexelte a Google.

A másik lehetőség, ha a weboldal tulajdonjoga a Tiéd, hogy

  • belépsz a Search Console felületére,
  • itt az „Index” részben lévő „lefedettség” menüpontra kattintasz,
  • majd láthatod az indexelt oldalak számát.

Ha a szám nulla lenne, akkor még semmit nem indexelt a weboldaladból a Google. Ha azt látod, hogy jó pár oldalad nem került indexelésre, akkor nem kell mindjárt aggódnod, ez egyrészt normális, másrészt ellenőrizni kell a részleteket a nem indexelt oldalak kapcsán, hogy hibáról lehet-e szó. Erről egy későbbi fejezetben részletesebben is írunk.

Azt is le tudod persze ellenőrizni, hogy egy bizonyos oldaladat indexelte-e a Google: ehhez csak kattints rá egyből a belépés után a Search Console legtetején lévő keresőmezőre (ez az úgynevezett URL-ellenőrző eszköz), ahová illeszd be az ellenőrizni kívánt URL-t! URL-ellenőrző eszköz a Search Console-ban URL-ellenőrző eszköz a Search Console-ban

Milyen gyorsan kellene indexelnie a weboldaladat a Google-nek? És hogyan tudod ezt felgyorsítani?

A Google számára néhány naptól néhány hétig terjed az az időszak, melyen belül még normálisnak tekinthető az indexelés elhúzódása. Persze, ha hetekig tart egy újonnan indult oldal indexelése, akkor az egy kicsit idegesítő lehet. Szerencsére azonban vannak lehetőségek a folyamat gyorsítására.

A legegyszerűbb a már előbb bemutatott funkció használata: az URL-ellenőrző eszköz használata, ahol kérelmezheted is, hogy indexelje vagy újra indexelje az oldaladat a Google, ha valami változás történt rajta. Ehhez csak kattints rá a jobb alsó sarokban lévő „Indexelési kérelem” feliratú linkre:

És máris beindul a folyamat:

Ez tényleg eltart egy darabig, nem kell türelmetlennek lenni. A végén ezt a visszajelzést kapod:

A manuális indexelési kérelmezéssel ugyan voltak problémák az elmúlt időszakban (konkrétan hónapokig nem működött), azonban 2020 legvégére a Google – ígéretének megfelelően – rendbe rakta, így ismét használható.

Frissítés, 2022.11.24.:

Hogyan tudod felgyorsítani a weboldalad indexelését? Egy másik módszer

Egy másik lehetőség, amit a Google is javasol, az a Google megpingelése a weboldaltérképpel. Itt arról van szó, hogy ha a weboldalad frissítetted, mert mondjuk egy új tartalom jelent meg rajta egy új oldallal, akkor a pingelés a weboldaltérképpel gyorsítani fogja az indexelést. Ezt a Google szakembere, John Mueller mondta tanácsként a Twitteren.

Mint jelezte, egy webhelytérkép pingelése különbözik attól, hogy a robots.txt-ben jelzed a változást. A pingeléssel ugyanis aktívan jelzed a weboldaltérképben bekövetkezett változást. Vagyis, ha azt szeretnéd, hogy az új tartalmad gyorsabban indexelje a Google, akkor ez egy jó megoldás – tette hozzá.

A Google egyébként fejlesztőknek szóló dokumentációjában is világossá teszi, hogy nem ellenőrzi minden esetben a weboldaltérképet, amikor a weboldalon jár. A webhelytérképet az első alkalommal ellenőrzi, amikor észleli, illetve legközelebb akkor, megpingeled őket amiatt, hogy változott valami benne. Ugyanakkor ezt csak akkor érdemes megtenni, ha valami új dolog került az oldaltérképbe, vagy valami frissítve lett, tehát ne pingeld a Google-t akkor, ha semmi nem változik az oldaltérképen.

És, hogy hogyan működik a pingelés? Például úgy, hogy egyszerűen beírod a böngészőbe ezt az URL-t: https://www.google.com/ping?sitemap= , majd utána szóköz nélkül az oldaltérképed teljes URL-jét.

Milyen gyakran kellene indexelnie a weboldaladat Google-nek?

Amikor a weboldalak feltérképezéséről van szó, akkor akadnak olyan oldalak, melyeket sűrűn, akár naponta többször is átnéz a Googlebot, más oldalak esetében viszont akár hónapok is eltelhetnek két látogatás között. De mikor adhat okot aggodalomra az indexelés gyakorisága? Erre John Muller, a Google szakembere adott válaszokat.

Először is, jelezte, hogy a rendszeres feltérképezés nem követelménye annak, hogy egy oldal rangsorolva legyen és megjelenjen a találati oldalakon. Tehát, csak azért, mert nem nézi át naponta, hetente vagy havonta a weboldalad a Google, még nem fog kiesni az oldalad a keresőből.

Ugyanakkor bizonyos URL-ek ritka feltérképezése jelezhet minőségi problémákat. Akadnak olyan weboldalak – például alacsony minőségű linkekkel -, melyeket ritkán látogat újra a Google, mintegy büntetésként. Az is előfordulhat, hogy azonos vagy hasonló tartalom miatt szűr ki oldalakat az újra-feltérképezésből a Google. John Mueller pedig arra is felhívta a figyelmet, hogy különösen webáruházaknál nagyon sok az úgymond „felesleges” URL. Viszont az is igaz, hogy a Google a jó minőségű, de örökzöld weboldalakat is ritkábban vizsgálja újra, különösen, ha azok statikus oldalak, melyeken semmiféle változás nem látható, amikor a bot ott jár.

A lényeg tehát az, hogy azért, mert vannak olyan oldalaid, melyeket ritkán indexel a Google, az nem jelenti azt, hogy nem fogja megmutatni az embereknek, vagy ne rangsorolná őket. Ugyanakkor persze érdemes kizárni az okokat, melyek egy esetleges ritka indexeléshez vezetnek.

Mi van, ha nem indexeli valamennyi oldalad a Google?

Ha amiatt aggódsz, hogy a Search Console-ban azt látod, hogy nem minden weboldalad indexeli a Google, akkor nem biztos, hogy gond van. A Google olykor nem indexeli valamennyi weboldalad, ami az oldaltérképen szerepel. Valamennyi ebből elfogadható, ugyanakkor lehet komolyabb is a probléma, és állhat mögötte technikai vagy épp tartalmi, minőségbeli probléma.

Például, ha WordPresst használsz, akkor minden tagnek van egy külön oldala. Ezek között sok olyan van, melyek alatt nagyjából ugyanazok a címek sorakoznak. Ezért a Google nagy valószínűséggel ezek közül kiszűri azokat, melyeknek azonos a tartalma. A legtöbb oldal azért kerül kiszűrésre az indexeltek közül, mert azonos vagy nagyon hasonló a tartalma, mint egy másik oldalnak.

  • Ilyenkor talán megéri ellenőrizni és meghatározni azt a canonical tag alkalmazásával, hogy melyik oldalt jelöljük eredetinek.
  • Emellett arra kellene még egy pillantást vetni, hogy az új oldalak, melyek hozzá lettek adva az oldaltérképhez, indexelésre kerülnek-e.

A Google tájékoztatást ad a Search Console-ban arról, hogy hány darab URL-t indexel a beküldött oldaltérképen szereplők közül. Azt ugyanakkor nem jelzi, hogy melyek azok, amelyeket nem indexel. Ha valakinek van egy nagyméretű weboldala, és annak egy részét nem indexeli a Google, akkor az oldaltérkép felosztásával könnyebb megtalálni azt, hogy ez mely oldalakat érinti.

Nyilván persze a nem indexelés mögött állhatnak technikai problémák, valamiért a Google nem fér hozzá az oldalhoz. Ugyanakkor a másik lehetőség, hogy tartalmi minőségbeli gondok vannak. A Google azt mondja ennek kapcsán, hogy ha rendszeresen be kell küldened indexelésre egyes oldalakat, akkor ott komoly gond van, és feleslegesen indexelteted az oldalakat.

John Mueller Twitter bejegyzésben úgy fogalmazott, hogy ha a normál tartalmaid kézi indexelésre szorulnak, akkor jelentős mértékben javítanod kell az oldalad minőségén. A Search Console ebben az esetben nem fogja megoldani a problémádat, neked kell azt megtenned.

Azt is megjegyezte, hogy az indexelés erőltetése nem fog jobb helyezést eredményezni, gyakorlatilag csak időpocsékolás. Mert minek is indexelteted az oldalt, ha aztán az nem fog jó helyen megjelenni a találati oldalakon? – teszi fel a kérdést. Tehát, ha azt tapasztalom, hogy az oldalakat nem indexeli a Google, akkor a Search Console-ban a technikai problémák ellenőrzése, majd javítása után kezdd el a tartalmakat/oldalakat fejleszteni. If your site relies on manual index submission for normal content, you need to significantly improve your site. Search console does not fix your site, you need to do that yourself. — ? John ? (@JohnMu) 2020. február 3.

A weboldaltulajdonosnak további teendője nincs. És főleg arra kell figyelni, hogy a különösen fontos oldalak indexelve legyenek a Google által. Ezt azonban könnyen észre lehet venni, ha ezek az oldalak nem hozzák a forgalmat.

Miért fordulhat elő az, hogy nem indexeli a főoldalad a Google?

Az alcímben feltett kérdésre nemrég a Search Off The Record podcastben válaszolt a Google három szakértője, Martin Splitt, John Mueller és Gary Illyes. Végigvették a technikai és nem technikai problémákat, melyek egy főoldal indexből való kiesését okozhatják.

A technikai okok kapcsán Illyes elmondta, hogy az új weboldalaknak, különösen a főoldalnak nagyon egyszerűnek kellene lennie az indexelés érdekében. Ha nem kerül indexelésre az oldal, akkor végig kell futni néhány lehetőségen:

  • a weboldal elérhetetlen a Googlebot számára?
  • a robots.txt blokkolja a Googlebotot?
  • a főoldal URL-jét még semmilyen más oldal nem linkeli?

Az ellenőrzéshez meg kell nézni a szerver logokat, hogy a Googlebot próbálkozott-e indexeléssel. Ezután meg kell nyitni a robots.txt-t, ami meghatározza, hogy mely oldalakról van kizárva a Googlebot.

A canonical-megoldások is okozhatnak problémát, ha a főoldal át van irányítva egy másik oldalra, vagy más oldal van beállítva canonicalként. Ilyenkor a Google a canonical oldalt indexeli, nem a főoldalt. Ellenőrizni kell tehát, hogy van-e átirányítás a főoldalhoz kapcsolva.

Végül azt is meg kell nézni, hogy mutatnak-e linkek a főoldalra, akár weboldal aloldalairól is. Ha nem, akkor ott nagy gond van az oldal felépítésével, és sem a felhasználók, sem a Googlebot nem tudja használni.

Emellett előfordulhatnak nem technikai okok is: például, ha a főoldal még placeholder szöveget tartalmaz vagy fejlesztés alatt grafika látható még rajta. Ilyenkor a Google lehet, hogy nem indexeli az oldalt. Az is lehet azonban gond, ha a Google úgy ítéli meg, hogy alacsony minőségű a főoldal tartalma, spamnek tekinti.

Ha ezen hibák valamelyike fennáll, és azt kijavítod, utána nem fog azonnal megjelenni az találati oldalakon weboldalad. A Google ugyanis nem fogja azonnal indexelni, ellenőrizni az oldalt. Amíg ez meg nem történik, érdemes tovább javítani a technikai hátterét, a tartalmát, a felhasználói élményét – tanácsolta a szakértő.

A rövidebb szövegű oldalakat gyorsabban indexeli a Google?

Akad, akiben az indexelés gyorítása kapcsán felmerül az is, hogy talán rövidebb szövegeket lenne érdemes írni, mert azokat gyorsabban tudja indexelni a Google, mondván: kisebb erőfeszítésébe kerül egy rövidebb szövegen átrágnia magát a robotnak.

Az ezzel kapcsolatos kérdés valóban fel is tette egy weboldaltulajdonos Gary Illyesnek, a Google szakemberének egy Google office hours során. Ő azonban úgy válaszolt: a tartalom hosszúsága nem befolyásolja a feltérképezési gyakoriságot és az indexelést.

Mivel a kérdésben az is felmerült, hogy a konkrét esetben egy rövid, de úgynevezett „niche” – tehát a közönség egy szűkebb, speciális körének szóló – tartalomról van szó, azt is megjegyezte, hogy ugyan a niche tartalmakat is indexelik, azonban az általános, népszerű tartalmakat – például amelyeket többen linkelnek – könnyebben feltérképezik és indexelik.

Tényleg csak 250 oldalt hajlandó indexelni a Google minden weboldalon?

Felmerült a minap egy furcsa kérdés John Muellernek címezve. A kérdező azt kérdezte, hogy „még mindig létezik-e a weboldalakra vonatkozó, 250 statikus oldalas limit”. Ami elsősorban a 250-es korlát miatt érdekes, hiszen a web tele van olyan weboldalakkal, melyeknek akár több millió statikus aloldaluk van, és a Google ezeket láthatólag indexeli. Gondolj itt a nagy híroldalakra, melyek rengeteg oldallal rendelkeznek, és némely weboldal akár naponta több ezer új oldallal bővül.

Tehát érdekes szám a 250, melyről azt sem igazán lehet tudni, hogy hannan származik, mindenesetre, ami ennél is fontosabb, hogy mit mond ezzel kapcsolatban John Mueller. Röviden és tömören azt, hogy „nincs korlát”. Ez valószínűleg azt jelenti, hogy a Google nem alkalmaz semmiféle korlátot az egyes weboldalak indexelése esetében, tehát senkinek nem kell aggódnia amiatt, hogy annyi aloldalt hoz létre, amit már a Google sem lesz képes indexelni.

Az eredeti kérdés és válasz itt olvasható: There is no limit. — ? John ? (@JohnMu) November 21, 2019

Mit tegyél, ha azt akarod, hogy valamely oldalad ne indexelje a Google?

Lehetnek a weboldaladnak olyan aloldalai is, melyeknek ugyan van céljuk, ez azonban nem az, hogy a találati oldalakon jól szerepeljenek, vagy hogy egyáltalán: ezek hozzák a forgalmat. Esetleg gond is lehet a találati oldali megjelenésből. Ilyenkor kifejezetten arra van szükséged, hogy az oldalt ne indexelje a Google. Mivel érheted ezt el? A noindex meta taggel. Ennek révén ugyanis nem indexeli az oldalad a Google.

Milyen oldalaidnál lehet szükséged noindex meta tagre?

Például tipikusan ilyenek a duplikált tartalmak. Egy ismétlődő tartalomnál jó megoldás, ha arra kéred a Google-t ne indexelje, mert így nem fog semmilyen gondot okozni.

Felmerülhet az igény az általad alacsony minőségűnek tartott, csekély érdeklődésre számot tartó oldalaknál is, melyeket amúgy sem értékelne a Google, és összességében csak „lehúznák” a weboldalad.

De ebbe a sorba tartoznak olyan oldalak is, mint a „köszönöm oldal”, az admin vagy a login oldalak. Nyilván utóbbi nem olyan esetekre vonatkozik, ahol az emberek ott lépnek be egy szolgáltatásba, mint ahogy mondjuk a Dropboxnál.

Emellett a belső keresési eredmények oldalait sem szeretné a találatok között megmutatni a Google, úgyhogy célszerű neked gondoskodnod arról, hogy ne is legyen megtalálható. Ugyanakkor arra figyelj, hogy ezeknél a linkek fontosak, így a nofollow meta taget ne alkalmazd!

Hogyan kezeli a Google a noindex meta taget? Mire kell figyelned?

Első körben azt érdemes átnézni, hogy miként áll hozzá a Google a noindex címke használatához, mert ebből kiderül, hogyan érdemes használni, illetve hogyan nem. Amit feltétlenül tudni kell, hogy

  • hasonlóképpen értelmezi a noindexet, mint a 404-es válaszkódot,
  • olyan oldalakon érdemes használni, melyeket a weboldaltulajdonos soha nem akar indexeltetni.

A Google fejlesztői oldal így fogalmaz a noindex meta tag kapcsán: „arra utasítja a keresőmotort, hogy nem mutassa meg az oldal a találati eredmények között”.

Ez ugyan nem említi, hogy hasonlóképpen kezeli, mint egy 404-es kódot, de John Mueller, a Google szakemberének egy válaszából ez derült ki. Mint mondta, „ha látunk egy oldalt, mely hosszú időn keresztül noindex jelzést kapott, akkor azt feltételezzük, hogy ez valami olyan, mint egy 404-es oldal, ezért nem kell olyan gyakran feltérképeznünk.”

Ebből tehát az következik, hogy nem érdemes „játszani” a noindex meta taggel: nem szerencsés, ha egy olyan oldalt, amit később indexeltetni akarsz, noindex címkével látsz el, illetve időnként leveszed és visszateszed a címkét.

Mikor lehet ez érdekes? Például akkor, ha van egy terméked, ami időnként elfogy, és ilyenkor azt szeretnéd, hogy ne jelenjen meg a keresőben. Ezt ugyan megteheted, de mint látható, az nem megoldás, hogy hol noindex jelölést kap, hol pedig nem.

Ehelyett például érdemes inkább a strukturált adattal (ItemAvailability) megjeleníteni, hogy egy termék kapható vagy sem a webáruházadban. Ebben az esetben a keresőmotorok ezt értelmezni tudják, így nem jelenítik meg a keresési eredmények között, miközben továbbra is indexelik.

Egy másik kérdés, hogy

Bünteti-e a Google, ha sok oldaladnál használod a noindex taget?

Az is elképzelhető, hogy azért nem indexeli valamely weboldaladat a Google, mert noindex taggel van ellátva. Elképzelhető, hogy véletlenül került oda, de általában szándékosan szokott megtörténni a dolog (legfeljebb időközben elfelejtetted). A noidexet többféle ok miatt is használhatod, például azért, mert van egy (vagy több) duplikált oldalad, melyeket nem szeretnél megjelentetni a keresőben. Esetleg a feltérképezési büdzsé miatt aggódsz, vagy talán az az oka, hogy úgy érzed, gondok vannak az adott oldalak minőségével.

Amit érdemes tudni, hogy ezeket az oldalakat a Google továbbra is feltérképezi az oldal minőségének megítélése érdekében. Ugyanakkor kérdés lehet az, hogy számít-e, ha a weboldal több oldalánál is noindex jelölést talál a kereső?

A kérdést szerencsére a Google Webmaster Help egyik fórumbejegyzésében megválaszolta Aaseesh Marina, a Google egyik szakembere. Az adott esetben arról volt szó, hogy az érintett weboldal 50 százaléka volt noindex taggel ellátva. A szakember azonban világossá tette, hogy „a noindex tag használata a weboldalad aloldalainak egy bizonyos százalékánál nem rontja le a maradék oldalt„. Ennek oka, hogy a Google minden egyes oldalt külön rangsorol a relevanciájuk és egyéb tényezők alapján. Ezért nem is kell aggódni semmilyen büntetés miatt, ami egy esetleges gyenge tartalmi minőség miatt érhet.

A lényeg tehát, hogy a noindex használata még nagyobb mennyiségű weblap esetében sem káros, nem befolyásolja a weboldal indexelt részének minőségét. Persze, ha a többi oldal esetében is gondok vannak a minőséggel, akkor a weboldalt érintheti a Panda vagy más minőségi algritmusok hatása.

És mikor vesd be a nofollow metát?

A Google azt javasolja, hogy olyan linkeket jelöld meg a nofollow taggel, melyek

  • fizetett linkek vagy
  • nem megbízható tartalomra mutatnak.

Tipikusan ilyen linkek a kommentekben elhelyezett linkek (ezért is felesleges hozzászólásokban megjelenített linkeket használni SEO-ra). Valamint az olyan szövegekben elhelyezett linkek, melyeknek megjelenéséért fizettek.Hogyan gyorsíthatod meg, hogy egyes oldalaid lekerüljenek a Google találati oldalairól?

Mint láttuk, a noindex meta címke használható akkor, ha azt szeretnéd, hogy valamely oldalad ne indexelje a Google, így az ne szerepeljen a találati oldalakon. Bizonyos esetekben azonban szükség lehet arra, hogy ez gyorsan történjen, illetve néha sok oldalt érinthet ez a lépés. Például akkor, ha feltörték az oldalad, és a hacker több oldalad tartalmát módosította. De az is lehet, hogy termékeket vagy szolgáltatásokat már nem kínálsz a továbbiakban, esetleg egy új szabályozás miatt, bizonyos tartalmakat el kell távolítanod. Mi a megoldás?

Ha csak arról van szó, hogy néhány weboldalt szeretnél eltávolíttatni ideiglenesen a Google indexéből, akkor a legegyszerűbb módja ennek a Search Console-ban az URL eltávolító eszköz alkalmazása. Ennek használatáról itt ad bővebb tájékoztatást a Google.

Ugyanakkor bizonyos esetekben több száz oldal eltávolítása is szükséges lehet, így ez a módszer egy kicsit nehézkes lenne. John Mueller, a Google szakembere elmondta, hogy ilyenkor ideiglenes oldaltérképet érdemes használni. Tehát, először törlöd az oldalt (404-es oldal), vagy pedig noindexet állítasz be rá. Ezután feltöltesz egy ideiglenes oldaltérképet azokkal az URL-ekkel, melyeket töröltél, de szerepeljen benne a legutóbbi módosítás időpontja, azaz a 404-essé tétel vagy a noindex meta címke használatának időpontja is. Ezzel jelezheted a Google-nak, hogy nézzen rá az oldalakra, mert változtak. Amikor megtalálja a megváltozott oldalakat, illetve látja, hogy törlésre kerültek, akkor gyorsabban eltávolítja őket a találati oldalakról.

Képes-e a Google weboldalak részleges indexelésére?

Korábban már foglalkoztunk az alcímben feltett kérdéssel, miszerint képes-e a Google weboldalak részleges indexelésére. Akkor azt kellett mondanunk, amit John Mueller írt: a Google nem használ részleges, csak teljes indexelést. Mint tweetjében írta, weblapokat kizárólag, mint egészt indexelnek, és próbálják megérteni az ott talált tartalom kontextusát. We don’t index parts of a page independently, we index the pages as a whole, and try to understand the context of the content there. Scrolling to a part of a page when we know that’s where the snippet was from makes a lot of sense regardless of indexing. — ? John ? (@JohnMu) August 7, 2019

A dolgok azonban állandó változásban vannak, így a Google 2020. október 16-án bejelentette, hogy novembertől (fokozatos kifutással) már képes weboldalak részleges* indexelésére.

A Google bejelentésében úgy fogalmazott, hogy „áttörést értek el a rangsorolásnál”, és már nem csak teljes oldalakat tudnak indexelni, hanem a weboldalt szakaszokra tudják bontani, és szakaszonként értelmezni azt.

*Habár úgy fogalmaznak, hogy szakaszonként indexelnek, az indexelés továbbra is oldalanként történik, egyszerűen csak elkezdik külön értelmezni a szövegek egyes szakaszait. Tehát valójában nem az indexelés változik – még ha így is említik a bejelentésben -, hanem mindez a rangsorolásnál eredményez jelentős változásokat. (Elképzelhető, hogy emiatt az alcímek egyébként fontosabb jelzéssé válnak, de erről a Google egyelőre nem nyilatkozott.)

Mindez azért érdekes és fontos, mert miközben lehet, hogy egy teljes oldalad valamely keresésre nem igazán releváns, lehet benne egy olyan szakasz – tipikusan hosszabb, információs tartalmak esetén, mint amilyen például ez a bejegyzés is -, ami releváns választ ad egy felhasználó kérdésére.

Az is mutatja, hogy nagy horderejű változásról van szó, hogy a bejelentés szerint a keresések 7 százalékát érinti, minden nyelven, globálisan. Mint mondták, most már könnyebben megtalálja a Google a tűt a szénakazalban. Az alábbi ábrával illusztrálták mindezt: Szakaszos indexelés

Magyarázatként pedig egy példát is hozzátettek. E szerint, ha valami olyan niche témára keresel rá, mint hogy „hogyan állapítsam meg, hogy az ablaküvegeim UV-szűrősek”, akkor kapsz egy rakás oldalt, ami az UV-üvegekről szól, de konkrét választ nem kapsz a kérdésedre. Az új algoritmus viszont már képes megjeleníteni egy pontos válasz, mert már valamelyik DIY-fórumon talál egy leírást.

Frissítés, 2021.08.25.:

Mit jelentenek az egyes HTTP állapotkódok? És hogyan befolyásolják az indexelést és feltérképezést?

Lehet, hogy mindez már ismerős lesz számodra is, de soha nem árt felfrissíteni a tudást, különösen, hogy a Google nemrég egy új összefoglalót tett közzé az állapotkódokról. A Google információs anyaga a 20 legfontosabb státuszkódot sorolja fel, melyeket figyelembe vesz a Googlebot.

Amit elúljáróban érdemes tudni, hogy a HTTP állapotkódokat a szerver hozza létre, amikor egy weboldalt lekér a böngésző vagy a bot. Tehát például, ha a böngésző egy olyan tartalmat szeretne megjeleníteni, mely már nem létezik a szerveren, akkor az egy 404-es jelzést küld.

Az állapotkód első száma mindig a kategóriára utal: minden 2-vel kezdődő kód sikeres feltérképezést jelez, a 3-mal kezdődő kódok átirányításra utalnak, és így tovább. Nézzük meg ezeket egy kicsit részletesebben!

HTTP 2xx állapotkódok (sikeres feltérképezés)

Ezek azt jelzik, hogy a Googlebot fel tudja térképezni a tartalmat, és képes továbbítani azt indexelésre. A Google ugyanakkor felhívja a figyelmet arra, hogy egy 2xx állapotkód esetében sem feltétlenül indexel, mindössze arról van szó, hogy nincs hiba a weboldalnál.

Ez sem igaz azonban teljesen, mert a 204-es kód például azt jelzi, hogy az oldal ugyan elérhető, azonban nem található rajta tartalom. Ezért a Google a 204-es kód esetében puha 404-es oldalt jelez a Search Console-ban.

HTTP 3xx állapotkódok (átirányítások)

Ezeknél azt érdemes tudni, hogy nem minden átirányítás azonos erejű.

A 301-es állapotkód egy erősebb jelzés a Google számára, mint a 302, 303 vagy a 307-es kód. Ezek egyébként arra adnak utalást a robot számára, hogy melyik az eredetinek tekinthető oldal, amit figyelembe kellene vennie. A 304-es kód még érdekes, ugyanis az azt jelzi, hogy az oldal tartalma ugyanaz, mint a legutóbbi feltérképezés esetén. Ennek nincs hatása az indexelésre, de jelezheti azt, hogy az URL-t újra kell értékelni.

A Googlebot egyébként 10 átirányítást hajlandó figyelembe venni, mielőtt feladná az átirányítási lánc követését. Ha 10 átirányítás után sem talál tartalmat, akkor a Search Console átirányítási hibát jelez.

HTTP 4xx állapotkódok (kliensoldali hiba)

A 4xx-es hibakódot küldő oldalakat nem fogja indexelni a Google. A 429-es kód kivételével ez minden 4xx-es kódra igaz, melyek alapvetően azt jelzik, hogy egy tartalom nem létezik. Ha a tartalom korábban létezett, akkor az URL eltávolításra kerül a Google keresési indexéből.

A 429-es állapotkód viszont azt jelzi, hogy a bot nem tud hozzáférni egy oldalhoz, mert a szerver túlterhelt. Az ilyen URL-ek ezért nem kerülnek törlésre, hanem maradnak a Google indexében.

HTTP 5xx állapotkódok (szerverhibák)

Az 5xx-es státuszkódok hatására a Googlebot ideiglenes lassítja a feltérképezést. Azok a korábban indexelt URL-ek, melyek többször is szerverhibát küldenek a botnak egy idő után törlésre kerülnek az indexből.

További részletek a Google anyagában érhetők el.

Frissítés, 2021.10.19.:

Hogyan befolyásolja egy 500-as hibakód az indexelést?

Azaz, milyen körülmények között dobja ki az indexéből a weboldalt, illetve térképezi fel kevesebbszer a Google 500-as hibakód esetében? Erre John Mueller válaszolt egy videóban.

Az 500-as hibakód azt jelzi, hogy egy weboldal lekérése sikertelen. Egyszerűbben megfogalmazva, korábban ez volt az 500-as hibakód által adott üzenet: „500 Internal Server Error”. Szerverhibáról van tehát szó, melynek többféle verziója létezik, és ezek mindegyike valamilyen eltérő okra hivatkozik. A lényeg azonban az, hogy a weboldal lekérése sikertelen, legtöbbször azért, mert a szerver nem elérhető.

A weboldaltulajdonosok számára ez sokszor csak úgy derül ki, hogy a Search Console-ban találkoznak a figyelmeztetéssel, hogy valami hibát észlel a Google az oldalon. Néha mindössze annyi az oka, hogy a szerver jelentős terhelés alatt van. De lehet a Content Delivery Network (CDN) rossz beállítása is a háttérben, mely a Google-t is blokkolja az oldalak elérésében.

Ahhoz, hogy 500-as hibaüzenetek miatt kikerüljön egy weboldal a Google indexéből, hosszú ideig és folyamatosan 500-as hibákat kell kapni. A Google egy 500-as hiba esetén újra és újra próbálkozik a weboldalt elérni, de egy idő után elkezdi lassítani ezt, majd ha továbbra is sikertelen az oldal elérése, akkor kikerül az indexből. John Mueller szerint, ha csak néha produkál 500-as hibát egy oldal, annak nincs semmilyen következménye.

Azt is elmagyarázta, hogy első körben miért csökkenti a feltérképezési próbálkozások előfordulását a Google: mert lehetségesnek tartják, hogy maga a Google okozza a problémát a túl sok feltérképezési próbálkozással. Ha mégis azt látják, hogy nem tér magához az oldal, akkor viszont ejtik az indexből.

Azt azonban nem tudta megmondani, hogy pontosan mikor kezdi csökkenteni a feltérképezés gyakoriságát a bot, illetve mikor dobja ki az indexből, mert erre nincsenek fix értékeik.

Soha ne blokkold a 404-es oldalaidat a Googlebot elől!

Ezt John Mueller, a Google szakembere javasolja, mert „mindenféle problémát okoz”. Mint mondta, nem kellene megakadályozni a Googlebotot vagy bármely más keresőmotort abban, hogy 404-es oldalakba fusson bele a weboldaldon. A feltérképezésnél egyébként mindig vannak olyan URL-ek, melyek korábban 404-esek voltak – tette hozzá.

Ugyanezt egyébként egy másik tweetjében is megerősítette, amikor arról írt, hogy naponta több milliárd 404-es oldalt térképeznek fel, és ez egy teljesen normális része a webnek, a megfelelő megoldás arra, hogy jelezzük, amikor egy URL már nem létezik. Ez nem egy olyan dolog, amit meg kellene vagy meg tudnál változtatni – jegyezte meg.

A lényeg tehát, hogy a 404-es oldalakkal alapvetően nincs probléma, hiszen ahogy oldalak jönnek létre a weben, úgy oldalak meg is szűnnek, ezt pedig tudja kezelni a Google, és nem is bünteti, hiszen természetes jelenség. A 404-es oldalakról itt írtunk részletesen.

Ha CDN-t használsz, rendszeresen ellenőrizd, hogy hozzáfér-e a weboldaladhoz a Googlebot!

Erre Garry Illyes, a Google szakembere hívta fel a figyelmet a Mastodonon. Mint írta, ha fontos számodra, hogy a Googlebot/Bungbot/bármilyenbot meglátogassa az oldaladat, miközben olyan megoldásokat használsz, mint a CDN vagy f5, akkor váljék szokásoddá, hogy végignézed az ezek által automatikusan generált tűzfal-szabályokat. Ugyanis néha a botok által képzett fogalmat rosszindulatónak tekintik és blokkolják.

Ez egyébként is hasznos gyakorlat a weboldalak esetében, vagyis érdemes előre eltervezett időpontokban rutinellenőrzéseket végezni akár manuális, akár automatikus módon.

Így kiderülhet például, hogy a Googlebot blokkolva van, és megelőzhető az a probléma, hogy nem érted, miért esett vissza a keresőből érkező forgalmad.

De nem csak ezzel, hanem bármi mással is gond lehet, például nem működik valamelyik űrlapod a webáruházadban, és nem tudnak az emberek rendelést leadni. Amire csak akkor döbbensz rá, miután egy csomó pénzt veszítettél a hiba miatt. Ezért hasznos a rendszeres rutin- vagy akár automatizált ellenőrzés.

Frissítés, 2023.02.14.:

Tartsd tisztán a weboldalad kódjában a head részt!

Egy további fontos tényező a weboldal feltérképezhetősége és indexelhetősége kapácsán a head szekció. Ennek John Mueller szerint rendezettnek, tisztának kell lennie. Tehát, ha lehetséges, akkor ne legyen benne hibás szintaxis, mert az más részeit is tönkreteheti az oldalnak, illetve nehezebbé teszi a Google számára, hogy olvassa a weboldalt.

Természetesen a Google képes kezelni a hibás HTML-t, már csak azért is, mert a legtöbb HTML-kód, amit a weben találunk egyáltalán nem 100 százalékos. Vagyis a Google-nek képesnek kell lennie arra, hogy ezeket is megfelelően feldolgozza. Ugyanakkor, amikor strukturált adatokról vagy más technikai elemekről van szó – melyek nem feltétlenül láthatóak, viszont fontos részei a forráskódnak -, akkor azoknak validnak kell lenniük.

A témához kapcsolódó kérdés egyébként a Redditen merült fel, ahol a kérdező arra volt kíváncsi, hogy ha a fő HTML-tartalom a kód 5118-as soránál kezdődik, akkor nem jelent-e problémát a Google számára annak feltérképezése?

Mueller ennek kapcsán elmondta, hogy a tartalom pozíciója nem igazán lényeges a HTML-ben, sokkal inkább azzal lehet probléma, hogy mi van körülötte. Adott esetben ez megakadályozhatja vagy legalábbis jelentősen megnehezítheti a Google számára a tartalom feldolgozását.

A HTML fejlécnek mindenesetre „nagyjából” fent kellene lennie, úgy hogy mindenféle JS-kód ez alá kerüljön. Emellett érdemes tesztelni a Search Console-ban, hogy a JS nem zavar-e be. Ez azért fontos, mert a head-szekció gépi olvasásra készült információ, melynek az oldal egy meghatározott részén kell lennie, mégpedig felül, illetve rendezettnek is. A lényeg, hogy a JavaScript kerüljön le – tette hozzá Mueller.

Később egyébként a Google Tag Manager kódjának pozíciójára is rákérdeztek, melynek kapcsán elmondta, hogy „minden helyzet más”. Mindenesetre tesztelni kell a böngészőben és egyéb teszt-eszközökkel.

Korábban Mueller úgy nyilatkozott, hogy a tartalom pozíciója nem igazán számít, ami némileg ellenmond annak, amit Gary Illyes, a Google másik szakembere nyilatkozott, aki szerint a mobilon a tartalom sorrendje és pozíciója is meghatározó rangsorolási szempontból.

Már nem indexeli a Flash-fájlokat a Google

A Google 2019. október 28-án jelentette be, hogy leáll az Adobe Flash fájlok, azaz SWF-fájlok indexelésével. Mint írták, a „Google a továbbiakban nem támogatja a Flasht. Azokon a weboldalakon, ahol Flash-tartalom található, a Google nem vesz tudomást a Flash-tartalomról. A Google leállítja az önálló SWF-fájok indexelését.”

A Flasht 1996-ban indította el az Adobe, a Google pedig 2008 júliusában kezdte indexelni a Flash-fájlokat, vagyis 11 évvel ezelőtt, majd egy évvel később javított ezen, de igazán jól soha nem ment neki a Flash-fájlok indexelése. Igazán népszerű még a ’90-es évek második felében volt a technológia, azóta azonban eltelt jó pár év, melynek során lassan kikopott: először az Apple szakított vele az iPhone-oknál, majd a Chrome a 76-os verziótól, a Firefox a 69-estől felhagyott a megjelenítésével. Így nem túl meglepő, hogy a Google most már leáll az indexeléssel, ha szinte senki számára nem jelenik meg.

A Google azt is megjegyezte, hogy a „legtöbb felhasználó és weboldal semmilyen hatását nem tapasztalja ennek a változásnak”. Arra is kitért, hogy most már a HTML5 révén rendelkezésre áll egy általánosan elfogadott megoldás olyan dolgok létrehozására, mint amit a Flash tudott.

Tehát, ha a weboldalad még használ Flasht, miközben erősen függ a forgalmad a keresőben elért helyezésedtől, akkor érdemes minél előbb lecserélni a Flash-megoldásokat.

II. A robots.txt fájl

Ha befolyásolni akarod a weboldalad indexelését és feltérképezését, akkor a noindex és nofollow metacímkéken kívül a robots.txt-t is használhatod erre a célra. A robots.txt azonban más egyéb célokra is használható, pedig egy sima, szöveges fájl, mely a weboldalad gyökérkönyvtárában található (ha máshol helyezed el, akkor nem vesznek róla tudomást a keresőrobotok). Arról tájékoztatja a keresőrobotokat, hogy hol nézelődhetnek a weboldaladon, és hol nem. Ha megfelelően használod, akkor javíthatod általa a feltérképezési gyakoriságot, mely segítheti a SEO-erőfeszítéseidet.

Mi az a robots.txt fájl?

Amikor az internet még csak gyerekcipőben járt, a fejlesztők kidolgoztak egy megoldást a weboldalak feltérképezésére és indexelésére. Ezt a tevékenységet a robotok és a pókok végezték, melyek bebarangolják a web valamennyi szegletét, hacsak meg nem tiltjuk nekik, hogy valahová betegyék a lábukat. Például egy olyan oldalra, ami éppen átalakítás alatt van.

A világ első keresőmotorjának megalkotója, az Aliweb hozott létre egy megoldást a robotok mozgásának szabályozására, mely 1994-ben készült el, és a Robots Exclusion Protocol nevet kapta. A robots.txt fájl ennek a protokollnak a végrehajtása. A protokollt minden legális robotnak be kell tartania, ugyanakkor a malware-ek, spyware-ek nem törődnek vele, hiszen illegálisan működnek.

Mielőtt egy keresőrobot (például a Googlebot vagy a Bingbot) feltérképezné a weboldalad, először leellenőrzi, hogy van-e az oldalnak robots.txt fájlja, és ha igen, akkor követi a benne található utasításokat. Elsősorban arra használható, hogy meghatározd: a weboldalad mely területeit járják be a botok.

A robots.txt tartalmát Te is megnézheted bármely weboldal esetében. Ehhez csak az URL mögé kell illeszteni a /robots.txt szöveget. Maga a robots.txt fájl a weboldalad gyökérkönyvtárában található, a public_html mappában. Ha megnyitod egy szövegszerkesztőben, akkor tudod is szerkeszteni. Ha mégsem találnád, akkor nincs robots.txt fájlod, és létrehozhatsz egyet.

Miért hasznos a robots.txt fájl?

Robots.txt fájl nélkül remekül meg lehet lenni, nem szükséges egy jól működő weboldalhoz. Ugyanakkor van néhány olyan előny, amit kihasználhatsz vele:

  • Megakadályozhatod a botokat, hogy magánjellegű mappákat elérjenek és ellenőrizzenek.
  • Vagy akár bármilyen részét a weboldaladnak, így például a belső keresés eredményoldalait.
  • Meghatározod vele az oldaltérkép helyét.
  • Optimalizálhatod a feltérképezési büdzsét azáltal, hogy az alacsonyabb értékű oldalak (belépési oldal, köszönöm oldal, bevásárlókosár, stb.) elérését korlátozod.
  • Ellenőrzés alatt tarthatod a forrásokat. Ez azért fontos, mert amikor egy bot feltérképezi az oldalad, használja a sávszélességed és más szerver-erőforrásokat. Ha egy weboldalon nagyon sok a tartalom és az aloldal, akkor a robotok tevékenysége leterhelheti a szervert. Mivel a robots.txt segítségével bizonyos részektől távol tarthatók a botok, így az erőforrások megmaradnak a valódi felhasználók számára.
  • Megelőzheted, hogy indexelésre kerüljenek bizonyos fájlok (képek, pdf-ek, stb.).

Mi szerepel a robots.txt fájlban?

A robots.txt fájlok különböző utasításokat tartalmaznak. Mindegyik egy meghatározott user-agentre vonatkozik. Itt két lehetőség van: vagy valamennyi user-agentre vonatkozik, vagy pedig csak valamely user-agentre. Ez így néz ki:

Minden blokk első sorai a user-agentet határozzák meg, azaz valamelyik botra vonatkoznak, annak pontos nevét tartalmazzák. Ha például a Googlebotnak akarsz utasításokat adni, akkor úgy kezded a blokkot, hogy „User-agent: Googlebot”. A keresőmotorok minden esetben megpróbálják megtalálni azokat az utasításokat, melyek leginkább rájuk vonatkoznak. Minden keresőmotor többféle botot is használ, a leggyakoribbakat itt találod.

Az utasítások közé tartozik a „disallow” – a blokk második sorában szerepel -, mellyel azt határozhatod meg, hogy a weboldalad mely részeihez ne férjenek hozzá a botok. Ha üres, akkor az egész weboldalt szabadon bejárhatják a botok.

Ha ez szerepel benne

User-agent: *
Disallow: /

akkor az azt jelenti, hogy minden botot kitiltasz az oldalról, pedig nem sok különbség van ahhoz képest, hogy engedélyezed az egész oldal bejárását.

Ezzel az utasítással csak egy botot tiltasz ki:

User-agent: Googlebot
Disallow: /

De részletezheted azt is, hogy mely oldalakról kerüljenek kitiltásra a botok:

Disallow: /search

A sitemap utasítással meghatározható az, hogy hol találják az XML oldaltérképet a botok.

Sitemap: https://linkcime.hu/sitemap

Szintén beállítható a feltérképezési késleltetés, vagyis a crawl-delay.

A disallow mellett fontos még a noindex utasítás is, hiszen a disallow még nem akadályozza meg egy oldal indexelését, így az megjelenhet a találati oldalakon. Azt ugyanakkor ennek kapcsán érdemes tudni, hogy a Google nem mindig tartja be következetesen.

A Google tájékoztatója itt olvasható a robots.txt létrehozásától, illetve annak teszteléséről. A Google egyébként legfeljebb 500KB-os fájlt hajlandó megnézni.

Amit el kell kerülni

A robots.txt-ben található utasítások nem arra valók, hogy megpróbálj rejtegetni valamit a botok elől. Nem is érdemes, mert a Google van annyira fejlett, hogy rájöjjön erre. Sőt, sok esetben éppen a takargatási próbálkozással hívod fel a figyelmet valamire, például egy duplikált tartalomra. Amennyiben a duplikált tartalom problémájával állsz szemben, akkor három lehetőséged van:

  • átírod a tartalmat
  • 301-es átirányítást használsz
  • canonical taget használsz

További tippek

  • Győződj meg arról, hogy valamennyi fontos oldalad feltérképezhető, míg az értéktelen oldalakat blokkolod a botok elől.
  • Ne blokkold az oldalad JavaScript és CSS fájljait.
  • Időnként ellenőrizd a robots.txt fájlodat, nehogy olyan véletlen módosítás történjen, amiről nem tudsz.
  • A mappáknál és fájlneveknél figyelj a nevek pontos egyezésére!
  • A gyökérkönyvtárba helyezd, hogy megtalálható legyen.
  • A robots.txt fájl nevének pontosan ennek kell lennie, nincsenek különböző variációk.
  • Az érzékeny felhasználói információkat ne robots.txt-vel próbáld meg elrejteni, mert attól még láthatóak maradnak. Egy másik oldal belinkelheti, és így a robotok is meg fogják találni, és indexelik. Ezeknél az oldalaknál külön helyezz el az oldal kódjában noindex meta taget, illetve állíts be jelszót!
  • Jelezd az oldaltérkép helyét! Ha aldomaint használsz, akkor mindegyikhez kell egy robots.txt, ahogy a fődomainhez is.

Teszteld a végén!

Ha elkészült a robots.txt fájlod, akkor érdemes tesztelni, mert ebből láthatod, hogy megfelelően működik-e.A Search Console-ban találsz egy olyan lehetőséget, hogy „robots.txt tesztelése”. Itt megnézheted, hogy működik-e a robots.txt fájlod, és megnézheted, hogy az általad kizárt URL-eket eléri-e a bot vagy sem.

Frissítés, 2022.03.29.:

Melyek a leggyakoribb hibák a robots.txt-nél?

Ha hibát követsz el a robots.txt-ben, annak lehetnek káros következményei, de azért nem a világ vége. Ha pedig javítod a hibákat, akkor azt követően gyorsan helyreállnak a dolgok. A Google a webfejlesztőknek írt dokumentumában is azt mondja, hogy a robotok általában nagyon rugalmasak, és a kisebb hibák nem akasztják meg a működésüket az oldalon. A legrosszabb, ami történhet, hogy a hibás vagy nem támogatott utasításokat figyelmen kívül hagyják. Arra is felhívja azonban a figyelmet a Google, hogy nem gondolatolvasó, amikor a robots.txt értelmezéséről van szó. Milyen hibák fordulnak elő gyakran?

A robots.txt nem a gyökérkönyvtárban található

A keresőrobotok csak akkor találják meg a fájlt, amennyiben az a gyökérkönyvtárban van. Erről a legegyszerűbben úgy győződhetsz meg, hogy amikor beírod az url-t, akkor a .hu után csak egy perjel található, majd a robots.txt szöveg. Ha a fájl egy almappába kerül, akkor nem látható a robotok számára.

A karakterek hibás használata

A robots.txt csak két helyettesítő karaktert támogat. Az egyik a csillag *, mely bármely érvényes karaktert helyettesíthet, míg a másik a dollárjel $, mely az url végét jelöli, lehetővé téve, hogy olyan szabályokat alkalmazz, melyek csak az url végére érvényesek (mint például fájltípus-kiterjesztés). Érdemes ezeket a karaktereket óvatosan kezelni, mert könnyen előfordulhat, hogy kitiltod velük a robotokat a weboldaladról.

Noindex a robots.txt-ben

Ez a hiba jellemzően a régebbi weboldalakat érinti. A Google 2019. szeptember 1-jétől leállt le a robots.txt-ben megjelenő noindex szabályok figyelembevételével, a noindex kérést már máshogy kell megoldani, például a robots meta címkével, mely az oldalak head részében található.

Blokkolt szkriptek és stíluslapok

Adott esetben hasznos lehet, ha blokkolod a robotok elől a külső JavaScripteket és CSS-eket. Ugyanakkor a Googlebotnak hozzáférés kell a CSS és a JS fájlokhoz annak érdekében, hogy megfelelően lássa a HTML és PHP oldalakat. Ha a weboldalaid furcsán jelennek meg a találati oldalakon, vagy a Google nem látja őket megfelelően, akkor lehet, hogy blokkolod a robotok hozzáférését a szükséges külső fájlokhoz.

Nincs oldaltérkép url

Az oldaltérképed url-jét elhelyezheted a robots.txt fájlban. Ez az első hely, ahol a Googlebot körül fog nézni, amikor feltérképezi a weboldalad. Így egyből tudni fogja, hogy milyen az oldalad felépítése, melyek a fő oldalak. Ha nincs a robots-txt-ben oldaltérkép link, akkor az nem feltétlenül számít hibának, mégis érdemes lehet elhelyezni a linket a robots.txt fájlban.

Hozzáférés a fejlesztés alatt lévő oldalakhoz

Általában bevett megoldás, hogy disallow utasítással kitiltják a robotokat a robots.txt-ben a weboldal fejlesztés alatt lévő részéről, így a felhasználók nem látják ezeket, amíg el nem készülnek. Ha forgalmat látsz a készülő oldalaid esetében, akkor ezt nem tetted meg. Ugyanakkor ez a tiltás néha benne maradt a robots.txt-ben azt követően is, hogy elkészült az oldal. És akár az egész oldalra érvényes tiltás is benne maradhat a fájlban. Ilyenkor pedig hiába várod a forgalmat vagy a megjelenést a keresőben, ez nem történik meg. Tehát, ha azt látod, hogy „Disallow: /”, akkor ez lesz a hiba.

Miért és hogyan rangsorolja a Google a robots.txt-ben blokkolt oldalakat?

Azért, mert egy oldaladat blokkoltad a robots.txt segítségével, azt még indexelni fogja a Google, ha linkek mutatnak rá. Nem vizsgálja meg a tartalmát, nem is ismeri azt, de az indexbe bekerül, így pedig rangsorolható, és akár jó helyezést is szerezhet.

De mi alapján történik a rangsorolás, ha a Google-nek fogalma sem lehet elvileg arról, hogy mi található az adott oldalon, az mennyire értékes tartalom? A Google szakembere, John Mueller egy Google Webmaster Central beszélgetés során adott választ a kérdésre.

Azt hangsúlyozta, hogy a blokkolt oldal tartalmára természetesen nincs rálátásuk (hiszen betartják azt a szabályt, hogy a robot nem vizsgálja az adott oldalt). És az is igaz, hogy a nem blokkolt oldalakat részesítik előnyben az indexelés során ugyanezen domain alatti oldalaknál. Ugyanakkor a Google vizsgálja és értékeli azokat a linkeket, melyek a blokkolt oldalra mutatnak. Ez alapján fogja tehát meghatározni a Google, hogy hová helyezze a találati oldalon a blokkolt oldalt.

Mint a szakember szavaiból kiderül, ha azt látják, hogy egy blokkolt oldalra értékes linkek mutatnak, akkor az megítélésük szerint „jól működik”, értékes tartalom lehet. Ezért is nem javasolja John Mueller a weboldaltulajdonosoknak, hogy robots.txt-vel blokkolják a botok elől az oldalt, ha azt szeretnék, hogy az teljesen rejtve maradjon. Ettől még ugyanis jó helyet kaphat a találati oldalakon.

Látod a találati oldalakon a robots.txt-det? Akkor komoly gond van a weboldaladdal

Akad néhány olyan weboldaltulajdonos, aki arra panaszkodik, hogy megjelenik a találati oldalakon a robots.txt fájlja vagy épp az XML oldaltérképe. Hiszen ezek indexelési szempontból ugyanolyan URL-ek, mint a többi, és így a tartalmuk indexelhető. Habár speciális szerepük van, ez nem befolyásolja az indexelési állapotukat. Az ugyanakkor mégis gond, ha ezek normál keresésekre (azaz nem a site: keresésekre) megjelennek a találati oldalakon, vagyis rangsorolja őket a Google. John Mueller szerint, ha ez megtörténik, az azt jelzi, hogy nagyon rossz az oldalad, és rendbe kellene rakni.

Mit tehetsz, ha blokkolni akarod a robots.txt-t vagy az XML oldaltérképet? Mueller szerint megoldható a HTTP headerben elhelyezett x-robots-taggel. Persze magában a robots.txt-ben is jelezheted egy „disallow” jelzéssel, hogy ne indexeljék a robotok a tobots.txt-t, de ez valószínűleg már késő, mert mire eljutnak a robots.txt tartalmához, addigra már indexelte is az URL-jét. A lényeg pedig az, hogy ezen oldalak indexelésére nincs szükség, mert más szerepük van. No. A sitemap file is usually just meant for direct usage by programs, it doesn’t need to be indexed. — ? John ? (@JohnMu) November 7, 2019

III. Kulcsszavak

A kulcsszavakkal telezsúfolt oldalak kora véget ért. A kulcsszóhalmozásra érzékeny a Google, ráadásul a keresés jóval kifinomultabbá vált, mintsem át lehetne verni néhány tucat kulcsszó ismételgetésével egy oldalon. Ennek ellenére persze nem lehet azt sem állítani, hogy teljes mértékben figyelmen kívül kellene hagynunk a kulcsszavakat.

Kulcsszókutatás és kulcsszó-stratégia kialakítása

A kulcsszavak keresése még mindig a SEO-kampányok egyik legfontosabb része, habár szerepük mostanra némileg már átértékelődött. Ha egy témában szöveget írsz és a SEO is fontos szempont, akkor érdemes utánanézni, hogy melyik keresési kifejezés iránt mutatkozik nagyobb érdeklődés, és a szöveget erre hangolni.

Nyilván, ha egy – általában rövid, egyszavas – kulcsszó nagyon felkapott, ott nehéz labdába rúgni, ezért is javasolt a specializáltabb, több szóból álló, de még keresett long tail kifejezéseket használni. Ugyanakkor egy átgondolt kulcsszókutatás és oldalstruktúra-felépítés esetén a fő kulcsszavaknak és a long tail kulcsszavaknak is megvan a maguk helye és az ennek megfelelő szerepük.

De hogyan is nézzen ki a kulcsszó-stratégia?

Ahhoz, hogy forgalmat szerezz, fel kell keltened az emberek érdeklődését a weboldalad iránt. Ha el akarod érni, hogy meglátogassák az oldalad, tudnod kell, hogy mit keresnek, milyen kifejezéseket használnak, és milyen tartalomtípusok érdeklik őket. Ez jelenti a kulcsszó-stratégiát.

Általában egyszerűen csak kulcsszókutatást emlegetünk, amikor a megfelelő kulcsszavak összegyűjtéséről van szó, az is fontos, hogy ez miként zajlik, milyen elképzelés, terv mentén. Egy kulcsszó-stratégia minden döntést magába foglal, melyeket a kulcsszókutatás során meg kell hozni. A kulcsszó-stratégia arról szól, hogy miként akarod megcélozni az adott kulcsszavakat most és a jövőben. A kulcsszó-stratégia kialakításához meg kell vizsgálnod nem csak a céged vagy a terméked, hanem a környezetet és a versenytársakat is.

A céged vizsgálata

Egy jó kulcsszó-stratégia azzal kezdődik, hogy mivel foglalkozik a céged, és miért teszi ezt. Mik a céljai? Mi az, amiben egyedi és eltérő? Milyen üzenetet akar kommunikálni? Miért nézi meg bárki is a weboldalad? Minél jobban átlátod a válaszokat ezekre a kérdésekre, annál kevesebb erőforrást fogsz elpazarolni feleslegesen a SEO-nál.

Keresési szándék vizsgálata

A keresési szándék a „miért” minden egyes keresés mögött, ami a weboldaladra vezet. Ismered a közönséged? Az emberek csak információkat keresnek a weboldaladon, vagy hajlandóak is vásárolni tőled? Van arra lehetőség, hogy speciális szándékokat célozz meg arra irányított tartalmakkal? Neked kell eldönteni, hogy mi az a felhasználói szándék, amit ki akarsz szolgálni, és ennek megfelelő tartalmakat kell készíteni az illeszkedő kulcsszavakkal.

Keresd a szavakat!

A szavak állnak a kulcsszókutatás középpontjában. Amikor kulcsszókutatást végzel, akkor bepillantást nyersz abba, hogy milyen kifejezéseket használnak az emberek annak érdekében, hogy megtalálják, amit keresnek. Ha ezt tudod, akkor már csak a felhasználó-központú tartalom elkészítése marad hátra, ami illeszkedik a szándékhoz valamint a Te céljaidhoz.

A versenytársak vizsgálata

Nem elég, ha csak magaddal és a közönségeddel foglalkozol a kulcsszókutatás során. Érdemes egy pillantást vetni a versenytársakra is. Ők mit csinálnak? Milyen helyezést érnek el azon kulcsszavakra, amelyeket Te is megcéloztál? Milyen tartalmakat készítenek? Van arra lehetőséget, hogy jobb tartalmakat készíts? Vagy esetleg más kulcsszavakat kellene megcéloznod, ahol kisebb a verseny?

A keresőmotor vizsgálata

Amikor a konkurenciát vizsgálod, akkor természetesen a keresőt használod erre. Ezek a keresések megmutatják az ő stratégiájukat. Ugyanakkor az is kiderül egy-egy keresésből, hogy mi történik, amikor beírsz egy bizonyos keresési kifejezést. Milyen találatokat dob fel a Google? Hogy néz ki adott keresésre a találati oldal? Térképes találatokat mutat?

A weboldalak számára egyre nagyobb gondot jelent, hogy csökken az átkattintási arány a Google találati oldaliról. Ennek oka, hogy egyből válaszokat kapnak a keresők már a találati oldalról, így felesleges tovább kattintaniuk valamely weboldalra.

Az adatok vizsgálata

Természetesen az adatok vizsgálata jelentős szerepet játszik egy kulcsszó-stratégia sikerében. A Google Analytics vagy a Search Console értékes adatokat kínál a weboldalad teljesítményéről, és a kiaknázható lehetőségekről, így természetesen a kulcsszavakról is.

Frissítés, 2021.12.01.:

Milyen típusú kulcsszavak vannak?

Az előbb már említettük a keresési szándék vizsgálatát, mely meghatározza, hogy milyen kulcsszavakra érdemes optimalizálni. Mélyedjünk el ebben egy kicsit jobban!

A keresési szándékok alapján ugyanis a kulcsszavaknak négy típusát különböztethetjük meg:

  • Információs kulcsszavak – amikor az emberek válaszokat akarnak egy kérdésükre
  • Navigációs kulcsszavak – amikor az emberek egy bizonyos oldalt akarnak megtalálni
  • Kereskedelmi kulcsszavak – amikor az emberek egy márkát vagy szolgáltatást közelebbről meg akarnak ismerni
  • Tranzakciós vagy vásárlási célú kulcsszavak – amikor az emberek valamilyen terméket meg akarnak venni

Nézzük részletesebben!

Információs kulcsszavak

Mint látható a felsorolás mindjárt az információs kulcsszavakkal kezdődik. A weboldalak nagyon sokszor optimalizálnak ilyen információs kulcsszavakra, majd aztán nem értik, hogy ezek miért nem hoznak konverziót. Ennek oka, hogy amikor az ezen csoportba tartozó kulcsszavakat a felhasználó beírják a keresőmezőbe, akkor nem vásárolni, hanem információt akarnak.

Tehát lehetsz Te első helyen ezekre a kulcsszavakra, generálhat is neked szép forgalmat, de tranzakciót az nem fog hozni, legfeljebb közvetetten, az ismertebbé válás révén.

Ha egy kulcsszó információs kulcsszó, akkor a Google találati oldalain tudáspanellel, információs dobozzal, gyors válasszal találkozol. De a találatok listáját átböngészve is meg tudod állapítani, hogy ezek inkább tájékoztatni vagy eladni akarnak valamit. Ha előbbi, akkor ne remélj konverziókat az ezen kulcsszóra érkező közönségtől!

Ugyanakkor nem haszontalanok, hiszen mint mondtuk, közvetetten elvezethetnek az értékesítéshez, hiszen megismertetik az emberekkel a márkád, növelik a bizalmat. Igaz, ez lehet, hogy nem megy egyik napról a másikra.

Navigációs kulcsszavak

A navigációs kulcsszó rejtélyesen hangzik, de elég egyszerű a jelentése: ha a felhasználó beír a keresőmezőbe egy cégnevet vagy márkanevet, akkor navigációs keresést hajt végre. Tehát például beírod, hogy Webshark, akkor el akarsz navigálni a Webshark oldalára.

Amikor az emberek navigációs kulcsszavakat használnak, akkor általában már valamennyire ismerik a céget vagy a terméket, de meg akarják nézni a weboldalát vagy meg akarják tudni, hol található az irodája, üzlete. A navigációs kulcsszavak tehát elsősorban akkor hozzák a forgalmat, ha már valamennyire ismert a cég vagy a termék, mert az emberek ekkor keresnek rá.

Kereskedelmi kulcsszavak

Ezek olyan kulcsszavak, melyek bizonyos termékekhez és szolgáltatásokhoz kapcsolódnak, de a felhasználó csak további információt akar egyelőre róluk (összehasonlítás, tesztek, árajánlatok, stb.).

Ezek az információk segítenek abban, hogy jobban megismerjék a terméket vagy szolgáltatást, mielőtt megvásárolnák vagy megrendelnék. Ezek a kulcsszavak általában összehasonlító cikkekkel, értékelésekkel, használati útmutatókkal célozhatók meg. De mivel az ilyen kulcsszavakat akkor használják az emberek, amikor már közel járnak a vásárláshoz, jó lehetőséget kínálnak a konverzió előtt álló közönség elérésére.

Tranzakciós kulcsszavak

A konverzióhoz legerősebben kapcsolódó kulcsszavak a tranzakciós kulcsszavak, melyek már leginkább fizetett hirdetésekkel és jól optimalizált landing oldalakkal működnek együtt, melyeknél csak egy lépés a vásárlás realizálása.

Ilyen keresésre akkor kerül sor, amikor valaki már begyűjtötte a szükséges információkat, meghozta a döntését, és elhatározta, hogy megveszi a terméket. Ezért az ide tartozó keresési kifejezésekbe olyan szavak is sűrűn megjelennek, mint a vásárlás, feliratkozás, akció, ár stb. De jellemző ezekre a kulcsszavakra az is, hogy speciálisak, azaz pontosan megjelenik bennük például a terméknév vagy a termék leírása.

Azt, hogy egy kulcsszó tranzakciós kulcsszó, leginkább az mutatja, hogy termék esetében a találati oldalon shopping hirdetéseket fogsz látni.

MIÉRT NEM A LEGJOBB MEGOLDÁS A GOOGLE KULCSSZÓTERVEZŐJE SEO-RA?

Amikor a kulcsszavak kiválasztásáról van szó egy weboldal keresőoptimalizálásánál, sok-sok tényezőt számításba kell venni. Ezek miatt nem egyszerű a legjobb kulcsszavak kiválasztása, így nem véletlen, hogy sokan egyből a Google, illetve az Ads kulcsszótervezőjéhez nyúlnak, sajnos sok esetben alapszinten, néhány szót bepötyögve, és kizárólagos eszközként használják.

Tehát nem azt akarjuk mondani, hogy értelmetlen lenne használni. A gond ott van, ha ez az egyetlen megoldás kulcsszavaink meghatározásához. A Google kulcsszótervezőjében ugyanis nem érdemes száz százalékosan megbízni.

AZ ADS KULCSSZÓTERVEZŐJE NEM IGAZÁN INTELLIGENS

Ez az eszköz általában nagyon közeli variációkat ad ki, amikor valamit keresünk. Ez alatt azt kell érteni, hogy nagyon leragad az alapszónál, pedig lennének olyan kifejezések, melyek nem ugyanezt a szót tartalmazzák, viszont témájukban kapcsolódnak, relevánsak lennének. Ha mi magunk ezeket nem gyűjtjük össze, nem keresünk rá ezekre, a Google nem fogja ezekre felhívni a figyelmünket.

Pedig amikor az emberek rákeresnek valamire a keresőben, akkor nem feltétlenül úgy jár az agyuk, mint Neked, lehet, hogy más úton közelítik meg ugyanazt a témát. Ezért Neked kell kreatívnak lenned, amikor a Google kulcsszótervezőjével határozod meg a kulcsszavaid körét, mert a kulcsszótervező nem lesz az. Ahhoz bele kell mélyedni az adott témába, a kapcsolódó blogbejegyzésekbe, cikkekbe, videókba, hogy a legjobb kulcsszavakat találd meg.

MINDENKINEK UGYANAZOKAT A KULCSSZAVAKAT DOBJA

Ez azt jelenti, hogy akárki is keres variációkat egy-egy szó kapcsán, mindenki ugyanazokat a kifejezéseket kapja válaszul a Google-től, azaz nem személyre szabottan a Te számodra, a weboldalad számára legjobb kulcsszóötleteket fogod megkapni a kulcsszótervezőtől.

Ezért érdemes bevetni olyan egyéb kulcsszótervező eszközöket, mint például a Keyword Tool és társai, és mint mondtuk: a kreativitásodat, de legalábbis nem teljes mértékben a Google kulcsszótevezőjére hagyatkozni.

Természetesen nem muszáj minden szöveget kulcsszóra optimalizálni. Lehetnek olyan bejegyzéseink, melyeket kifejezetten a keresőnek hozunk létre, és ez egy állandó forgalmat jelent az oldalnak, míg más bejegyzések inkább csak aktuálisak vagy más miatt fontosak nekünk.

Hol helyezzük el a kulcsszavainkat?

Kulcsszavak a címsorban

A kulcsszót tanácsos elhelyezni az oldal meta címsorában, azon belül is általában az első helyet célozzuk meg. De az is fontos, hogy a címsor érdekes, figyelemfelkeltő is legyen, mivel meg fog jelenni a találati listán a többi találat között, és mi azt várjuk, hogy kattintsanak rá. Ugyanez igaz a meta descriptionre, melyet nem vesz figyelembe a rangsorolásnál a Google, viszont az olvasók érdeklődését fel lehet kelteni vele.

Attól egyébként nem kell tartani, hogy a Google ferde szemmel néz ránk, ha túl lendületesen használjuk a címsorban vagy a leírásban a kulcsszavunkat. Legalábbis a Google szakembere, John Mueller így nyilatkozott 2020. december 11-én a Google Search Central SEO live stream során. Itt jegyezte meg ugyanis egy SEO-s azt, hogy ő azt látja: a kis cégek mindig teletömik a kulcsszavaikkal a címsorokat és a leírásokat, annak ellenére, hogy ez nem javasolt. Egy példát is említett, mely így hangzott: “wedding flowers Brighton, funeral flowers Brighton, anniversary flowers Brighton, birthday flowers Brighton”. Ugyanakkor értetlenségét fejezte ki azzal kapcsolatban, hogy hasonló leírások és címsorok jó helyeken jelennek meg a találati oldalakon.

Esztétikailag ugyan valóban nem néz ki jól, és hát túl intelligens megoldásnak sem mondható, ugyanakkor Mueller jelezte, hogy a meta címsorban és a meta leírásban lévő kulcsszóhalmozás nem megy szembe a Google irányelveivel. Ezt a technikát ugyanis a Google nem találja problémásnak.

Ami persze nem jelenti azt, hogy különösebben javasolna a használatát, hiszen a kulcsszóhalmozás által csak egy értelmetlen címet kapunk, amit nehezebb felfognia a felhasználóknak. Mueller szerint az ilyen cím nem igazán ösztönzi kattintásra a felhasználót, márpedig az lenne a lényeg. Ezért ő azt mondja, hogy elsősorban olyan címet és leírást kell megadni, ami kattintásra készteti az embereket, leginkább azzal, hogy pont azt kínálja a felhasználónak, amire az rákeresett. Az, hogy telezsúfoljuk kulcsszavakkal, nem ebbe az irányba mutat, ráadásul a helyezését sem javítja a találati oldalakon.

Miért írja át a Google a weboldalaid címeit? És mit tehetsz ez ellen?

Nem mindenkinek tetszik, hogy a Google a találati oldalon időnként nem azzal a címmel vagy leírással jeleníti meg az egyes weboldalakat, mint amit a tulajdonos meghatározott a metacímkénél. Ezért nekiszegezték a kérdést a Google egyik szakemberének, hogy mikor hagyja már abba ezt a gyakorlatot a cég.

Gary Illyes pedig erre határozottan kijelentette, hogy a Google soha sem fogja abbahagyni a címek átírását. És hogy mi erre az oka? Az, hogy úgy látják, nagyon sok a borzasztó cím a weboldalaknál, melyeket egész egyszerűen nem akarnak megmutatni a felhasználóknak, mert attól tartanak, hogy nem kattintanának az egyébként hasznos tartalomra. Ráadásul van egy rakás olyan weboldal is, amelynél egyáltalán nem állítottak be címet a tulajdonosai, így ezt pótolni kell.

Egy másik alkalommal ugyanakkor jelezte, hogy a Google csak ritkán írja újra a címeket, de amennyiben átírja, akkor az annak a jele, hogy még dolgoznod kellene a címen.

Korábban is hasonlóképpen nyilatkozott: mint mondta, úgy érzik, nem tudnak hasznos találatokat adni a felhasználóknak, ha nem így tesznek. Annál is inkább, mert állítása szerint vizsgálataik azt mutatják, hogy a felhasználók előnyben részesítik a Google által átírt címeket. Úgyhogy ne is reméljük, hogy valaha is felhagy ezzel a gyakorlattal a kereső – szögezte le Gary Illyes.

Amit ebből kiemeltünk fentebb, és fontos is hangsúlyozni, hogy ha a Google átírja egy címsorodat, akkor neked is végig kellene gondolnod, hogy az-e a megfelelő címsor.

Nyilván sok dologban igaza van a szakembernek – bár a weboldaltulajdonosok szubjektív megítélése szerint nem olyan ritkán kerül sor a címsorok átírására a Google részéről, mint ahogy azt Gary Illyes állítja -, hiszen valóban akad rosszul beállított meta cím a weboldalakon. Gyakran előfordul például, hogy minden egyes oldal címe a weboldal nevével kezdődik, vagy pedig egyszerűen a weboldal neve ismétlődik minden egyes oldalon, szóval van néhány eset, amikor elrontják a címadást a weboldalak tulajdonosai. És ha a kereső felhasználók szemszögéből nézzük a dolgot, akkor érthető, hogy nem kattintanak például arra a címre, hogy “homepage”.

Az is megfigyelhető egyébként, hogy a Google a szerint változtatja egy adott oldalnak a címét, hogy milyen kifejezéssel történik a keresés. Ennek oka nyilván az, hogy az adott keresésre optimalizált címek hatására javul az átkattintási arány, még akkor is, ha egyébként remek címet sikerült az oldalnak adni.

Illyes egyébként azt is jelezte, hogy nem tervezik olyan eszköz bevezetését, amivel megelőzhető lenne a címek átírása. Attól félnek ugyanis, hogy ez visszaélésekre adhat okot, például kulcsszóhalmozáshoz vezethet. Végül pedig azt is megemlítette azoknak a weboldaltulajdonosoknak és SEO-soknak, akik elégedetlenkednek a Google címátírásaival, hogy küldhetnek visszajelzést a Google számára, ha nem tetszik nekik az átírt cím.

Kulcsszavak a címekben és alcímekben

Hosszabb szövegeinket érdemes alcímekkel is ellátni, nem csak az átláthatóság kedvéért, hanem mert a Google kiemelt figyelmet fordít a címsorokra, illetve az ezekben elhelyezett szavakra, így adott esetben a kulcsszavakra. Jól tesszük tehát, ha az alcímekbe is elejtünk belőlük egyet-kettőt, annak ellenére, hogy ennek rangsorolási tényezőként ma már nincs jelentősebb szerepe.

Kulcsszavak az első bekezdésben

A következő kiemelt hely a szöveg első bekezdése, azaz leadje, de legalábbis az első száz szó között szerepelnie kellene kulcsszavunknak. Ezen túl viszont nem is nagyon kell erőlködni az elhelyezésen, még egyszer-kétszer érdemes szerepeltetni, illetve inkább a szinonimáit használni. Ami fontos, hogy a szöveg tartalma összhangban legyen a kulcsszóval, tehát arról a témáról íródjon, amiről a kulcsszavunk is szól.

Mit tegyél, ha a Google rossz oldaladat jeleníti meg egy kulcsszóra?

Ez az a helyzet, amikor van egy aloldalad, amit egy keresési kifejezésre optimalizálsz, de amikor a felhasználók a Google keresőjében rákeresnek a kulcsszóra, akkor nem az az oldal jelenik meg, amit Te szerettél volna megjeleníteni. Ismerős a helyzet? Mit tehetsz ilyenkor?

1. Határozd meg a felhasználói szándékot!

  • Az a célja, hogy vásároljon?
  • Meg akar találni egy bizonyos oldalt?
  • Információt akar?

Három eltérő szándékről beszélünk: vásárlási, navigációs és információs célról. Meg kell vizsgálnod, hogy a kulcsszavadra a Google milyen találati oldalt ad ki, milyen jellegűek az ott felsorolt oldalak. Ha a Te célod és a felhasználói szándék nincs összhangban, akkor az adott kulcsszó nem fog működni.

2. Tedd rendbe a weboldalad tartalmát!

Ha a tartalmad megfelel a felhasználói szándéknak, tehát mondjuk a felhasználó információt akar, Te pedig választ adsz egy kérdésre, akkor a következő lépés, hogy a megjelenő tartalmat optimalizáld! Fuss át a következő kérdéseken:

  • A kulcsszó szerepel az oldal meta címsorában?
  • Megjelenik a meta leírásban?
  • Megfelelő a tartalom hosszúsága az első 10 vagy 20 helyezetthez képest?
  • A konkurencia használ olyan kapcsolódó kulcsszavakat, melyeket Te nem?
  • A tartalom válaszol a felhasználó kérdésére?

3. Tedd rendbe a belső linkeket!

A belső linkek mondják meg a Google-nek, hogy melyik oldal fontos, és melyik kevésbé. Tehát, ha van egy oldalad, amit szeretnél megmutatni a keresőben, akkor arra linkelned kell más oldalaidról. Lehetőleg olyan oldalakról, melyek azonos témáról szólnak, például mert egy kapcsolódó long tail kulcsszóra optimalizáltad őket. Próbálj találni vagy létrehozni pár ilyen oldalt, és hivatkozz a fontos oldaladra. Használd a horgonyszövegekben a kulcsszót, mert emiatt nem büntet a Google, csak jobban megérti az oldal témáját!

4. Szerezz külső linkeket!

A linkek fontosságáról már volt szó, így ezt nem ismételjük el. Az az oldalad, amelyre több és értékesebb külső link mutat, jobb helyezést ér el. A linkek azt mutatják a Google-nek, hogy melyik aloldalad milyen értékes.

5. Nézd meg az analitikát!

Ez azért érdekes, mert a magas visszafordulási aránnyal, rossz átkattintási és konverziós aránnyal rendelkező oldalak általában rosszul teljesítenek a keresőben is. Na, nem azért, mert bármelyik mérőszám közvetlen rangsorolási tényező lenne a Google számára, de az összefüggés létezik. Hasonlítsd tehát össze azt az oldalad, mely megjelenik a keresőben, azzal, amelyiket szeretnéd, ha megjelenne, és ennek fényében változtass az oldal kialakításán és tartalmán, hogy javuljanak a számok.

Végül pedig ugyanezeket a módszereket ellentétesen használva leronthatod a nem megfelelő oldalad helyezését is, vagy ha minden kötél szakad, akkor jelezheted azt is egy noindexszel, hogy ne indexelje az oldalt a Google. Ezzel pedig eltűnik a találati oldalakról. Ugyanakkor azt is megteheted, hogy egy 301-es átirányítást adsz hozzá a fontos oldaladra mutatva.

Mit tehetsz, ha van egy kulcsszóra optimalizált alodalad, mégis a főoldalad jelenik meg a keresőben?

Egy ősrégi probléma, amivel valószínűleg nagyon sokan találkoztak már: egy fontos kulcsszóra létezik egy weboldalnak olyan aloldala, mely rengeteg információt tartalmaz és kifejezetten hasznos lehet a felhasználók számára, a keresőben az adott kulcsszóra keresve mégsem ez az oldal jelenik meg, hanem a főoldal. Ami viszont egy teljesen általános oldal a keresést tekintve, igazából nem ad választ a felhasználó kérdésére, mégis ezt jelenít meg a Google.

A kérdés már számtalanszor felmerült, de nemrég nekiszegezték ismét John Muellernek, a Google szakemberének, aki válaszolt is a Twitteren. Nem mondott persze semmi meglepőt, hanem a papírforma szerinti választ adta, miszerint „ez rendszerint annak a jele, hogy a főoldalad számottevően erősebb a weboldaladon belül”. Mit jelent ez az érintett aloldalra nézve? Azt hogy nem mutat elég erős jelzéseket a Google felé, például lényegesen alacsonyabb a PageRankje, mint a főoldalé, vagy hiányoznak egyéb jelzések, melyek alapján komolyan vehetné a Google.

John Mueller a megoldásra kitérve mindössze annyit tudott mondani, hogy a problémát olykor megoldja az idő. Tehát egy idő után az emberek felfedezik az oldalt, elkezdik ajánlani egymásnak (ami gyakorlatilag azt jelenti, hogy linkelik). Azt is hozzátette azonban, hogy néha arról van szó, hogy szuper-világosnak kell lenned a weboldaladon belül. Usually that’s a sign that your homepage is just significantly stronger within your website. Sometimes that’s a matter of time (as people discover your detailed page & recommend it), sometimes it’s also a matter of you being super-clear within your site. — ? John ? (@JohnMu) November 4, 2020

Sok mindent tehát nem lehet tenni, leginkább követni a korábban, a fejezetben leírt tanácsokat, kihagyva természetesen azt, amikor a keresésre megjelenő oldaladnál noindex jelzést alkalmazol, mert az mégsem lenne szerencsés a főoldalad esetében.

Mit mond a Google a kulcsszavak használatáról?

Van egy hiedelem SEO-s körökben, miszerint ha egy bizonyos arányban használunk kulcsszavakat egy weboldalon, akkor a Google algoritmusa arra jól reagál. Ezért is találhatunk olyan szoftvereket a piacon, melyek bizonyos kulcsszóarányt javasolnak. Ez a hiedelem egyébként még a keresőmotorok egy korai időszakába, a Google előtti időkbe vezethető vissza.

Mindenesetre ma már John Mueller, a Google szakembere azt mondja, hogy a kulcsszavak előfordulásának számolgatása egy szövegben nem számít és nincs is értelme. Természetesnek kell lennie a szövegnek – hangsúlyozza rendszeresen a Google.

Azt ugyanakkor Mueller is elismeri, hogy fontos a kulcsszavak használata, csak nem érdemes túlzottan összpontosítani rájuk. Azzal például szerinte nem érdemes foglalkozni, hogy egy adott kulcsszó egyes számban vagy többesszámban is megjelenik-e, de a szinonímákba és a különböző formákba sem érdemes nagyon belemélyedni, mert az ilyen apróságok nem számítanak.

Ugyanakkor azt érdemes megfogalmazni a tartalomban, hogy miről szól a weboldalad, miért akarod, hogy az emberek megtalálják. Tehát, ha szeretnéd, hogy valamilyen témában megjelenjen a weboldalad a találati oldalakon, akkor azt azért világossá kell tenni. Túlzásba viszont nem érdemes esni, már ami az említések számát illeti. Annak van értelme, hogy mondjuk egyszer megemlítsd a kulcszót a szövegben – szól Mueller tanácsa.

Hol helyezzük el a kulcsszavakat a weboldalainkon?

A másik kérdés, ami fel szokott merülni, hogy hová helyezzük el a kulcsszavakat, hogy a Google könnyebben megértse, miről szól az oldalunk. Mondjuk ez abban az esetben lehet különösen érdekes, ha egy hosszabb weboldalról van szó, és a Google által javasolt kulcsszómegjelenítésre csak a szöveg végén kerül sor. Miként befolyásolja ez a rangsorolást?

Egy hosszú szöveg rangsorolása egyébként sem egyszerű a Google számára, különösen olyan kulcsszavakra, melyekre nagy a verseny. Nálunk is jellemzően ilyen bejegyzések tűnnek fel (mint például ez is), és benne számtalan „altéma” található, keretes megjegyzéseket fűzünk hozzá, melyek már eléggé eltávolodhatnak az alap-témától, és önállóan is megállnák a helyüket a bennük lévő long tail kulcsszóra optimalizálva.

Ha mégis ilyen hosszúságú szövegekben gondolkodsz, akkor van néhány kitüntetett hely, hogy a fő kulcsszavad elhelyezd, és ezzel jelezd a Google-nek, miről is szól az oldal. John Muller alapvető tanácsa ennek kapcsán az, hogy ha van valami, amit el akarsz mondani a Google-nek, akkor azt tedd jól láthatóvá számára, amennyire csak lehetséges. Tehát az nem lesz elég, ha csak a szöveg végén megjelenik a kulcsszó. Ehelyett:

  • jelenjen meg az oldalcímben
  • jelenjen meg a címsorokban, alcímekben
  • jelenjen meg a képek felirataiban

Ezek azok a kitüntetett pozíciók, ahol világossá lehet tenni nem csak a Google, hanem a felhasználók számára is, hogy miről szól az oldal szövege.

John Mueller ugyanakkor felhívta a figyelmet arra, hogy ha egy hosszú, több ezer szavas szöveg esetében a kulcsszó csak a szöveg végén jelenik meg, akkor ott már eleve valami nincs rendben, mert akkor az az oldal, nem az adott kulcsszóhoz tartozó témát járja körül. Ha egy adott témáról szól egy szöveg, akkor ugyanis a kapcsolódó kulcsszó teljesen természetes módon több helyen is meg fog jelenni a szövegben, így címsorokban, képaláírásokban is.

A lényeg itt igazából nem az, hogy a Google mit szól hozzá, hanem, hogy a látogató vajon miként látja az oldalt. Úgy kell tehát az oldaladra tekinteni, ahogy egy felhasználó tenné: ha az általad elképzelt témára – vagyis az ahhoz kapcsolódó kulcsszóra – rákeres, akkor megfelelő információt kínál számára az oldal? Ha a látogató megkapja a választ a kapcsolódó kérdésére, akkor a Google-nek is meg kell értenie, hogy miről szól az oldal.

A kulcsszavakról, mint rangsorolási tényezőről itt találsz további információt.

IV. Külső linkek

A backlinkek esetében az elmúlt évek során komoly változásokra került sor, és a mennyiség helyett elsősorban a minőségre helyeződött át a hangsúly. A Google Pingvin algoritmusa ráadásul a manipulatív linképítésnek tekinthető eseteket már évek óta szűri, így a fizetett megjelenések, tipikus esetekben linkkatalógusokban egyforma horgonyszövegekkel, már nem kifizetődőek. Sőt a régi weboldalak esetében a káros linkek eltávolítására komoly erőfeszítéseket kell tenniük a SEO-szakembereknek. Ezzel együtt azonban továbbra is számít a helyezésnél a backlinkek száma, de a minőségükre és a horgonyszövegekre is figyelni kell.

Ránk mutató linkek

Érdemes tehát tenni azért, hogy más oldalak mutassanak ránk linkekkel. De csak erős, minőségi, hiteles weboldalakról érdemes linkelést kapni, hiszen ezek jelentenek értéket a Google számára is. A linképítésről itt olvashatsz bővebben, a linkekről, mint rangsorolási tényezőről, pedig itt.

Kifelé mutató linkek

A linképítésnél könnyebb megtenni, hogy az oldalunkról, blogbejegyzésünkből releváns oldalakra mutató linkeket helyezünk el. Ez a Google-t is segíti az oldalunk értelmezésében, az oldalunk témájának azonosításában, megmutatja nekik, hogy milyen kulcskifejezésre kellene megjelentetnie a bejegyzésünket.

V. Belső linkek és oldalstruktúra

A SEO-nál általában a külső linkekre figyelünk, hiszen hagyományosan ezek a meghatározói egy-egy oldal helyezésének. Ugyanakkor az oldalstruktúra és az ezzel összefüggő belső linkhálózat kialakítása is fontos. A megfelelő oldalstruktúra ugyan nem rangsorolási tényező, azonban hozzájárulhat egy jobb helyezéshez. Segítségével lehetővé tesszük a Google számára, hogy jobban megértse, melyek a fontosabb oldalaink és tartalmaink. Legalábbis akkor, hogy átgondoltan építjük fel az oldalstruktúrát és a belső linkeket.

A weboldalaknak általában szükségük lenne arra, hogy aloldalaik valamiféle hierarchia szerint épüljenek fel. Enélkül csak oldalak, illetve blogposztok halmazáról van szó, ahol nehéz megtalálnia bármit is az olvasónak. A megfelelő struktúra segít abban, hogy az olvasók eligazodjanak az oldalak között, és előre tudjanak haladni a linkekre történő kattintások segítségével. Ez tehát azt jelenti, hogy a megfelelő struktúra fontos webdesign, illetve UX szempontból.

És ezért a Google számára is fontos lesz, hiszen a keresőt használó emberekből él, nekik hirdet. Ezért figyelembe veszi a weboldalakon a belső linkek elrendezését, és a struktúra alapján dönti el, hogy mely oldalaid fontosak, és melyek kevésbé, miről szól a weboldalad, mit akarsz értékesíteni. A megfelelő oldalstruktúra emellett segít abban is, hogy a Google megtalálja és indexelje az egyes oldalaidat. Ezáltal egy jó struktúra jobb helyezéshez vezethet, a jó struktúrát pedig a belső linkek alakítják.

Mik azok a belső linkek?

A belső linkek olyan linkek, melyek ugyanazon domainen belül egy másik oldalra mutatnak. Tehát, ha a webshark.hu/weboldal-keszites oldalra mutat egy link erről az oldalról (webshark.hu/gyik/melyek-legfontosabb-seo-alapok/), akkor az egy belső link.

A belső linkek lehetnek úgynevezett abszolút és relatív linkek. Az abszolút link tartalmazza a teljes URL-t, beleértve a protokollt és a domaint (http://webshark.hu/weboldal-keszites/), míg a relatív link nem (/weboldal-keszites/), emiatt a böngésző (és a keresőmotorok) azt feltételezik, hogy azonos domainen belül található.

A menük és a navigációs elemek, mint a fejléc, lábléc, linkfelhő vagy a morzsamenü többnyire belső linkeket szokott tartalmazni. Ugyanakkor léteznek a weboldalakon nem navigációs belső linkek is. Ezek olyan linkek, melyek a szövegtörzsben találhatók.

Mire szolgálnak az ilyen, szövegtörzsben szereplő linkek?

  • További plusz információt kínálnak a látogatónak, mely kapcsolódik a meglátogatott oldalhoz.
  • Termékeket, szolgáltatásokat hirdetnek, mely illeszkedik a célközönség igényeihez.
  • Javítják a helyezést bizonyos kulcsszavakra.
  • Segítik a keresőmotorokat a weboldal gyorsabb feltérképezésében.

A belső linkeknek kettős hatása van a weboldaladra. Egyrészt, hatással van olyan számokra, mint a weboldalon eltöltött idő, a munkamenetenkénti oldalmegtekintés, vagy a konverziós arány. Másrészt pedig közvetetten javíthatja a helyezésed egy-egy kulcsszóra, vagyis növelheti az organikus forgalmad.

Hogyan alakítsd ki a megfelelő linkstruktúrát a weboldaladon?

A weboldalad tartalmainak valahogy úgy kellene felépülnie, mint egy piramis. A csúcsán a főoldalad áll, ez alatt az egyes fő kategóriaoldalak kapnak helyett, majd ezek alatt az alkategóriák. Minden kategóriához és alkategóriához tartoznak tartalmak, melyek lehetnek blogposztok, oldalak, termékek. Ez azt jelenti, hogy minden tartalmadnak valamilyen kategóriába kell kerülnie. Ha esetleg valamely kategóriád a többihez képest túl nagyra nőne, akkor érdemes szétbontani több kategóriára, hogy az egyes kategóriáknak nagyjából azonos súlya legyen.

Ehhez kapcsolódik a megfelelő linkstruktúra is: hiszen minden kategóriából linkeknek kellene mutatniuk az alá besorolt oldalakra. De ugyanez igaz visszafelé is, vagyis az egyes aloldalakról linknek kellene mutatniuk a szülő oldalra. A piramis csúcsán lévő tartalmak mindig a legfontosabb tartalmaid, melyekre szeretnél jó helyezést elérni, azt akarod, hogy ide jöjjenek a látogatók, akik az oldaladra érkeznek. Ennek megfelelően ezek minőségének is kimagaslónak kell lennie, ideális esetben az alattuk lévő tartalmak esszenciáját tartalmazhatják. Ilyen kiemelt fontosságú oldalból, illetve tartalomból legalább 1 vagy 2, de legfeljebb 10 legyen a weboldaladon. Linkstruktúra és tartalmi hierarchia kialakítása Linkstruktúra és tartalmi hierarchia kialakítása

Ha kulcsszavak szempontjából tekintjük, akkor ezeket a legfontosabb oldalakat a legnagyobb forgalmú kulcsszavakra kellene optimalizálnod, míg az alájuk besorolt tartalmakat, például blogposztokat, az ehhez kapcsolódó, a fő kulcsszóból képzett long tail kulcsszavakra. Mint a SEO szövegírásról szóló GYIK-anyagunkban is már mondtuk: „ezzel jelzed a Google számára, hogy a témában melyik a legfontosabb szöveged, ami segít egy jobb pozíció megszerzésében a találati oldalakon.”

A fentieknek megfelelő hierarchia, illetve belső linkstruktúra kialakításával megmutatod a Google-nek, hogy melyek azok az oldalak, melyek tartalmilag összekapcsolódnak, és melyek közülük a legfontosabbak, így ezeket helyezi feljebb a találati listában.

Tagek használatával ugyancsak erősítheted a struktúrát. A különbség a kategóriarendszerhez képest annyi, hogy a tagek nincsenek hierarchiába rendezve, míg a kategóriáknak lehetnek alkategóriáik. Arra azonban figyelj, hogy ne hozz létre túl sok taget, mert ha minden posztod kap egy újat, akkor azzal már semmit nem strukturálsz. Átlátható mennyiségű tag alá kell besorolnod az összes tartalmadat, vagyis egy taghez mindig több tartalom is tartozzon.

Néhány szabály, melyeket tarts be a linkstruktúra kialakításánál:

  • Minél laposabb struktúrát hozz létre – a felhasználói élmény szempontjából előnyös, ha a főoldalról bármilyen tartalmat elérnek az emberek 2 vagy 3 kattintással.
  • Minden fontos oldalad legyen linkelve – habár az „árva”, vagyis sehonnan nem linkelt oldalakat is megtalálják a keresőmotorok az oldaltérkép alapján, ezek nem léteznek a weboldal látogatói számára, így a Google is lényegtelennek látja őket. Kivételt a céloldalak (landing page) jelenthetnek, melyek azonban gyakran nincsenek is indexeltetve.
  • Figyelj az oldalon belül a linkek számára! – Itt is igaz, hogy minél több link található egy oldalon (akár külső, akár belső), annál kisebb linkerőt küld a linkelt oldalra. Ha pedig nagyon sok a link, akkor az spam-jelzés is lehet a keresőmotorok számára.
  • Használj kulcsszavakat a horgonyszövegekben! – Míg a külső linkek esetében nem kedveli a Google a kulcsszavakkal túlzsúfolt horgonyszövegeket, ha túl sok van belőlük, a belső linkeknél ilyen problémával nem kell szembenézned. Nem árt, ha a horgonyszöveg a “kattints ide” helyett valami iránymutatást tartalmaz a megcélzott oldal tartalmára vonatkozóan, hiszen ez nem csak a felhasználók, hanem a Google számára is információval bír.
  • Ha képet linkelsz, legyen alt textje! – Ez olyan, mint a szöveges linkeknél a horgonyszöveg. Fontos jelzés a keresőmotorok számára.
  • Ha több link mutat ugyanarra az oldalra egy oldalon belül, akkor a Google az első link horgonyszövegét fogja figyelembe venni. Erre tehát neked is figyelned kell.
  • Helyezd a fontos linkeket a szövegtörzsön belülre – ezeknek magasabb az értékük, mint a fejlécben, láblécben, oldalsávban található linkeknek, hiszen új információt és értéket jelentenek a szövegnek. Emellett a link körül található szövegek és kulcsszavak szintén számítanak a linkelt oldal helyezése szempontjából.
  • A nem navigációs linkek új lapon nyíljanak meg – ha olvasol egy szöveget, melyben szerepel egy link, és meg akarod nézni, akkor egyszerűbb visszatérni az eredeti oldalra, ha az új lapon nyílik meg. Ha viszont az oldal már a konverziós tölcséred része, akkor ne új oldalon nyíljon meg a linkelt oldal.
  • Mutasson link a forgalmas oldalról a konverziót hozó oldalra – tehát, amikor valaki egy blogoldaladra érkezik, akkor onnan el tudjon jutni a felhasználó egy olyan oldalra, ahol konvertálhat.
  • Mutasson link az erős oldalaidról a számodra fontos oldalakra – ehhez tudnod kell, hogy melyek azok az oldalaid, melyeknek jó a PageRankje, vagyis sok külső link mutat rájuk. Majd ezeken linkeket kell elhelyezned arra az oldaladra, mely a bevételt hozza számodra.

Miért linkeld minél előbb az új oldalaidat? És mire figyelj, ha új oldalt linkelsz?

Sokaknak elsőként a Search Console juthat eszébe, mint megoldás, amikor nem indexeli egy oldalt elég gyorsan a Google. Ugyanakkor ezzel kapcsolatban érdemes észben tartani, hogy a kérelem még nem jelenti a kérelmezett oldal automatikus indexelését és találati oldalakra kerülését. Lehet, hogy egy, az új oldaladra, blogbejegyzésedre mutató link többet segít.

A Google ugyanis a belső linkek segítségével térképezi fel a weboldalad. Ha egy oldaladra több link is mutat, akkor azt gyakrabban nézik meg a robotok, mint azokat az oldalakat, melyekre csak néhány. Ha van egy új blogbejegyzésed, akkor elég sok idő eltelhet, mire egy másik posztból hivatkozol rá.

Persze a főoldaladról vagy valamely kategóriaoldaladról vélhetően kapni fog linket az új blogbejegyzésed, de ennyi. Ezt lehet egy kicsit még megtolni azzal, ha gyakran indexelt oldalakról linkeled be az új oldaladat. Mégpedig minél hamarabb a közzététel után. Ezzel adsz az új bejegyzésednek egy kis lökést SEO-szempontból.

Ha megjelenik egy link valamely gyakran indexelt oldaladról, akkor a Google a linkelt oldalt is gyakrabban fogja meglátogatni. Ez pedig növeli az esélyét annak, hogy az oldal megjelenjen a találati oldalakon, és jó helyezést szerezzen. Ráadásul a saját látogatóid is nagyobb eséllyel fognak ráakadni az új oldalaidra.

Hogyan adj az új bejegyzéseidre mutató linket a régebbi oldalaidhoz?

Egy belső linkelés kivitelezése nem feltétlenül nehéz feladat, csak át kell gondolni egy-két dolgot. Többek között azt, hogy milyen oldalakon érdemes elhelyezni az új bejegyzésedre mutató linket.

De mindenekelőtt érdemes szokássá tenned, hogy amikor közzéteszel egy új bejegyzést, akkor – ne érezd magad készen a közzététel gomb lenyomása, esetleg a közösségi médiás megosztások után, hanem – szakíts időt arra is, hogy keress egy kapcsolódó, releváns oldalt, ahonnan linkelhetsz rá.

Természetesen nem minden új oldal egyenlő fontosságú, akadnak közöttük olyanok, melyeknél nem érzed fontosnak az indexelést, míg másokat szeretnél minél előbb rangsoroltatni. Ha ilyen fontosabbnak érzett bejegyzést teszel közzé, akkor érdemes több oldaladról is hivatkozni rá. A belső linkek száma a Google felé is jelzés valamely oldal fontosságáról.

Arra azonban figyelj, hogy mindig releváns oldalról linkelj az új oldaladra. A belső linképítés is csak akkor működik jól, ha sikerül megtalálni a megfelelő oldalakat, ahol jól elhelyezhető egy új hivatkozás, egy olyan tartalmi részből, mely valóban kapcsolódik az új oldalhoz. Ez a gyakorlatban annyit jelent, hogy olyan oldalakat kell linkekkel összekapcsolnod, melyek témájukban is kapcsolódnak. A linkeknek legyen értelme, és legyen hasznos a látogatók számára!

Ha egy irreleváns oldalról linkelsz, akkor a Google talán gyanakodni is fog, hogy manipulálni próbálod. Annál is inkább, mivel ma már megérti a szövegek jelentését. Ez azt jelenti, hogy oda kell figyelni, honnan hivatkozol az új oldaladra, hasznos-e a linkelés a közönséged számára.

Ha sok a tartalom a weboldaladon, akkor persze nem feltétlenül könnyű kiválasztani a megfelelő oldalakat, ahonnan linkelni tudnál. Ilyenkor nem árt, ha van egy belső linkrendszer kiépítésére vonatkozó stratégiád. Ebben a legfontosabb oldalaid felé mutat a legtöbb belső linked. Ha jól csinálod, akkor azokat az oldalaidat fogja előrébb sorolni a Google a találati oldalakon, melyeket Te is előrébb szeretnél sorolni.

Amennyiben sok új blogbejegyzést teszel ki, és folyamatosan fejleszted a belső linkrendszert ezek linkelésével, akkor fennáll a veszélye, hogy eltérsz az eredeti elképzelésedtől, és máshogy fog kinézni a hierarchia egy idő után, mint amit eredetileg kigondoltál. Erre figyelned kell: a legfontosabb bejegyzéseidre mindig a legtöbb belső link mutasson.

Ez persze nem jelenti azt, hogy feltétlenül ezek lesznek a leglátogatottabb oldalaid, hiszen lehetnek olyan témák, melyek attól függetlenül is népszerűvé válnak, hogy odafigyelnél a belső linkelésükre. A rangsorolást ugyanis számos más tényező is befolyásolja, ahogy azt a rangsorolási tényezőkről szóló hosszú anyagunkban is kifejtettük, ugyanakkor a belső linkrendszer is egy olyan elem, melyre érdemes némi figyelmet szentelni.

Mennyire számít SEO-szempontból, hogy hol helyezed el a belső linkeket?

Sokan úgy gondolják, hogy a linkeknek – legyenek azok kifelé mutató vagy belső linkek – a legjobb helyük a szövegtörzsben, vagyis a fő szövegben van, ezeket értékeli a legjobbnak a Google. Vagyis például a láblécben vagy oldalsávban elhelyezett belső link kevesebbet ér – szól a feltételezés.

A helyzet azonban az, hogy a Google eltérően értékeli az elhelyezést a kifelé mutató és a belső linkeknél.

Ez azt jelenti, hogy a belső linkeknél nem veszi figyelembe a link értékének meghatározásakor annak elhelyezését. A belső linkeket ugyanis a Google elsősorban arra használja, hogy feltérképezze az adott weboldalt.

Mint John Mueller egy videóban kifejtette: a belső linkeket egyrészt arra használják, hogy jobban megértsék a kontextust, vagyis figyelembe veszik a horgonyszövegüket.

Másrészt viszont az igazán fontos feladat itt az, hogy képes legyen a Google feltérképezni a weboldalt. Ebből a szempontból pedig teljesen lényegtelen, hogy hol található egy oldalon belül a link, nincs szükség arra, hogy fontosságbeli különbséget tegyenek az oldal egyes részei között.

Google: ne linkeld minden oldaladat minden oldaladra!

Ez a tanács lehet, hogy furcsán hangzik, azonban a gyakorlatban előfordul, mert valaki minden oldalát fontosnak akarja jelölni a Google számára. Nyilván, ha van egy több ezer aloldalból álló weboldalad, akkor nem fenyeget az a veszély, hogy minden oldalad be legyen linkelve, mert ez megoldhatatlan, azonban száz aloldal alatt ez már lehetséges.

De amíg az teljesen rendben van – sőt a Google által javasolt -, hogy az oldalaid nagy része elérhető legyen a főoldaladról, azaz be legyenek linkelve, az már nem ajánlott, hogy minden oldaladról minden oldalad linkelve legyen. Utóbbi legfeljebb csak akkor elfogadható, ha nagyon kicsi oldalról van szó.

Világos oldalstruktúrát alakíts ki, és ezt mutasd meg a belső linkjeiddel is! – tanácsolta ennek kapcsán John Mueller egy Twitter bejegyzésében.

Persze jelentős oldalszámú oldalaknál már az sem igazán jön össze, hogy a főoldalról elérhető legyen minden aloldal, és ez felhasználói élmény szempontjából sem hasznos. Igazából a Google sem várja ezt el, amit szintén John Mueller említett egy másik Twitter bejegyzésében. Bár az kétségtelen, hogy ezáltal tudod megmutatni a linkstruktúrád, illetve azt, hogy melyik a legfontosabb oldalad.

Általában egyébként a főoldal a legértékesebb oldal a PageRanket, a tekintélyt és a feltérképezést tekintve a legtöbb weboldal esetében, tehát ha innen mutatnak linkek az aloldalaidra, akkor átadsz némi linkértéket a linkelt aloldalaidnak.

Ugyanakkor, ha mondjuk több tízezer aloldalad van, akkor ez nem működik a gyakorlatban. Ezért leginkább arra kell törekedned, hogy a weboldal-navigációd könnyen feltréképezhető legyen a Google számára. Ha pedig ez nem megy, akkor még mindig ott az XML oldaltérkép.

Abszolút vagy relatív a belső linkeket használj?

Erről John Mueller, a Google szakembere beszélt egy kérdésre válaszolva, melyben az iránt érdeklődött a kérdező, hogy vajon az abszolút vagy a relatív linkek használata a jobb megoldás a belső linkelésnél.

John Mueller két forgatókönyvet is felvázolt ezzel kapcsolatban. Az egyik szerint adott egy tökéletes linkstruktúrájú oldal. Ebben az esetben tökéletesen mindegy, hogy melyiket használjuk a belső linkeknél. Mueller szerint azt érdemes választani, melyet adott CMS esetében könnyebb használni.

A másik eset, amikor a weboldal struktúrája nem tökéletes. Ilyenkor lehet némi előnye az abszolút URL-ek használatának, mivel az abszolút URL segítségével a Google meg tudja találni az oldal előnyben részesített verzióhoz vezető utat. Ha nem használsz abszolút URL-t, akkor canonical taggel érdemes jelölni az előnyben részesített oldalt.

Milyen hibákat követhetsz el a belső linkjeidnél?

  • Nem működő linkek: ez a leggyakoribb hiba, a weboldalak 42,5 százalékát érinti a SEMRush vizsgálata szerint. Ebben az esetben a link egy nem létező oldalra mutat. A törött linkek hatással vannak a linkerő áramlására az oldalon belül, és értelemszerűen negatívan befolyásolják. Egy törött link azt jelzi a Google számára, hogy a weboldalnak gyenge a minősége, és rossz a felhasználói élmény.
  • Túl sok belső link: ezáltal a weboldalad spamesnek tűnik a Google számára, ami a helyezést is befolyásolja. Ráadásul a PageRank is megoszlik a linkek között, ami azt jelenti, hogy minél több a link egy oldalon, annál kisebb SEO-értéket ad át az oldal a linkelt oldalaknak. Ezért csak olyan belső linkeket helyezz el az oldalaidon, melyek valóban segítik az olvasókat a navigációban és a tájékozódásban.
  • Átirányítási láncok és hurkok: egy átirányítás használata hasznos, és gyakran szükség is van rá. De ha helytelenül állítod be, akkor az rontja a felhasználói élményt és így a helyezésed is. Ha egy átirányítás mindig újabb árirányításhoz vezet, akkor átirányítási láncról beszélünk. Néha pedig az egész egy hurokká alakul, vagyis visszatér önmagába. Ha tehát átirányításra van szükség, akkor próbálj mindig a legutolsó weboldalra linkelni közvetlenül.
  • Ideiglenes átirányítások az állandó helyett: a felhasználók számára nincs különbség ideiglenes (302-es) és tartós (301-es) átirányítás között, ugyanakkor a keresőrobotok számára egy ideiglenes átirányítás azt jelzi, hogy az meg fog szűnni, így mind a két érintett weboldalt bent kell tartani az indexben.
  • Túl sok állandó átirányítás: egy állandó átirányítás egy végső megoldás, ezért átadja a PageRank értéket, miközben az eredeti oldal eltávolítását jelzi a keresőrobotoknak. Ugyanakkor minden átirányítás elvesz egy kicsit a feltérképezési büdzséből, vagyis lehetséges, hogy emiatt fontos weboldalaid indexelésére nem kerül sor. A megoldás az, ha valamennyi belső linkedet átnézed, és megoldod, hogy ne átirányított URL-re mutassanak.
  • Nofollow jelzés a kifelé mutató linkeknél: a nofollow jelzés azt mondja a robotoknak, hogy az adott linket ne kövessék. Vannak olyan esetek, amikor szükséges a használata, de ezeken az eseteken túl érdemes tartózkodni tőle.
  • Árva oldalak: korábban már említettük, hogy ezek olyan oldalak, melyekre nem mutat link. Az ilyen oldalaknak általában nincs értékes tartalma, és ezért nincs értelme a keresőmotorokat arra kérni, hogy indexeljék őket. Ha akad olyan árva oldalad, melynek tartalma fontos, akkor linkeld azt egy másik oldaladról. Ha viszont indokoltan árva valamely oldalad, akkor az ne szerepeljen az oldaltérképen sem, hogy ne indexeljék a robotok.
  • Több mint 3 kattintásos feltérképezési mélység: a feltérképezési mélység azon kattintások száma, melyek ahhoz szükségesek, hogy a főoldalról eljuss valamely aloldalra. Minél több kattintás kell ehhez, annál kisebb az esélye, hogy a botok vagy a felhasználók eljutnak az oldalra. 3 kattintásnál távolabbi oldalaid ezért lehetőleg ne legyenek.
  • Csak egyetlen belső link mutat az oldalra: minél több belső link mutat valamely oldaladra, annál nagyobb az esélye, hogy a keresőrobotok és a felhasználók el fognak jutni hozzá. Azt se felejtsd el, hogy annál nagyobb egy oldal értéke, minél több – nagyértékű weboldalról érkező – link mutat rá. Vagyis, ha van értékes tartalmú weboldalad, akkor arra több belső link mutasson, ugyanakkor arról is győződj meg, hogy a linkekkel kapcsolt oldalak relevánsak egymás számára!

Hogyan találd meg a törött belső linkeket a weboldaladon? És mit tegyél velük? (FRISSÍTÉS, 2023.10.31.)

A törött belső linkek felhasználói és SEO-szempontból sem jók: például a keresőmotorok nehezebben tudják indexelni az oldalakat a törött linkek miatt. De ha egy weboldalra csak egy törött link mutat, akkor elképzelhető, hogy egyáltalán nem is kerül indexelésre. Arról nem is beszélve, hogy ha egy felhasználó fut bele egy törött linkbe, akkor nem jut el miatta a keresett oldalra, így dühösen otthagyja a weboldaladat.

Ráadásul, ha akár a felhasználók, akár a keresőmotorok egy olyan weboldallal találkoznak, melyen rengeteg a törött belső link, akkor azzal kapcsolatban felmerülhet, hogy már nem is foglalkoznak vele vagy hogy gond van a minőségével. Mindez pedig végső soron a forgalom csökkenéséhez és a rangsorolás romlásához vezet.

Ugyanakkor sokan nem tudják, hogyan találják meg ezeket a törött linkeket a weboldalukon. Különösen akkor okoz ez a feladat problémát, ha nagy weboldalról van szó. Nyilván, ha manuális ellenőrzést végzel, akkor valóban macerás minden egyes oldalra fellépni, és minden egyes linket ellenőrizni, hogy megfelelően működik-e. Minél nagyobb a weboldalad, ez annál kevésbé járható út.

Ezért szoktak általában valamilyen szoftvert alkalmazni a törött linkek megtalálásához:

  • Az egyik alapvető opció a Chrome beépített vizsgálója: ha bármely weboldalon nyomsz egy jobb gombot, majd a megjelenő oldalon a „Konzol” fület választod ki, akkor látni fogod az oldalon előforduló 404-es hibákat, melyek a törött linkeket is jelzik.
  • Az is egy jó megoldás, ha meglátogatod a Google Search Console-t, mely megmutatja neked a weboldalad 404-es hibáit.
  • Ugyanakkor külső szoftverek is használhatók, mint például a Screaming Frog, mely asztali gépre telepíthető. Ez gyorsan át tudja nézni a weboldaladat, és a „Response Code” beállításával leszűrheted a 404-es oldalakat.
  • További fizetős lehetőség az Ahrefs vagy a Semrush, melyeknél a „Site Audit” lehet a segítségedre.
  • Szintén rendelkezésre állnak böngészőbővítmények, melyek úgy működnek, hogy egy-egy oldalra fellépve és a bővítményre kattintva, jelzi, hogy mely linkek működnek az adott oldalon, és melyek nem.
  • De ha például WordPresst vagy Drupalt használsz, akkor fogsz találni olyan plugineket a kínálatban, melyek kiszűrik a problémás linkeket.

Mit tegyél a törött belső linkekkel?

Ha valamelyik megoldással megtalálod a törött belső linkeket, akkor már csak az a kérdés, hogy mihez kezdj velük.

  • A legalapvetőbb megoldás egy 301-es átirányítás a nem létező oldalnál, mely jelzi a böngészőknek és a keresőmotoroknak, hogy hol található az oldal új verziója. Ezzel csak az a probléma, hogy nem lehet bármilyen oldalra átirányítani a felhasználót (és a keresőmotorokat), amiről bővebben az átirányításokról szóló anyagunkban írtunk. A lényeg azonban az, hogy vagy azonos, vagy nagyon hasonló témájú oldalra kell mutatnia. Egy irreleváns vagy főoldalra mutató 301 csak rontja a felhasználói élményt és a rangsorolást.
  • Persze azt is megteheted, hogy nem átirányítást állítasz be, hanem egyszerűen kicseréled a linket. Ha esetleg nincs releváns oldal, akkor akár külső oldalt is beállíthatsz célként, ez nem fogja rontani a helyezésed a találati oldalakon. De akkor sem történik katasztrófa, ha egyszerűen törlöd a linket.

Mikor használj alkönyvtárat, aldomaint, microsite-ot?

Talán számodra sem mindig teljesen világos, hogy milyen esetben melyik a legjobb megoldás SEO szempontból: egy alkönyvtár, egy aldomain vagy egy microsite létrehozása. Például, amikor újra akarod rendszerezni a tartalmaidat a meglévő weboldaladon, vagy akár csak létrehozol egy új tartalmat, esetleg van egy új üzleti elképzelésed.

Általában a probléma akkor merül fel, amikor valami oknál fogva létre kell hoznod egy új tartalmat. Ilyenkor alapvetően három lehetőség merül fel: vagy egy aloldalon, vagy egy aldomainen, vagy pedig egy microsite-on rendezed el a tartalmat. A SEO-sok körében évek óta tart a vita, hogy mikor, melyiket érdemes használni.

Mikor használj alkönyvtárakat?

Azért érdemes ezzel kezdeni, mert ez a legjobb megoldás, bármilyen tartalom elhelyezéséről is legyen szó. Az alkönyvtárak olyan fájlmappák a weboldaladon, melyek a weboldal fájljait, dokumentumait tartalmazzák. A weboldal-használók részéről ezek általában a navigációs részén helyezkednek el a weboldalnak. Tehát van mondjuk egy “rólunk” könyvtár (például: https://webshark.hu/rolunk), melynek lehetnek további aloldalai. Az ilyen alkönyvtárak alkotják a weboldal információs felépítését, azaz hogy miként rendszerezed a tartalmakat a weboldaladon.

Adott tehát egy gyökér domain (mint a https://webshark.hu), miközben ennek egyik alkönyvtára a fő domain részeként jelentik meg, azaz https://webshark.hu/rolunk. Ezek az alkönyvtárak alapvető részei a feltérképezési útvonalnak, így meghatározzák, hogy a keresőmotorok miként értik meg és rangsorolják a fő domaint, mint egészt. Ha jól vannak rendszerezve, javítják a felhasználói élményt is. Ezeket az oldalakat regisztrálják a keresőmotorok, és szükség esetén eltérő országra és nyelvre is célozhatók.

A szakemberek elsősorban az alkönyvtárakat preferálják, de a Google is ezt javasolja. Ezt onnan tudjuk, hogy egy Google Office Hours során is felmerült a kérdés John Muellernek, a Google szakemberének címezve. Aki ezzel kapcsolatban kicsit mást válaszolt, mint amit várhattunk volna, vagyis, hogy a Google mindegyik megoldást érti, és tudja kezelni.

Mint mondta, ő elsősorban azt javasolja, hogy a „dolgokat fogjuk össze” amennyire lehetséges. Vagyis, ha egy tartalom elfér egy weboldalon, akkor azt tartsuk az adott weboldalon belül, tehát hozzunk látre az egyes tartalmak számára aloldalakat. Akkor nyúljunk csak az aldomainekhez, ha egy olyan témánk van, ami eléggé különbözik a többitől.

Természetesen lehetnek eltérő indokaid az egyik vagy a másik mellett, és ha ezen indokokat erős érvek támasztják alá, akkor azt kell alkalmazni. Ugyanakkor, ha nincsenek ilyen érveid, tehát bármelyik megoldás elfogadható számodra, akkor alapvetően érdemes oldalon belül tartani a tartalmakat, tehát aloldalakon, alkönyvtárakba rendezve – jelezte John Mueller.

Mikor használj aldomaint?

Az aldomain egy harmadik szintű domain, és így néz ki például: http://blog.webshark.hu. Ez a megoldás elég gyakori blogok elhelyezése esetén, ugyanakkor SEO szempontból nem feltétlenül jó megoldás. Aldomain használatára alapvetően akkor kerülhet sor, amikor egy cég azt érzi, hogy akár az eltérő tartalom, akár a könnyebb kezelhetőség miatt el kell választania egy oldal tartalmát a fődomainétől. Erre példa lehet a Google által is használt aldomaineké, mint a maps.google.com.

John Mueller, a Google részéről szintén jelezte a Mastodonon, hogy amikor a tartalom önmagában is megáll, akkor érdemesebb aldomainre helyezni. Azt is hozzátette azonban, hogy amikor aldomainekről beszélünk, elsősorban azt kell megfontolni, hogy mit is akarunk a tartalommal. Egy olyan tartalomról van szó, ami szorosan kötődik a főoldalunk tartalmához? Ha igen, akkor kerüljön a főoldalra. Ha viszont önmagában is megáll a tartalom, akkor jobb megoldás lehet számára egy aldomain.

Azt is megjegyezte ugyanakkor, hogy különböző technikai megfontolásokat is érdemes figyelembe venni, mivel ezek is hatással lehetnek a döntésre. Ilyen tényező a Search Console, a nyomkövetés az analitikában, a DNS, a hosting, a biztonság, stb.

Végül pedig kitért arra is, hogy bár az aldomainre helyezés befolyásolhatja a tartalom rangsorolását, ennek ellenére mégis leginkább annak kellene meghatároznia a döntést, hogy mit akar a weboldaltulajdonos: elkülöníteni az adott tartalmat vagy a fő weboldal részeként látná szívesebben. Ilyenkor különböző helyzetekről van szó, és az eredmények is eltérőek – jegyezte meg.

Azt azonban érdemes tudni, hogy az aldomainek nem feltétlenül részesülnek teljes mértékben a fődomainre mutató linkek erejéből, és a rangsorolás sem a főoldal erején alapul, ha a Google szerint eltérő tulajdonosokhoz tartoznak. Tehát egy blog-gyűjtőoldal fődomainje alá tartozó, aldomainen működő blogok nem kapják meg a fő domain értékét. Az aldomainen található tartalmak elköltöztetése a fő domainre tehát nem feltétlenül éri meg az erőfeszítést SEO-szempontból.

Mikor használj microsite-ot?

A microsite egy önálló domainen lévő weboldal, tehát van egy saját gyökér domainje. Habár a gyökér domain egy bevett elnevezés, tulajdonképpen egy második szintű domainról van szó. Amikor van egy tartalmad, melyet jól tudnál hasznosítani a fődomaineden, illetve annak aloldalain, akkor nem igazán van értelme, hogy egy különválasztott domainre tedd azt a tartalmat. Ha mégis erre kerül sor, akkor beszélünk úgynevezett microsite-okról.

A microsite-ok jellemzően valamilyen marketing-cél vagy egy eltérő tartalom miatt kerülnek kialakításra, tehát tipikusan landing oldalként működnek. Mivel egy ilyen microsite egy teljesen eltérő domain, ezért tényleg csak akkor érdemes belevágni, ha többletidőt és pénzt szánsz a marketingjére annak érdekében, hogy forgalmat irányíts rá. A fődomain hírneve és hitelessége ugyanis nem érinti a microsite-ét, nem örökli azt, ahogy fordítva sem történik meg. Ez azt jelenti, hogy két külön marketing és SEO-kampányt kell futtatnod a fődomain és a microsite esetében is, ami sok munka és idő.

Mikor lehet szükséged egy microsite-ra?

  • Például, ha van egy olyan domained, melynek URL-je egy forgalmas keresőkifejezés is egyben, tehát kulcsszavas URL-ről van szó. Ezzel ugyanakkor vigyázni kell, mert korábban elterjed SEO-technika volt ilyen weboldalakat optimalizálni. Így csak akkor érdemes kihasználni ezeket az URL-eket, ha tiszta módszerekkel dolgozol.
  • Ha azt tervezed, hogy készítesz egy weboldalt, melyet el akarsz adni a domainnel együtt. Ezt nem hozhatnád létre aldomainen vagy almappában, mert úgy nem tudod eladni.
  • Vagy amikor szeretnél egy márkát építeni egy ötlet vagy egy termék köré. Ezek a típusú microsite-ok jól használhatók a marketingben. Arról azonban ne feledkezz meg, hogy ha a kampány véget ér, akkor egy 301-es átirányítást adják hozzá a fődomained irányába.

Ugyanakkor vannak hátrányai a használatának, így az, hogy a keresőalgoritmusok a nagyobb, hitelesebb oldalakat kedvelik, melyek régebb óta léteznek. Ráadásul, ha több ilyen oldalad van, akkor a tartalmakra mutató linkek értéke is szétszóródik, tehát nem egy oldal kapja meg a linkekből származó előnyt, hanem sok kisebb oldal.

Összességében tehát elmondható, hogy többféle lehetőség is van a weben a tartalmak elhelyezésére, és általában az a legjobb, ha a fődomain, illetve annak aloldalai kapják meg a marketing és SEO erőfeszítéseid eredményét. Ha mégis úgy döntesz, hogy aldomaint vagy microsite-ot használsz, alaposan gondold végig, hogy hosszú távon több lesz-e az előnye, mint a hátránya!

VI. Tartalom

Az utóbbi időben sokan a tartalmat kezdték azonosítani a SEO-val – nem véletlenül -, miközben akadnak, akik még azt sem értik, hogy tartalom nélkül nem igazán van mit rangsorolnia az oldalunkon a Google-nek. Tartalom hiányában mire adna választ az oldalunk a felhasználóknak? Legfeljebb egy márkakeresésre.

Természetesen akadnak olyan népszerű oldalak, melyeknek nem kell komolyabb tartalmat felépíteniük, de ezek linkek által bizonyos témákban nagyon relevánsak, és általában nem az átlagos kis weboldalak közé tartoznak.

Mára az első három hely egyikét a tartalom szerezte meg keresőoptimalizálásban (a linkek és a RankBrain mellett). Egyértelmű és mérhető a kapcsolat egy weboldalon megjelenő tartalom minősége, és annak a Google találati listáján elért helyezése között.

A kérdés a helyezésnél az, hogy mennyire találja relevánsnak az oldal tartalmát a Google. Ez egyrészt mennyiségi kérdés, a jó helyezést elérő oldalak esetében a kenyérszöveg hossza közelíti az ezer szót. Másrészt azonban minőségi: nem mindegy, hogy mennyire igényes és szakértői a tartalom.

A Google azokat a tartalmakat díjazza, melyek mindenre kiterjedő, átfogó képet adnak egy témában a látogatók számára, valamint többféle médiaelemmel (képek és videók) is kiegészítésre kerül a szöveges tartalom.

Természetesen a szövegben szerepelniük kell a kulcsszavaknak is megfelelő mennyiségben – nem halmozva -, de a jó helyezés érdekében javasolt, hogy a témához kapcsolódó további releváns kulcsszavak is megjelenjenek benne.

Vagyis nem egyetlen kifejezést kell erőltetni, mert nem ez a megoldás biztosítja a jó helyezést. A kulcsszóhalmozást és a tartalommal kapcsolatos egyéb hibákat a Google Panda algoritmusa bünteti, mely után az oldal elveszíti korábbi helyezését, vagy akár teljesen eltűnik a keresési találatok közül. Innen pedig már nehéz a visszaút.

Emellett egyre fontosabb, hogy kellően alapos, szakmai, a felhasználók kérdéseire válaszokat adó tartalmakat használjunk, ne csak feltöltsük képekkel és üres, semmitmondó szöveggel az oldalainkat.

Itt is igaz, hogy nem a mennyiség a fontos, hanem a minőség. Ha olyan szövegeink vannak, amelyek saját minősítésünk alapján sem mennek át a rostán, feleslegesen terhelik az oldalt SEO szempontból, akkor azokat nem is muszáj a Google-nek megmutatni, azaz érdemes beállítani egy noindex paramétert.

A Google a hosszú szövegeket kedveli. Ezt a témát már sokan vizsgálták, és azt állapították meg, hogy a legjobb helyezéseket adott témákban a kétezer szó körüli szövegek viszik el.

A tartalom kialakításánál ugyanakkor figyeljünk arra, hogy ne legyenek megismételt, duplikált tartalmaink, amiket változtatás nélkül, máshonnan veszünk át, vagy akár egyszer már megjelentek a saját oldalunkon.

A nem látható tartalmak azonos fontosságúak, mint a látható tartalmak

A Google azokat a tartalmakat is figyelembe veszi egy weboldal értékelésénél, melyek elsőre nem láthatóak a felhasználók számára. Itt persze nem olyan ósdi, trükkös megoldásokra kell gondolni, mint a háttér színével megegyező színnel írt szövegek, melyekért büntetett a Google, hanem, amikor valamely tartalom csak kattintásra jelenik meg a felhasználó számára. Például egy lenyíló tartalomnál.

A Google ugyanis a HTML-t vizsgálja vagy a JavaScriptet veszi figyelembe, amikor egy weboldal tartalmát elemzi. Mint Gary Illyes, a keresőcég szakembere elmondta az egyik Search Off The Record című podcastban: ma már azonos súlyú a Google számára a látható és a láthatatlan tartalom, míg korábban nem volt ez így. Tehát, ha például JavaScript révén jelenik meg valamilyen tartalom a felhasználó számára, akkor az ugyanolyan fontos tartalom a rangsorolás szempontjából. De ugyanez érvényes minden tartalomra, ami a HTML-ben megtalálható.

Ez persze nem annyira újdonság, ennek ellenére a podcastból az is kiderül, hogy a Google egy másik munkatársa sem tudott róla. Pedig a Google már 2016-ban jelezte, hogy például mobilon a fülek mögött lévő, vagy egyéb, kattintásra megjelenő tartalmak már ugyanolyan súlyúak, mint az egyből látható tartalmak.

Igaz, korábban valóban alacsonyabb értékűnek tekintették őket, illetve akadtak olyan vizsgálatok, melyek azt állapították meg, hogy nincs azonos súlyuk az elsőre nem látható tartalmaknak. Utóbbi kapcsán egyébként Gary Illyes már 2018-ban jelezte, hogy nem igaz.

A PDF-fájlok is tartalomnak számítanak?

A weboldalakon található PDF-fájlokat a Google úgy kezeli, hogy automatikusan konvertálja őket HTML formátumba az indexelés és a rangsorolás érdekében. Ez azt jelenti, hogy ugyanúgy figyelembe veszi őket tartalomként, mint bármely weboldalon szereplő szöveget. FWIW we convert PDFs & other similar document types into HTML for indexing too, so theoretically there wouldn’t be too much difference. — John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018. augusztus 30.

Ez persze nem meglepő azok számára, akik foglalkoznak PDF-ek SEO-jával, hiszen a Google már egy ideje így jár el, és közvetlenül a találatoknál egy linket is elhelyez a PDF HTML-verziójára.

Fontos azonban tudni, hogy a nagyobb PDF-fájlokat nem konvertálja át teljes egészében HTML-lé. Vagyis, ha nagyméretű PDF-fájlokat használsz, akkor lehetnek benne olyan tartalmak, melyek egyszerűen nem kerülnek indexelésre a fájl mérete miatt.

Azt is érdemes emellett észben tartani, hogy bár jó helyezést érhet el egy PDF-fájl, elsősorban akkor biztosít nekik helyet a találati oldalakon a Google, ha kifejezetten valamiféle dokumentumra – mint amilyen egy PDF – történik a keresés, például egy használati utasításra.

Tehát, ha van egy rakás PDF-ed, és biztos akarsz lenni abban, hogy a tartalmukat indexeli és rangsorolja a Google, akkor érdemes megfontolni, hogy átalakítod őket. Már csak azért is, mert a PDF-eket nehéz kezelni mobileszközökön a felhasználóknak. Ráadásul egy PDF mérete is nagyobb, mint ugyanannak a tartalomnak HTML-verziója, ez pedig komoly hátrány egy szűkebb sávszélességeknél, például amikor a mobilnetet használjuk.

A PDF egyébként nem az egyetlen fájltípus, amit a Google átkonvertál HTML-lé az indexelés érdekében. Ugyanezt teszi a doc fájlokkal, az xls-sel és más hasonló nem-HTML tartalomtípusokkal.

Mivel a tartalom egy rendkívül fontos tényező a keresőoptimalizálásban, ezért egy külön bejegyzést szenteltünk a tartalom és a SEO kapcsolatának.

VII. URL

Miközben egyszerű kérdésnek tűnik, hogy milyen URL-eket használjunk a weboldalunknál, mégis időnként elég furcsa alkalmazási módokkal és elképzelésekkel találkozunk. Még mindig nagyon sokszor futunk bele olyan weboldalakba, melyek URL-jei nem felelnek meg a SEO nagyon egyszerű követelményeinek, ami egyben azt is jelenti, hogy a felhasználók számára sem nyújtanak száz százalékos élményt. Tisztázzuk tehát, hogy mi fontos egy URL-nél és mire figyeljünk a használatnál!

AZ URL-ek kialakításának alapszabályai

Tanácsos mindjárt a weboldalkészítés során kitalálni az URL-struktúrát – tehát még időben gondolkodni -, mert később már nem túl szerencsés a teljes URL-struktúrát átalakítani, és itt elég, ha csak az átirányításokra gondolunk.Attól teljesen függetlenül, hogy milyen típusú, miről is szól a weboldalad, van pár alapszabály, melyeket érdemes betartani.

Helyezd el a kulcsszavad az URL-ben!

Ha vannak kulcskifejezéseid, akkor azok lehetőleg kerüljenek be az URL-be, annak ellenére, hogy a Google számára ennek ma már csekély a fontossága.

Nice URL-t használj!

Olvasható, az emberek által érthető URL-eket használj! Vagyis a felhasználó az URL-re tekintve is meg tudja állapítani, hogy miről szó az adott oldal. És persze szerepeljen benne a kulcsszavad! Ha Te nem tudod elolvasni az URL-ed minden egyes szavát, akkor a kereső sem. Ez azért nagy probléma, mert a keresők abból indulnak ki, hogy az emberek a tájékozódás érdekében elolvassák a linkeket, mielőtt kattintanak. A dinamikus, érthetetlen URL-szövegeket a keresők sem értik, ahogy a felhasználók sem.

Az URL-jeidből hagyd ki az olyan jelentéssel nem bíró kötőszavakat, mint az “a”, “az”, “és”. Az esetek 99 százalékában ezeknek semmi értékük nincs SEO-szempontból. A legjobb, ha az URL-jeidből az igéket is kiveszed. Maradjanak benne csak a legfontosabb kulcsszóként értelmezhető szavak.

Minél rövidebb URL-eket használj!

Habár az URL hossza nem befolyásolja a helyezésed a találati listán, célszerű minél rövidebbre venni. Az URL hossza a legjobban teljesítő oldalak esetében átlagosan 36 karakter. A Google ugyanakkor 1000 karakterig fel tudja dolgozni az URL-jeidet, és az azok alatt található tartalmat. Utóbbi adat egy Google Webmaster Hangout során hangzott el, amikor John Mueller, a Google szakembere a URL-hosszúságok és a SEO kapcsolatáról beszélt. (Máskor ugyanakkor 2000 karaktert említett.)

Természetesen nem túl gyakori, hogy a weboldalakon meghaladja az 1000 karaktert egy URL hossza, ugyanakkor nem is teljesen lehetetlen. Akadnak olyan paraméterek, almappák, fájlnevek, melyek jelentős mértékben megnyújthatják azt. Mindenesetre addig nem kell aggódni az érintett oldalak SEO-ja miatt, amíg nem éri el az 1000 karakteres hosszt az URL. (A webböngészők egyébként 2000 karakterig tudják kezelni az URL-eket.)

John Mueller korábban már megjegyezte, hogy mindezek ellenére mégsem igazán hasznos gyakorlat, ha ilyen hosszú URL-eket használ egy weboldal. Tehát alapvetően az a javaslata, hogy a szükségesnél semmiképpen ne legyen hosszabb egy URL, ami felhasználói szempontból fontos. Ugyanakkor a Google miatt nem kell aggódni, ha hosszabb az URL-ed, mert nem lesz gond a feldolgozásával.

Fontos azonban megérteni, hogy a rövidebb URL-ek sokkal fókuszáltabbak, a felhasználók is könnyebben megértik őket. Ha megnézed a találati listát, akkor láthatod, hogy a Google mindig azt a részét mutatja az URL-ednek, ahol a kulcsszavak találhatók, ráadásul ezeket ki is vastagítja. Természetesen, ahogy a címet és a meta leírást is megvágja 512 pixeles szélességnél, úgy az URL-nél is megteszi ezt.

Ne használj aláhúzásjelet az URL-ben!

Egy olvasható URL általában több szóból áll. A szavakat kötőjelekkel válasszuk el és ne aláhúzásjelekkel – tanácsolja a Google. Miért? Mert az aláhúzással elválasztott szavakat a Google egybeolvassa, és buktad a benne szereplő kulcsszavaidat, még ha felhasználók képesek is értelmezni ezt a megoldást. A Google a kötőjeleket tudja értelmezni az egyes szavak elhatárolásaként, az aláhúzásjelet pedig nem, vagyis az aláhúzásjellel elválasztott szavakat egybeolvassa. Erről egyébként itt nyilatkozik a Google, de 2022 júniusában ugyanezt megerősítette Gary Illyes is, a Google szakembere.

A téma a Search Off The Record podcastben merült fel, amikor Martin Splitt beszélt a könnyen megjegyezhető URL-ekről, melyekben a szavak elválasztása történhet kötőjellel vagy aláhúzásjellel. Gary Illyes ennek kapcsán megjegyezte, hogy nem mindegy, melyiket használjuk. Elmondta, hogy felhasználják az URL egy részét arra, hogy megértsék, miről szól a weboldal, ebből a szempontból pedig fontos, hogy a weboldaltulajdonosok miként választják szét a szavakat az URL-ben. Az aláhúzásjeleket ilyen szempontból nem tudja értelmezni a Google, így elveszik az értelme az URL-nek a Google számára.

Persze, az is igaz, hogy ma már az URL-eknek csekélyebbé vált a jelentősége a rangsorolásnál, így az egész kérdés talán nem is annyira lényeges keresőoptimalizálási szempontból, mint régen. John Mueller, a Google szakembere egy 2016-os Google Hangouton elmondta, hogy szerinte emiatt nem kell aggódniuk a weboldaltulajdonosoknak, mert a Google-t nem igazán érdekli, hogy kötőjel vagy aláhúzás szerepel-e az URL-ben. És habár a Google a kötőjelet javasolja, ez nem olyan súlyú a kérdés, hogy ezért érdemes legyen weboldalakat átirányítani másik URL-re. Legalábbis John Mueller nem gondolja, hogy jelentős pozitív hatása lenne egyedül ennek a lépésnek a weboldal rangsorolására. Egyébként még 2007-ben ugyanezt mondta Matt Cutts, a Google akkori SEO-s szóvivője.

Ugyanakkor Gary Illyes 2022-ben elhangzott szavaiból az derül ki, hogy talán fontosabb a dolog, mint gondoltuk, és még mindig érdemes odafigyelni az URL-ekben használt szavakra, és hogy kötőjelet használjunk a szavak között.

Google: az URL-ben szereplő kötőjelek nem jeleznek alacsony minőséget

Akadnak, akik amiatt aggódnak, hogy a kötőjelek használata az URL-ben alacsonyabb minőséget jelez a Google felé. Ennek alapja egy olyan ősrégi SEO-mítosz, mely szerint létezik egy úgynevezett „kötőjel szűrő”-je a Google-nek, ami akkor aktivizálódik, ha több kötőjel is szerepel a domainnévben. Ez egy jó 15 éves történet, a 2000-es évek közepén volt téma, és a domainnévben szereplő kötőjeleket érintette.

És habár azt lehetett tapasztalni, hogy a találati oldalakon feltűntek sok kötőjeles domainnevű oldalak, azért volt egy kis bizonytalanság ezzel kapcsolatban. Már csak azért is, mert egy hosszabb, sok kötőjeles domainnév valóban nem túl felhasználóbarát megoldás, és hát kulcsszóhalmozásról is szó lehet ilyen esetekben. Hiszen a sok kötőjelet arra használták a SEO-sok, hogy egymás után több kulcsszót is beleerőltessenek a domainnévbe. A feltételezések szerint egyébként a „kötőjel-szűrő” a kettőnél több kötőjeles domainneveket érintette.

Ez a hiedelem maradt fenn egészen sokáig, mégpedig egy olyan torzított formában, hogy a sok kötőjeles URL-ek alacsony minőséget jelezhetnek a Google számára.

Pedig a Google korábban már jelezte hogy az aláhúzásjelek helyett a kötőjelek használatát javasolja az URL-ekben (ahogy az előző fejezetben írtunk is erről), ami azt jelenti, hogy valószínűleg nem büntet a kötőjelek használata miatt. Ezt nemrég azonban John Mueller is megerősítette egy tweetben, melyből kiderült, hogy a kötőjeles domainnevek nem jeleznek alacsony minőséget a Google algoritmusai számára.

És habár lehet, hogy nem néz ki túl jól magában a domainnévben elhelyezni egy rakás kötőjelet (ha az egymásra halmozott kulcsszavakat jelent), nagyon úgy néz ki, hogy ez nem probléma a Google számára.

Az URL-struktúra

A tartalom fontossága és az URL-struktúra legyen összhangban! Vagyis a fontos tartalmakat ne tüntesd el valamilyen almappában, távol a főoldaltól!

Ugyanakkor, mint a Google szakembere, John Mueller már többször is felhívta rá a figyelmet: az URL-struktúra nem igazán számít a Google számára. Ha egy 7-es skálán nézzük, akkor mindössze 1 pontot kap. Habár ez így pontosan nem értelmezhető, arra azonban rávilágít, hogy csekély jelentőségű a rangsorolás szempontjából az URL-struktúrád kialakítása. Tehát nem igazán gond, ha mélyen helyezed a fontosabb tartalmaidat a weboldaladon. Structure not so much (1 out of 7), but all URL changes take time and can be painful. Choose and keep for the long run. — John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017. augusztus 14.

Azt persze itt nem árt figyelembe venni, hogy ha nagyon elrejted egy tartalmadat, akkor a GoogleBot-nak többször is „kattintania” kell, mire eljut hozzá. És minden egyes kattintással elvileg csökken az esélye annak, hogy tényleg el is jut oda. Ebből következik az, hogy a fontos URL-eknek olyan közel kellene lenniük a főoldaladhoz, amennyire csak lehetséges.

Ugyanakkor John Mueller arra is felhívta a figyelmet, hogy az URL-strukúránál fontosabb kérdés az, hogy ne változtasd túl gyakran az URL-jeidet. A Google-nek ugyanis időbe telik, hogy az új URL-t feldolgozza és erre irányítsa a látogatókat. Ez olyan, mint amikor új lakcímed lesz. Ilyenkor egy darabig a levelek még a régi címedre érkeznek meg, és nem feltétlenül jutnak el hozzád. Mindenkinek jelezned kell, hogy változott a lakcímed, így időbe telik, mire minden visszaáll a régi kerékvágásba, és megkapod a leveleidet.

Nagybetűk használata az URL-ben

Régi vita a SEO-ban, hogy lehet-e vagy érdemes-e nagybetűket használni az URL-ekben. Habár egyre ritkábban találkozunk vele, akad néhány weboldal, mely következetesen kitart a nagybetűs URL-eknél. Tény, hogy a nagybetűvel írt URL-ek felhívják magukra a figyelmet, a felhasználók szeme könnyebben megakad egy nagybetűkkel írt, vagy olyan URL-en, melyben nagybetűk szerepelnek. Ugyanakkor viszont kérdés, hogy mit szól mindehhez a Google?

Mivel megkérdezték a Google egyik szakemberét John Muellert az ügyben, ezért közvetlenül a Google-től származó válaszunk is van a kérdésre (amit persze nem kell mindig 100 százalékos megbízhatóságúnak tartani). Íme: URLs are case-sensitive, but pick whatever case you want. — John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017. június 22.

A rövid kérdés-válaszból az olvasható ki, hogy a Google önmagában a nagybetűs linkeket nem veszi figyelembe SEO-tényezőként, tehát nem befolyásolja a helyezésed, bármelyiket is használod. Ugyanakkor következetesnek kell maradni az URL-ek használatánál, mert azt viszont figyelembe veszi, hogy kis vagy nagybetűvel íródik egy URL. Ez egészen pontosan azt jelenti, hogy ha van egy http://www.pelda.hu/OLDAL és egy http://www.pelda.hu/oldal URL-ű oldalad, akkor mindkettőt külön térképezi fel és külön indexeli a Google, és nem biztos, hogy azt fogja rangsorolni, amelyiket szeretnéd (hacsak nem használsz canonical taget).

Emellett azt sem szabad elfelejteni, hogy ha a domainnéven kívül nagybetűk szerepelnek az URL-edben, akkor az egy kicsit zavarosnak néz ki. De azt is figyelembe kell venni, hogy ha valaki beírja a böngésző címsorába az URL-t, akkor automatikusan kisbetűvel írja és talán nem is tudja, hogy a nagybetű számít. Ezt se felejtsd el, különösen, ha fontos számodra az „offline” marketing.

Összességében tehát elmondható, hogy a nagybetűk inkább csak megzavarják a keresőket és az embereket. A különböző pontokon elhelyezett nagybetűkre nehezen tudnak visszaemlékezni. Márpedig egy nagybetűket tartalmazó URL nem ugyanaz, mint a csupa kisbetűvel írt.

Tölts fel favicont!

Közvetlenül ugyan nincs előnye SEO-szempontból a favicon használatának, azonban könnyebb azonosítást tesz lehetővé a felhasználók számára.

Példák URL-ekre

Céges oldalak URL-jeinél is a lehető legrövidebb URL-t érdemes használni. Ahogy a navigációs menü horgonyszövegeinél, itt sem érdemes túltolni a dolgot, mert így egyértelmű mindenki számára:

http://pelda.hu/kapcsolat
http://pelda.hu/rolunk

A webáruházadnál két lehetőség is van a megfelelő URL-struktúra kialakítására. Az egyiknél az URL-be belekerül a kategória neve is, a másik csak a terméknevet tartalmazza.

http://pelda.hu/termek-neve
http://pelda.hu/kategoria-neve/termek-neve

Ha mind a kettőt egyszerre használjátok, akkor a rel=”canonical” taggel kell jelezni, hogy melyiket szeretnéd a Google által megjeleníttetni. Célszerű egyébként azt az URL-t használni, melyben szerepel a kategória neve is, hiszen ez sokat segíthet a felhasználóknak, hiszen úgy működik, mint egy breadcrumbs: a felhasználó könnyebben be tudja azonosítani, hogy éppen hol jár.

Ha blogod vagy híroldalad van, akkor több lehetőség közül is választhatsz. Az egyik megoldásnál a domain után a bejegyzés vagy cikk címe szerepel:

http://pelda.hu/bejegyzes-cime

Ugyanakkor ha többféle témában írsz, akkor azt érdemes lehet jelezni az URL-ben is, vagyis megtoldod egy rovatnévvel is az URL-t. Ezáltal könnyebben értelmezik a felhasználók, hogy egy adott anyag miről szól. Ez ugyanaz a megoldás, amit a webáruházaknál is láthattál.

http://pelda.hu/rovat-neve/bejegyzes-cime

Érdekesebb a helyzet, ha aktualitásokkal, napi hírekkel bombázod a közönséged, mert akkor az URL-t hasznos lehet kiegészíteni dátummal is. Ezzel ugyanis világossá teszed a felhasználók számára, hogy mennyire friss cikket olvasnak. Ezt azonban csak akkor használd, ha a dátum valóban fontos. És így nézne ki:

http://pelda.hu/ev/honap/nap/bejegyzes-cime

Frissítés, 2022.11.07.:

Google: csak a SEO miatt felesleges változtatni az URL-jeiden!

A Google-nek az URL-ekkel kapcsolatban már régóta meglehetősen egyértelmű az álláspontja, így talán nem meglepő, hogy John Mueller, a Google szakembere meglehetősen erősen fogalmaz, amikor újra meg újra előkerül a kérdés. A lényeg itt az, hogy az URL megváltoztatásának alapvetően negatív a hatása, és hogy csak a SEO-t szem előtt tartva felesleges módosítgatni az URL-en.

De mint a Redditen megfogalmazta: „ha SEO-s vagy, és azért számlázol az ügyfélnek, hogy az URL-eket cserélgeted, akkor az legfeljebb a Te bevételeiden javít. Hogy segít-e az oldalnak? Nagyon-nagyon ritkán (talán csak abban az esetben, ha valami borzalmas URL-ről van szó, amit még kimásolni sem lehet). Hátrányosan fogja érinteni a változás az oldalt az újrafeldolgozásig? Valószínűleg.”

Hasonlóképpen nyilatkozott azonban a Twitteren is, ahol elmondta, hogy „ha megváltoztatod az URL-jeidet, akkor minden oldalt át kellene irányítanod. Az átirányításnak nincs felső korlátja. Ugyanakkor valószínűleg lábon lövöd magad, miközben semmiféle javulást nem fogsz tapasztalni. Ezért csak valós indokból változtass az URL-jeiden, ne azért mert ‘az jó SEO-szempontból’.”

Mindezek alapján talán számodra is világos lehet, hogy ha valaki azzal keres meg, hogy SEO-szempontból át kell alakítani az URL-jeidet, akkor azzal nem érdemes foglalkozni.

VIII. Képek

A képek is fontosak lehetnek SEO-szempontból, különösen 2018 februárja óta, amikor is a Google képkeresőjéből kikerült az a funkció, mely magát a képet mutatta meg önállóan, tehát anélkül, hogy fel kellett volna menni a publikáló weboldalra. Ezután már csak az oldalt lehet meglátogatni, ahol a kép szerepel, ami kattintást jelent az adott oldalra.

Ez a kép-kereső felhasználók szempontjából nem túl pozitív változás, annál jobb a weboldaltulajdonosoknak. Hiszen innentől kezdve a képeikkel sokkal nagyobb arányban tudják a weboldalukra csábítani a felhasználókat, vagyis lehetőségük nyílik egy újabb csatornán a közönség bevonzására. Ez pedig azért fontos – főleg a webáruházak számára -, mert egy kutatás szerint az emberek 72 százaléka keres rá képekre, mielőtt megvásárol egy terméket.

Érdemes tehát most már a képek SEO-jával is egy kicsit jobban foglalkozni. De mit kell tudni keresőoptimalizálási szempontból a képekről? Egyrészt azt, hogy a Google nem magát a képet értelmezi – erre még nem képes -, hanem a hozzá kapcsolódó szövegeket, így ezeket kell optimalizálni, illetve a betöltési sebességüket. Másrészt pedig ehhez kapcsolódóan azzal is fontos tisztában lenni, hogy a Google-t csak a képkeresésnél érdeklik a képek a webes kereséseknél nem foglalkozik velük.

Frissítés, 2021.12.14.:

A Google a webkeresésnél nem foglalkozik a képekkel

John Mueller egy kérdésre adott válaszában jelezte, hogy amikor webkeresésről van szó (vagyis amikor alapértelmezetten használod a Google keresőt, és nem a képek keresésére kattintasz), akkor a Google az itt felsorolt találatoknál nem vizsgálgatja a képeket rangsorolási szempontból. Tehát, mint a szakember fogalmazott, nem nézik át az oldalt, és értékelik a képeket a szerint, hogy az egyik egy jó kép, a másik meg unalmas.

Ezzel csak a képkeresésnél foglalkoznak, ott viszont fontos a képek tartalma. De mint nyomatékosította: webkeresésnél egyáltalán nem érdekli őket, hogy a weboldal valamely képén egy szürke négyzet vagy egy tengerpart látható.

A kérdés, amire ezt a választ megfogalmazta, az volt, hogy „az algoritmus vajon megérti, hogy egy értelmes vagy akár hasznos képről van-e szó egy weboldalon, vagy nem csak egy szürke négyzetről?” Erre mondta Mueller azt, hogy a kép nem igazán érdekli őket.

Ugyanezt egyébként megerősítette Glenn Gabe is, a Google egy másik szakembere Twitteren.

Mindez tehát lényegében azt jelenti, hogy hiába helyezel képet a weboldaladra, a webkeresésnél nem fog segíteni a helyezéseden.

De most nézzük meg azt, hogy melyek a képekhez kapcsolódó szövegek, melyeket a Google értelmez.

Frissítés, 2022.12.07.:

Milyen legyen egy kép fájlneve?

Sokan nem törődnek a weboldalukra felkerülő fotók fájlnevével, mondván, nem rangsorolási tényezőről van szó. Utóbbi igaz is lehet, ugyanakkor a Google azt is megemlíti a képek fájlneveivel kapcsolatban, hogy figyelembe veszi azokat annak érdekében, hogy megállapítsa, mit tartalmaz a kép. Ez pedig azt jelenti, hogy érdemes értelmes fájlevet adni a képeknek.

Ugyanakkor egy Search Off the Record podcast beszélgetésben John Mueller azt is megjegyzi, hogy ha az olyan elemek, mint a kép alt textje és a körülötte lévő szöveg rendben vannak, akkor nem várható nagyobb változás egy értelmes fájlnév hatására. Előbbiek ugyanis nagyon erős jelzések, a fájlnév pedig inkább technikai szempontból fontos.

De persze, ha nincs alt textje egy képnek, vagy nincs a kép körüli szöveg, akkor a fájlnév lehet az egyetlen olyan hely, ahol meg lehet említeni, hogy mit tartalmaz a kép – tette hozzá a Google szakembere.

Ugyanakkor később arról is beszélt, hogy miként indexelik a képeket. Mint szavaiból kiderült, a képeket nem fésülik át olyan gyakran, mint a weboldalak szövegét, aminek az az oka, hogy a képek általában kisebb mértékben változnak. Ez azt jelenti, hogy ha változik egy kép vagy egy fájlnév, akkor elég hosszú időbe telhet, míg feldolgozza a Google. Annál is inkább, mert ha változik a kép, akkor a Google-nek meg kell értenie a kapcsolatot a régi és az új kép között.

Tehát, ha például valami oknál fogva egyszerre több képet is lecserélsz a weboldaladon, akkor a Google számára akár több hónapba is telhet, amíg ezeket feldolgozza. Ráadásul ennek folyamata úgy zajlik, hogy először csak kikerülnek a régi képek a Google képkeresésből – mivel már nem szerepelnek az oldalon -, majd aztán valamivel később kezdik sorban megjeleníteni az új képeket.

Ezért aztán azt is javasolja John Mueller, hogy ha SEO-szempontból fontosak a képek számunkra, akkor csak nagyon megfontoltan kezdjünk bele a képek vagy a fájlnevek cseréjébe.

Annál is inkább, mivel egy módosított fájlnévnek csak nagyon csekély – vagy többnyire semennyi – hatása van a keresőbeli teljesítményre, bármennyire is keresőoptimalizált a fájlnév.

A lényeg tehát az, hogy

  • ahogy az URL-ek, úgy a képeknél a fájlnevek is legyenek beszédesek, értelmesek, tartalmazzák a kulcsszót.
  • Ezeket a fájlneveket úgy kell felépíteni, hogy kötőjel válassza el az egyes szavakat, melyek között nyilván szerepel az adott oldal kulcsszava is.
  • Fontosabb az alt textre és a kép körüli szövegre figyelni, mivel sokkal erősebb jelzések.
  • Ha megváltoztatod kép fájlnevét, akkor annak csak minimális a hatása – de inkább semennyi – a helyezésre.
  • Ugyanakkor akár hónapokig nem jelenik meg a kép a keresőben, mert lassan indexeli a képeket a Google.

Alt text

Az alt textet (alt tag) vagy alternatív szöveget is ki kell tölteni és kulcsszavazni a képeknél. Ez mondja el ugyanis a Google-nek, hogy mi látható a képen, illetve akkor jelenik meg a weboldalon (a kép helyén), amikor a kép nem töltődik be a böngészőben. Minden alt text be van ágyazva a HTML-be, vagyis amikor a Google feltérképezi az oldalt, akkor ezáltal látja a képet.

Ugyanakkor persze enélkül is képes lehet értelmezni egy képet a Google, mégpedig annak szövegkörnyezete révén. Gary Illyes, a Google szakembere szerint éppen ezért nem muszáj alt címkét elhelyezni minden egyes képedhez. Persze ez csak abban az esetben érvényes, ha a kép körül releváns szöveg található a kép tartalmát tekintve, mely elárulja azt, hogy mi található a képen.

Ennek ellenére persze jobb, ha megírod az alt textet is, mert Gary Illyes azt is hozzátette, hogy bizonyos esetekben ezek a címkék jelentős hatással lehetnek a képkeresésben elért forgalomra. Imo if the text around the image is relevant, leaving the alt attributes blank is sorta ok. Search engines would absolutely have less data from where they can infer what the image is about so at least in some cases that might have significant impact on Google Images traffic. — Gary „鯨理” Illyes (@methode) 2019. május 29.

Frissítés, 2022.06.09.:

Az alt text csak a képkeresésnél segít!

Amikor alt textről vagy alt textek kulcsszavazásról van szó, akkor sokan elfelejtik, hogy az alt textek optimalizálása csak annyiban segít hozzá a jobb keresőoptimalizáltsághoz, hogy a hozzá tartozó képet jobb pozícióba segíti a képkereséseknél. Ez azt is jelenti, hogy nem hat ki magának az oldalnak a rangsorolására, nem javít annak helyezésén a találati oldalakon! Vagy legalábbis csak annyiban, mint bármely más mondat a weboldal szövegében.

És ezt nem csak mi mondjuk, hanem a Google is. Mint John Mueller egy Google Search Central SEO office-hours során hangsúlyozta, az alt textre csak akkor kell kiemelt figyelmet fordítani, ha a célod az, hogy a hozzá tartozó képnek javuljon a helyezése a képkereséseknél. Egyébként pedig „akadálymentesítés” céljából van még jelentős funkciója a szövegfelolvasók miatt. Mint John Mueller hozzátette, az alt text az oldalhoz nem ad értéket, amikor annak rangsorolásáról van szó.

A szakember válasza egyébként egy olyan kérdés kapcsán merül fel, mely a pusztán „dekorációs célból” használt képek alt textezését feszegette. Tehát az olyan stockfotóknál, melyek ezer másik oldalon is megjelennek, felesleges az alt texttel foglalkozni.

Ennek kapcsán jegyezte meg Mueller, hogy alt textet akkor kell használni, ha valaki szeretné a képkeresések találati oldalain megjeleníteni a fotóját, mert annak van valamilyen értéke. Az oldal viszont nem lesz értékesebb azáltal, hogy azon képek szerepelnek, a képekhez pedig alt textek tartoznak.

Hogyan írj jó alt textet?

Az alt textnek le kell írnia magát a képet, viszonylag részletesen, ugyanakkor összhangban kell lennie a kép környezetében megjelenő szövegekkel is. Arra is figyelj, hogy a benne szereplő kulcsszavak beleszámítanak az oldal kulcsszómennyiségébe, így bele lehet esni a kulcsszóhalmozás hibájába a képek által is. Mindenesetre a legfontosabb – a keresőben leginkább megjeleníteni kívánt – képnek tartalmaznia kellene az oldal legfontosabb kulcsszavát.

Ehhez viszont nem árt egy kulcsszókutatás, amit feltehetően az oldallal kapcsolatban már megtettél. Ha nincs az oldalhoz kapcsolódó kulcsszó vagy kulcsszavak köre, amire optimalizálsz, akkor nincs különösebb jelentősége, mi kerül a kép alt textjébe. Tehát, ha még nem tetted volna, akkor ennek a bejegyzésnek a kulcsszavakra vonatkozó fejezetét fusd át! Tehát:

  • Kulcsszókutatással kezdj! – Abból ne várj eredményt, hogy találomra elhelyezel benne kulcsszónak tűnő szavakat.
  • Ne a képhez igazítsd az oldal kulcsszavait! Hanem olyan képet válassz, ami passzol a már használt kulcsszóhoz! Az egyetlen kivétel az lehet, ha az oldal a képekre, képgalériákra épül.
  • Írd le a képen látható dolgot, lehetőleg pontosan! Legyen benne a leírásban a kép tárgya és kapcsolódjon a képet körülvevő szöveghez.
  • Az alt text tartalma kapcsolódjon a szöveghez. De ha már szerepel benne a kulcsszó, akkor erre nagy az esély, de azért figyelj, hogy összhang legyen közöttük!
  • Ne szerepeljen a szövegben a kép szó, mert erre nincs szükség. Koncentrálj a képen látható dolgokra! A Google a HTML kód alapján a Te segítséged nélkül is tudja, hogy képről van szó.
  • Használd a kulcsszava(id), de csak ritkán! Csak akkor szerepeljen a szövegben a kulcsszó, ha illeszkedik is bele. Ha nem, akkor inkább kapcsolódó kifejezésekben vagy long tail kulcsszavakban gondolkodj.
  • Nem kell minden kép alt textjében szerepelnie a kulcsszónak! Ha a szövegedben több kép is van, akkor ezek közül legalább egyben szerepeljen az oldal kulcsszava. Azt a képet válaszd erre a célra, mely a leginkább passzol a weboldal tartalmához, amelyet leginkább szeretnél megjelentetni a képtalálatok között.

Milyen hosszú legyen az alt text?

SEO-körökben él egy olyan elképzelés, miszerint az alt textnek van egy bizonyos optimális hosszúsága. Az egyik szempont szerint a képernyőolvasók 125 karakternél szokták abbahagyni az alt textek olvasását, ráadásul némely böngésző annyi alt textet mutat csak meg, amennyi elfér egy sorban a kép helyén. Ugyanakkor vannak, akik úgy gondolják, hogy a 16 szónál hosszabb alt texteket a Google sem olvassa el.

Utóbbi elképzelés egy SEO-tesztből ered, melyben azt állapították meg a képkereséseknél, hogy a Google nem valós szavakra történő keresésekre nem találja meg azokat a képeket, melyek 16 szónál többet tartalmaznak (miközben persze szerepel bennük az adott, nem valós szó).

Ugyanakkor érdemes tudni, hogy az ilyen nem valós szavakkal végzett vizsgálatok sokszor fals teszteredményeket hoznak. Ennek oka, hogy a Google a rangsorolását létező szavakra alakította ki és nem kitalált, új szavakra. A kitalált szavakkal végzett vizsgálat abból indul ki, hogy a Google keresőalgoritmusa faék egyszerűségű, mely egy az egyben kiadja találatként, ha talál egy egyező szót a neten. A helyzet azonban az, hogy a Google keresőalgoritmusai ennél némileg szofisztikáltabban működnek, és alapvetően az oldal megértésére törekszenek. Így tehát nem lehet biztosra venni, hogy a teszt helyes volt-e.

Mindenesetre John Mueller egy Google Office-hours hangout során rámutatott: nincs semmilyen irányelvük arra vonatkozóan, hogy milyen hosszú legyen az alt text. Tehát a Google szemszögéből ez úgy néz ki, hogy nyugodtan beletehetsz mindenféle fontos dolgot a szövegbe, amennyiben az releváns a képre vonatkozóan.

Mueller magyarázatában arra is kitért, hogy szerinte nem szükséges az alt textben pontosan leírni azt, hogy mi látható a képen. Inkább azt kell megfogalmazni, amit az adott kép jelent az oldal számára.

Tehát, ha van egy tengerpartot ábrázoló képed, akkor az alt textben írhatod azt, hogy „Hé, ez egy tengerpart!”, ugyanakkor akár azt is, hogy „ez a tengerpart a szálloda előtt található” vagy, hogy „így nézett ki a tengerpart, miután megtisztítottuk”. Tehát a szándékok eltérőek, és érdemes a fotókat is kontextusba helyezni, mert így segítünk a legtöbbet a keresőknek.

Frissítés, 2022.11.29.:

Google: a dekorációs célú képeknél hagyd üresen az alt textet!

Az alt text segít megérteni a Google számára a weboldalon elhelyezett képet, valamint ha képkeresésről van szó, akkor hozzájárul ezáltal a rangsoroláshoz. Ugyanakkor nem kötelező minden képhez alt textet tenni – mint az kiderült -, sőt vannak olyan esetek, amikor jobb is, ha nem teszünk.

Erre John Mueller hívta fel a figyelmet egy Search Off the Record podcastben, ahol azt mondta, hogy az úgynevezett dekorációs célú képeknél – azaz, ha csak esztétikai megfontolásból kerül a weboldalra kép, nincs tartalmi funkciója – az alt text helyét érdemes üresen hagyni. És még arra is felhívta a figyelmet, hogy ugyanezt javasolja a World Wide Web Consortium (W3C) is.

Ezt később egy Twitter-üzenetben is megerősítette, ahol úgy fogalmazott, hogy a dekoratív képek nem adnak plusz információt a weboldal tartalmahoz. Ez előfordulhat akkor, ha a kép információtartalma a mellette lévő szövegben is megtalálható, illetve, ha csak azért van a kép az oldalon, hogy azt vizuális vonzóbbá tegye.

Ilyenkor az alt textnek így kellene kinéznie a kódban: alt=””. Ez azért fontos, mert ha így szerepel, akkor például a szövegfelolvasó szoftverek nem veszik figyelembe az alt textet. Ha viszont szöveget adunk hozzá feleslegesen egy képhez, akkor az csak bonyolítja felolvasott szöveget, sőt akár meg is zavarhatja a felhasználót, amennyiben a képhez tartozó alt text különbözik a mellette elhelyezkedő szövegek tartalmától.

Másrészt azért érdemes az alt=”” szöveget használni, mivel ha egyáltalán nincs jelezve semmi az alt texthez, akkor néhány képernyőolvasó a fájl nevét fogja elolvasni – tette hozzá John Mueller.

Gyorsítsd a képek betöltését!

Általában a képek azok, melyek leginkább lelassítanak egy weboldalt. Azért, mert ezek a legnagyobb méretű fájlok az oldalon, és átlagos az oldal méretének felét teszik ki. A nagyméretű képek pedig lelassítják az egész oldalt. Ezáltal pedig nőni fog a visszafordulási arány. Azt, hogy megfelelően méretezettek-e a képek érdemes ellenőrizni a Page Speed Insights-szal, mely külön jelzi, ha valami problémát tapasztal és pontosan megmondja, mely képeket kellene tömöríteni.

Ezért a cél az, hogy minél kisebb fájlméreteket használj, vagyis mindent képet ajánlott külön tömöríteni, külön méretezni, és figyelni a fájltípusra annak érdekében, hogy minél kisebb adatmennyiséget kelljen a felhasználónak letöltenie. Arra persze figyelni kell, hogy a tömörítésnél ne ess túlzásokba, mert olyan mértékben ronthatod le a képek minőségét, ami már a felhasználói élmény rovására megy.

A weboldalsebesség javításáról itt írtunk részletesen.

Figyelj a képek elhelyezésére!

Képek div tagek között

Előfordul, hogy egy-egy weboldal bizonyos képeit nem indexeli a Google. Ennek egyik oka lehet, amikor a képek „div” tagek közé kerülnek. John Mueller, a Google szakembere legalábbis egy kérdésre adott válaszában úgy nyilatkozott, hogy valószínűleg az ilyen képeket nem indexeli a Googlebot, vagyis nem találja meg, és értelemszerűen nem is rangsorolja. Érdemes persze ezt tesztelni és megvizsgálni, mert nem 100 százalék, hogy nem indexeli, de nagy a valószínűsége, hogy nem teszi meg.

A div tag a programozók által használt tároló egység, ami magába foglal különféle elemeket, részekre osztva a HTML-t. Általában akkor használják, amikor bizonyos HTML elemeket össze kell fogni egy tárolóba, és több elemnél kell valamilyen CSS stílust használni. I’m pretty sure we wouldn’t pick that up for image Search, but try it out :-) — John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018. június 6.

Képek a CSS-ben

Ugyancsak nem indexeli és nem rangsorolja a Google azokat a képeket, melyek a CSS háttérkódban találhatók. Ha azt akarod, hogy a Google Képkereső indexelje a képed, akkor azt normál image-taggel kell ellátnod olyan forrás attribútummal, mely a képre mutat.

SEO szempontból nem jó:

body {

background-image: url(„akarmi.gif”);

}

SEO szempontból megfelelő:

< img src="akarmi.jpg" alt="Egy indexelésre kerülő kép" >

Javítja az oldalad helyezését egy egyedi fotó?

Korábban már említettük, hogy érdemes a weboldalakon egyedi fotókat, képeket használni. Azt is megjegyeztük, hogy a megfigyelések szerint ezek helyezése is jobb lehet, mint egy stockfotóé. Mint John Mueller, a Google szakembere egy Webmaster hangout során elmondta, amikor a Google egy teljesen azonos stockfotóval találkozik több weboldalon is, akkor a vonatkozó képkeresésre ugyan megjeleníti a fotót, azonban a képet használó weboldalak csoportjából mindössze egyet fog kiválasztani, melyet aztán linkkel a kép mögé tesz. Tehát, ha valaki kattint a képre, akkor valamely kiválasztott weboldalra érkezik, miközben a többi tíz vagy száz weboldal lemarad a kattintásról.

Ezzel szemben, ha egyedi fotót helyezel el a weboldaladra, akkor ott nincs konkurencia, a kép mögé mindenképpen a Te weboldalad linkje kerül.

Van azonban egy másik érdekes kérdés ezzel kapcsolatban, mégpedig az, hogy hogyan áll hozzá a sotckfotók használatához a Google? Ha egyedi fotókat használsz a weboldaladon, akkor azt értékeli-e olyan módon, hogy jobb helyezést biztosít az oldaladnak a találati listákon?

A helyzet az, hogy nem. Az egyedi fotók előnye csak a képkeresésnél jelenik meg. Ez ugyanakkor megnyugtató lehet azok számára, akik stockfotókat használnak a weboldalukon, hiszen John Mueller szavai alapján egyértelművé vált, hogy a Google a stockfotók használatát nem értékeli hátrányként, és ezért nem is rontja az oldal helyezését a találati oldalakon. It doesn’t matter for web-search directly. For image search, if it’s the same image as used in many places, it’ll be harder. (There’s also the potential impact on users, after search happens, eg: does it affect conversions if your team photo is obvious stock photography?) — ? John ? (@JohnMu) June 27, 2020

Google: A fontos táblázataidat képként jelenítsd meg!

A dilemmát ebben az esetben az jelenti, hogy egy táblázat HTML használatával, de akár képként is megjeleníthető egy weboldalon. De melyik előnyösebb SEO szempontból?

Nem kell találgatnunk a választ illetően, mert John Mueller egy 2020 júliusában tartott Google Webmaster Central hangout során elmondta, hogy melyik a jobb megoldás. A kérdező itt alapvetően arra volt kíváncsi, hogy vajon a Google számára elfogadható-e, ha a táblázatokat képként jelenítjük meg a weboldalunkon, vagy ragaszkodni kellene a HTML-hez, mert az előnyösebb, esetleg könnyebben értelmezhető a Google számára.

Mint kiderült, egyáltalán nincs gond, ha egy táblázatot képként jelenítünk meg. Sőt, előnyös. John Mueller egyenesen az javasolta, hogy inkább képként vigyük fel a táblázatokat.

Ugyanakkor arra is felhívta a figyelmet, hogy az alt attribútumra figyeljünk a táblázatoknál is. Tehát, ha van valamilyen különösen fontos információ a táblázatban, akkor az kerüljön bele az alt textbe. Ezáltal a Google világosan látja, hogy miért fontos a táblázat, ahogy azok is, akik nem látják a képet. Annak ellenére, hogy a Google a kép közvetlen szövegkörnyezetéből is meg tudja határozni, hogy miről szól a kép, illetve jelen esetben a táblázat.

Az viszont nem jó megoldás, ha egy oldal mindössze egy táblázatot bemutató képet tartalmaz, ami mellett semmilyen szöveg nem jelenik meg a body részben. Tehát, ahhoz, hogy a találati oldalon esélye legyen megjelenni a képnek, a szövegkörnyezetet is meg kell teremteni, ami tovább magyarázza, hogy mi látható a táblázatban.

Az is igaz ugyanakkor, hogy John Mueller szerint a táblázatok nem igazán teljesítenek jól a képkereséseknél, mert amikor az emberek képeket keresnek, csak ritkán kíváncsiak táblázatokra. Ennek ellenére a képként való megjelenítés a legjobb megoldás – tette hozzá a szakember.

John Mueller ugyan nem említette, de mindezeken túl érdemes azért figyelni arra is, hogy ezeknek a képként megjelenő táblázatoknak mekkora a fájlmérete, ugyanis a weboldalsebesség is rangsorolási tényező, mint arra mindjárt külön ki is térünk.

A Google figyelmeztetett: a beágyazott instagram-képeket nem indexeli

Egy felhasználói kérdés kapcsán derült ki, hogy „probléma van” a weboldalakba beágyazott instagramos képek indexelésével. A probléma persze igazából nem probléma, hiszen ez egy alaptulajdonsága ezeknek a képeknek. De miről is van szó?

Egy felhasználó jelentős visszaesést tapasztalt a képkeresési forgalmában, miután elkezdett beágyazott Instagrap-képeket használni a weboldalán. John Mueller vizsgálta meg a dolgot, és ennek eredményeként rájött, hogy az Instagram a beágyazásoknál noindex meta címkét használ, ami azt jelzi a Google-nek, hogy ne indexelje a képet a weboldal többi részével együtt.

Ez tehát azt jelenti, hogy a Google nem fogja indexelni és rangsorolni azokat a képeket, melyeket Instagram-képként ágyazol be a weboldaladba. A Google látja az iframe-et, megtalálja benne a képet is, azonban ott van a meta jelzés arra, hogy a weboldaltulajdonos nem akarja indexeltetni a képet az oldallal együtt – magyarázta a Google szakembere.

IX. Sebesség

Egy weboldal betöltési sebessége ma már hatással van a helyezésre, a Google nem szereti a lassú oldalakat. A Google azt javasolja, hogy egy weboldal betöltési sebessége asztali gépen, laptopon lehetőleg 1,5 másodperc, mobilon egy másodperc alatt legyen. Ugyanakkor a találati listán a legjobb helyezéseket elérő weboldalak sebességátlaga 0,99 másodperc. Minderről részletesebben a weboldalsebességről szóló cikkünkben írtunk.

X. Közösségi jelzések

A SEO alapokat említve a következő kategóriát a közösségi jelzések jelentik, azaz a Facebookról, Twitterről, Google+-ról, Pinterestről, stb. érkező reakciók száma.

Megjelenés a közösségi oldalakon

A jobb helyezés érdekében is ajánlott megjelenni ezeken a közösségi oldalakon, illetve azokon rajongókat, követőket gyűjteni, és ezt jelezni az oldalon.

Közösségi elemek megjelentetése a weboldalon

Emellett az egyes aloldalak, például blogbejegyzések mellé és alá érdemes elhelyezni a közösségi visszajelzésre szolgáló gombokat. A lájkok és megosztások száma ugyanis visszajelzés a Google számára a tartalom minőségére vonatkozóan. Önmagában ugyanakkor az, hogy egy oldal sok lájkot kap, még nem fogja javítani a találati listán elért helyezést.

XI. Felhasználói jelzések

Végül szintén a SEO alapok közé sorolhatók a felhasználó jelzések. Mégpedig az, hogy

  • a felhasználók mennyi időt töltenek az oldalon,
  • mekkora az átkattintási arány,
  • mekkora a visszapattanás mértéke.

Ezeket a számokat kell javítani, ugyanis ezeket mind figyelembe veszi a Google egy weboldal besorolásánál. A mérésük nem annyira egyszerű, mint elsőre látszik, itt írtunk bővebben róla.

XII. A weboldal biztonsága

Egy weboldal biztonsága, illetve annak hiánya közvetlenül és kritikus mértékben képes hatással lenni a weboldalra, és ebbe beletartozik a weboldal organikus teljesítménye is a keresőben. Ebből következően egy weboldal biztonságossága ugyan nem rangsorolási tényező, azonban nem elhanyagolható, ha SEO-ról van szó.

Mert mi történik, ha nem elég biztonságos a weboldalad? Nagy az esély rá, hogy feltörik. Ilyenkor egy külső fél engedély nélkül hozzáférést szerez a weboldalhoz.

Milyen problémákat okoznak a hackerek?

Malware – melyet arra hoznak létre, hogy károsítson vagy működésképtelennél tegyen egy hálózatot, általában adatok megszerzése céljából. Hatása elég jelentős, beleértve a pénzügyi veszteségeket, melyet a cég kénytelen lesz elszenvedni. Ha a Google felfedez egy oldalon rosszindulató kódot, akkor a Chrome egy figyelmeztetést küld azoknak, akik meglátogatnák az oldalt. Ugyanígy a találati oldalakról is eltávolítja. Ezáltal pedig értelemszerűen megszűnik az organikus forgalom, lecsökken az aktivitás az oldalon, és a felhasználók bizalmatlanná válnak az oldaladdal szemben, ami a további kilátásokat is beárnyékolja.

Spammelés – ilyenkor a hackerek egy linket adnak az oldalhoz, melyre ha rákattint a látogató, akkor a hacker által meghatározott oldalra viszi. A link és a forgalom hatására a hacker weboldalának helyezése javulni fog, vagyis alapvetően egy black hat SEO technikáról van szó. A GoDaddy egy néhány évvel ezelőtt készített felmérése szerint a weboldalak több mint 73 százalékát SEO-spam okok miatt törték fel. Sok esetben normális weboldalak pillanatok alatt linkfarmokká válhatnak egy támadás miatt.

Átirányítások – gyakran a hackerek átirányítást kapcsolnak be a feltört oldalon, ami azt jelenti, hogy az oda érkező látogatók automatikusan egy másik weboldalra kerülnek. ezen az oldalon aztán valamilyen rosszindulatú tartalmat találnak, de előforsulnak adathalászati kísérletek is, melynek során egy linkre kattintás révén érzékeny személyes adatokat próbálnak megszerezni tőlük. Ha a Google ilyen weboldalt talál, akkor eltávolítja a találati oldalakról.

Feketelistára kerülés – egy weboldal feltörése befolyással van a megjelenésére a találati oldalakon, és kézi beavatkozásra is sor kerülhet a Google részéről. Gyakran viszont nem ez történik, és ilyenkor csak még több támadás éri az oldalt malware-ek révén, anélkül, hogy a weboldaltulajdonos tudna róla. Ez pedig egyre inkább elmélyíti a problémát.

Mi okoz általában problémát, és mi lehet a megoldás?

Gyakran a problémát a megbízhatatlan forrásokból származó pluginek okozzák, ami persze csak olyan CMS-eknél jelent veszélyt, ahol léteznek és letölthetők ilyen pluginek. A hackerek viszont folyamatosan keresik azokat az oldalakat, melyek megbízhatatlan vagy elavult plugineket használnak, hogy ezek révén hozzáférjenek az oldalhoz. A megoldás tehát az jelenti, hogy biztonságos CMS-t és csak megbízható plugineket használj, és állandóan frissítsd őket.

Ugyanakkor gondot okozhat egy megosztott szerver is, mivel így nagyobb eséllyel kerül fel rá valamilyen rosszindulató fájl, mely aztán hozzáférést enged a hackereknek. Tehát, ha biztonságra törekszel, akkor egy olyan hosting megoldást kell keresned, ami ezt kiküszöböli.

És természetesen problémákat okoznak a nem kellően erős jelszavak, melyek könnyen feltörhetők, és így elérhetővé válik egy fiók a hackerek számára.

XIII. A favicon: Egyre fontosabb, de hogyan használd SEO-szempontból?

A favicon egy apró dolog, ami egyre jelentősebbé válik a találati oldalakon. A Google 2019-ben módosított a mobilos találati oldala megjelenésén úgy, hogy megjelent az URL mellett a weboldalak faviconja, egy ideje pedig már az asztali gépes találatoknál is látható a favicon.

Hogy teljesen világos legyen, itt látható a változás, ami nemrég bekövetkezett a desktop találati oldalakon is:

A SEO-közösség a változás kapcsán egyből azt emelte ki, hogy az egész csak arról szól, hogy a reklámokat még nehezebb legyen megkülönböztetni az organikus találatoktól. A Google persze azzal magyarázta, hogy ezáltal a felhasználók könnyebben felmérhetik, hova kattintanak, a márka nyilvánvalóbbá, jobban láthatóvá válik számukra.

De nem ez a lényeg. A módosítás ugyanis azzal járt, hogy most már megjelenik a weboldalak faviconja a találati oldalakon, ez pedig azt jelenti a weboldaltulajdonosok számára, hogy jobban kell figyelni rá. A Google-nek ugyanis vannak irányelvei a faviconokra vonatkozóan, amit be kell tartani, így „bünteti” is azokat a weboldalakat, melyek nem tartják be azokat. Melyek ezek az irányelvek?

  • Mind a favicon fájljának, mind a kezdőlapnak feltérképezhetőnek kell lennie a Google által (vagyis nem lehetnek letiltva a Google elől).
  • A faviconnak a webhely márkájának vizuális reprezentációjának kell lennie annak érdekében, hogy a felhasználók gyorsan azonosíthassák a webhelyet, amikor átfutják a keresési találatokat.
  • A faviconnak olyan négyzetnek kell lennie, melynek oldalhossza 48-cal osztható. Állhat például 48 × 48, 96 × 96, 144 × 144 stb. képpontból. Az SVG-fájlok természetesen nem rendelkeznek konkrét mérettel.
  • A faviconok összes érvényes formátuma támogatott. A Google 16 × 16 képpontosra méretezi át a képet a keresési találatok között, ezért győződjön meg arról, hogy a favicon jól mutat ebben a felbontásban. Megjegyzés: Ne használjon 16 × 16 képpontos favicont. A favicon URL-jének állandónak kell lennie (ne változtassa gyakran az URL-t).
  • A Google nem jelenít meg olyan favicont, amely kifogásolhatónak minősül. Kifogásolható lehet többek között az, ha pornográfiát vagy gyűlöletkeltésre alkalmas szimbólumot (például horogkeresztet) tartalmaz. Ha ilyen típusú képet észlel, a Google alapértelmezett ikonnal helyettesíti a favicont.

A faviconnak már nem kell azonos domainen lennie a weboldallal

A Google 2023 elején frissítette a fejlesztői dokumentációját a faviconra vonatkozóan. A változás lényege az, hogy már nem kell azonos domainről szolgáltatni a favicont, ha azt szeretnénk, hogy megjelenjen a találati oldalakon. A Google konkrétan azt a mondatot távolította el a szövegből, mely szerint a favicon URL-jének azonos domainen kell lennie a weboldaléval.

A Google erre egy bejegyzésben is felhívta a figyelmet februárban:

És, hogy pontosan mi a büntetés, ha nem felel meg a favicon az irányelveknek? Mindössze annyi, hogy a weboldal által beállított favicont a Google lecseréli az alapértelmezett ikonra. De úgy tűnik, hogy a helyezés nem romlik emiatt a találati oldalakon. A lépésről egyébként nem értesíti a Google a weboldaltulajdonosokat, legalábbis az eddigi tapasztalatok ezt mutatják. Ugyanakkor az nem kizárt, sőt valószínű, hogy a jövőben ez változni fog, és mint más jelzéseket, a Search Console-on keresztül küldi majd el a weboldaltulajdonosoknak.

Amennyiben a weboldaltulajdonos észreveszi a favicon hiányát, akkor ott valószínűleg az irányelvek betartásával van gond. A javítás után a favicont akkor fogja megjeleníteni a Google, amint újra feltérképezi az oldalt. Tehát, ha favicont cseréltél, akkor egyből kérheted az oldal újraindexelését a Search Console-on keresztül, így a Google hamarosan rá is pillant az oldaladra. A gyakorlatban azonban úgy tűnik, hogy mintegy 24 órának el kell telnie, mire egy favicon változása a találati oldalakon megjelenik. Sőt, sokan arra panaszkodnak, hogy gyakran ennél is több idő kell hozzá.

IRATKOZZ FEL HÍRLEVELÜNKRE!
Érdekelnek a legfrissebb iparági hírek, legújabb blogbejegyzéseink?
Ajánlatkérés