Jön az AI és a Google SGE a kereséseknél: lesz még értelme a SEO-nak?

2024.05.03
Jön az AI és a Google SGE a kereséseknél: lesz még értelme a SEO-nak?

A Google SGE-vel (Search Generative Experience) a “tízes találati oldalakon” is megjelenik a mesterséges intelligencia. A folyamat pedig nyilván itt nem áll meg. Meddig van még értelme a hagyományos keresőoptimalizálásnak?

Jó pár országban és nyelven már elérhető a Google SGE a találati oldalakon, de már régóta működik a Microsoft Copilot is keresési célokra, illetve bármely mesterséges intelligenciával meghajtott csevegő-alkalmazás is jó megoldás lehet keresésre. Az AI-alapú keresés tehát elindult hódító útjára, és Sundar Pichai, a Google és az Alphabet vezérigazgatója szerint az embereknek eddigi tapasztalataik szerint tetszik is a dolog, úgyhogy ebbe az irányba tartanak.

Elfoglalja a keresést az AI

A Google SGE pedig még közelebb hozza mindenkihez az AI-alapú keresést, hiszen a hagyományos “tízes találati oldalakon” kínálja a mesterséges intelligencia által generált válaszokat. Egy vizsgálat szerint, ha már be van kapcsolva az opció az adott felhasználónál, akkor a keresések 86,83 százalékában jelenik meg valamilyen SGE-elem a találati oldalakon.

Viszont az ebben megjelenő linkek csak az esetek egy egészen kis töredékében (4,5%) egyeznek a találati oldal első oldalán egyébként megjelenő linkekkel, vagyis ebből az következik, hogy teljesen más a SEO-ja, mint az eddig megszokott. Ráadásul az AI válasza a hagyományos 10 találatot jelentős mértékben lejjebb is tolja az oldalon, gyakorlatilag kiszorítja hajtás alá.

google sge

Nálunk ez még inkább a jövő zenéje, ugyanakkor felmerül a kérdés, hogy milyen hatással lesz ez - illetve úgy összességében az AI térnyerése a kereséseknél - a weboldalak forgalmára nézve. Attól most tekintsünk el, hogy a Google algoritmusfrissítései az egyes weboldalak forgalmát legalább ennyire, ha nem még inkább veszélyeztetik - sok esetben megfejthetetlenül - mostanában, és már ez bizonytalanná teszi, hogy érdemes-e SEO-erőfeszítéseket tenni, hanem nézzük, mik a lehetőségek a mesterséges intelligencia korában.

Felére csökkenő organikus forgalom a weboldalakon

Talán nem meglepő, hogy a Gartner azt jósolja, hogy a weboldalaknak a találati oldalakról származó organikus forgalma 2028-ra a felére fog csökkenni.  Eddig az átlagos weboldalak esetében a forgalom 53 százaléka érkezett organikus keresésekből, ráadásul ez az organikus forgalom sok esetben jó minőségű forgalom volt, különösen a long tail kulsszavaknál, melyeket az SGE igencsak veszélyeztet a jellege miatt. A cég azonban 2028-ról beszél, egyelőre az átlagos magyar felhasználó nem találkozik az SGE-vel, mely még akkor sem jelenik meg egyébként minden találati oldalon, ha valaki használhatja már és regisztrált a Google Labsben. 

Ugyanakkor az eddigiek alapján az már látható, hogy az SGE használata vonzó lehet majd, hiszen a korábbinál összetettebb felhasználói kérdésekre is képes lesz választ adni. Ráadásul egy összefoglaló információs blokkot állít össze a keresett témában egyből a hajtás felett a felhasználó számára, akinek így nemhogy a weboldalak linkjeire nem kell kattintania, de még görgetnie sem. És persze, ha további infókat akar, mélyebben leásna bármely keresett témában, akkor persze az ajánlott linkekből válogathat, illetve kapcsolódó témákat sorol neki a Google. Nincs tehát indoka a tízes találati listát nézegetni.

Mivel az SGE-válasz lenyomja az organikus 10-es listát, ráadásul közvetlen választ ad a felhasználó kérdésére, így nagy eséllyel ezt fogják használni az emberek, ahogy eddig is jellemzően az első néhány találatra kattintottak csak. Egy másik becslés szerint mintegy 18-64 százalékos forgalomcsökkenésre számíthatnak a weboldalak a forgalomban. Hogy pontosan mekkorára, az a témától, azaz iparágtól is függ, a legnagyobb csökkenés (76%) az egészségügyi kereséseknél következhet be, ebben a témában tudja leginkább kiváltani az SGE a weboldalakra kattintgatást. 

Csökkenést hoz tehát az SGE a weboldalak számára az elkövetkező években, és gyakorlatilag kilöki őket sok esetben a találati oldalakról. Így eljutunk a kérdéshez, hogy

érdemes-e még keresőoptimalizálással foglalkozniuk a weboldaltulajdonosoknak?

Különösen abban az esetben merülhet fel a kérdés, ha a fentebb linkelt egyik kutatás azon megállapításából indulunk ki, hogy nem az első találatok között szereplő oldalakról válogatja a válaszokat a Google. Ez ugyanis azt jelenti, hogy a hagyományos SEO ahhoz sem feltétlenül segít hozzá, hogy esetleg az SGE-blokkba bekerüljön az oldal linkje.

Egyelőre viszont leginkább csak feltételezések vannak a “hogyan továbbal” kapcsolatban, mindenesetre a minőségi tartalom feltehetően a továbbiakban sem lesz megkerülhető, még ha a gyakorlatban sok ellenpéldát is találtunk erre - különösen a magyar nyelvű oldalaknál -, holott ez régóta evidencia. Úgy tűnik viszont, hogy a linkek tovább devalválódnak, és azok a megoldások működhetnek a leginkább, melyek a szofisztikáltabb SEO-tanácsadások során eddig is fel szoktak bukkani.

Az biztos, hogy a jó tartalom mellett továbbra is figyelni kell a kulcsszavakra, főként a long tail kulcsszavakra való optimalizálásra, a tartalmak hasznosságára és pontosságára, melynek összhangban kell lennie a felhasználói igényekkel. A szövegek minősége is nyilván alapvető fontosságú, illetve, hogy az egyes szövegrészek önállóan is megálljanak a lábukon, mivel az AI alapvatően részleteket ragad ki egy-egy nagyobb tartalomból.

Újdonságot tehát még nem nagyon lehet mondani a korábbi SEO-tanácsokhoz képest, egyelőre működnek a régi SEO-módszerek - bár a Google váratlan hatású algoritmusfrissítései miatt ez egyre kevésbé biztos -, ennek ellenére valamennyire a jövőre is fel kell készülni, ami nem 10-20 év múlva fog gyökeresen megváltozni, hanem éppen most.

Új bejegyzések

Mennyi időbe telik egy weboldal elkészítése?
2024.06.26
Habár a weboldalsablonok korában azt gondolhatnánk, hogy egy weboldal elkészítése ma már csak néhány napos munka, ez messze nem így van, mivel a weboldalkészítés feladata nem csak abból áll, hogy gyorsan összehegesztünk valamit, ami első pillantásra weboldalnak néz ki. Egy weboldal elkészítése néhány hét vagy több hónap is lehet. Hogy pontosan mennyi időt vesz igénybe, az a munka bonyolultságától, az ügyfél hozzáállásától és persze az erőforrások rendelkezésre állásától is függ. Részletesebben: Mennyire összetett a weboldal: egy egyszerű, egyoldalas landing page készítése nyilván gyorsabban megy, mint egy több ezer oldalas egyedi webáruházé.  Milyen speciális igényeket kell kielégíteni: ha az ügyfélnek egyéni elképzelései vannak a funkciókkal vagy a designnal kapcsolatban, akkor hosszabb ideig tart elkészíteni a weboldalát. Rendelkezésre áll-e a tartalom: szövegek, képek, videók. Ha ezeket is el kell készíteni, akkor az plusz idő. Egyeztetések és csiszolgatások: a készülő weboldal kapcsán mindig felmerülnek észrevételek, sor kerül megbeszélésekre, új igényeket kell megoldani. Ez a nem megfelelő tervezésből fakad, és minél több van belőle, annál több időt vesz igénybe a weboldal elkészítése. Azt is érdemes tudni, hogy a weboldal készítése nem egyetlen fázis, hanem a folyamata különböző szakaszokra bontható, melyekhez egy bizonyos időintervallum rendelhető. 1. Ötletelés és tervezés (1-2 hónap) A tervezés folyamata is több szakaszra bontható, hiszen eleve azt kell (vagy legalábbis kellene) világosan meghatároznia a weboldal tulajdonosának, hogy mit is akar pontosan elérni a weboldallal. Kik lesznek a látogatói? Mit akarnak majd ott csinálni? A gondolatokat érdemes leírni és megbeszélni, ami több hetet is igénybe vehet. Második körben jöhet az ötletelés arról, hogyan is nézzen ki a weboldal. Ezzel a szakasszal is eltelik néhány hét, amíg megtaláljuk azokat a weboldalakat, melyek jó kiindulópontot jelenthetnek. Figyelni kell a weboldalakon a színeket, a felépítést, a struktúrát és a funkciókat, melyek jól használhatók lehetnek a saját weboldalunkon is.  Végül még mindig a tervezési szakaszban járva, ezután következik csak az, hogy az eddigi ötletekből válogatva el kell dönteni, mi legyen a weboldalon és hogyan nézzen ki. Itt már gyakorlatilag el kell készíteni a weboldal vázlatát, akár papíron, akár egy szoftver segítségével.  Ez is több hetes munka, és nem érdemes elsietni, hiszen utólag jóval nehezebb, drágább és időigényesebb a változtatás, mint amennyi időt a megfelelő tervezéssel töltesz. Minél alaposabb a terved, annál gyorsabb lesz a kivitelezés. 2. Design és a kód (1-4 hónap) Ha már készen van a vázlat, akkor ezután azt fel kell öltöztetni: jönnek a színek, képek, betűtípusok, melyek meghatározzák a weboldal vizuális megjelenését. Gondold át, hogy az emberek mit akarnak érezni a weboldaladra lépve, és ehhez igazítsd a designelemeket. A weboldal vizuális designját egy webdesigner készíti el, mégpedig hetekig tartó munkával, melybe beletartoznak az egyeztetések, az észrevételek utáni korrekciók. A vizuális design elkészülte után neki lehet állni a "programozásnak", mely a legtöbb időt igényli: 1-2 hónappal mindenképpen számolni kell. Sokan azt gondolják, hogy a weboldalkészítés a kód megírása, pedig mint látható, hosszú munka előzi meg, és nem is fejeződik be a kódolás után.  Ennek a szakasznak a lényege, hogy a design működni kezdjen, a gomboknak és az űrlapoknak funkciója legyen, nem csak asztali gépen, hanem mobilokon is. Ez pedig időbe telik. 3. Tesztelés, javítás és élesítés (1-2 hét - 1 hónap) Ha elkészült a weboldal kódja, akkor hosszas tesztelés következik, hogy minden rendben van-e rajta, úgy működnek-e a dolgok, ahogy azt elképzeltük. Ezt ráadásul meg kell vizsgálni különböző eszközökön. Ha pedig valahol hibát találunk - márpedig lesz bőven -, akkor azt javítani kell, ami szintén nem mindig egyszerű, így a teszteléssel és javítással is eltelik néhány hét vagy akár egy hónap is.  Amennyiben rendben lévőnek látszik az oldal, jöhet az élesítés, vagy a publikussá tétel. Ez sem egy pillanat azonban, már csak azért sem, mert ilyenkor folyamatosak az ellenőrzések, hogy minden rendben van-e az oldallal. Mivel általában felmerülnek problémák élesítés után is, ezek megoldása megint csak idő. Csak ahhoz, hogy sikerüljön beüzemelni az oldalt és megbízhatóan működjön, legalább újabb egy-két hétre lesz szükség.  Ekkor mondhatjuk azt, hogy a weboldal kész, bár nyilván egy weboldal soha nincs kész. Frissíteni kell, igazodni a változásokhoz, ráadásul felmerülnek újabb és újabb problémák, melyeket rendbe kell tenni. Mindenesetre az indulástól a kilövésig egy átlagos esetet figyelembe véve a weboldal elkészítési ideje legalább 2-3 hónap, de sokszor inkább egy fél évről vagy még hosszabb időről beszélünk.
Tovább drágultak a Google Ads hirdetések, miközben egyre romlik a konverziós arányuk
2024.06.13
Nem (csak) mi mondjuk, hanem a statisztika is azt állítja már évről-évre, hogy a hirdetőknek egyre többe kerül elérni a vevőket a Google hirdetési rendszerében. Eközben a Google hasít: profitja újabb rekordokat ér el. A fizetett keresőhirdetések konverziós aránya folyamatosan romlik sok iparágban, ráadásul egyre többe kerül a keresőhirdetések révén leadeket elérni. Röviden ennyi a LocalIQ legújabb, 2024-es vizsgálatának eredménye. Tehát azt, aki esetleg nem hitte el a tavalyi év ezen trendet körvonalazó számait, az újabb adatok talán már meggyőzik, hogy nem igazán haladnak jó irányba a dolgok a Google Adsben, ahol már ki sem látnak a hirdetők a rájuk boruló automatizációk és a mesterséges intelligencia mögül.  Legalábbis a hirdetők számára nem feltétlenül jó az irány, a Google, illetve anyacége az Alphabet ugyanis jó formában van, hiszen legutóbb is rekordnyereségről számolt be. Vagyis a cégnek úgy sikerül több pénzt kicsikarnia a szolgáltatásaiért a marketingjével, hogy azok egyre rosszabbak, hiszen egyre gyengébb eredményeket tudnak velük elérni a hirdetők. Mutatjuk. A 2024-es vizsgálatban is az átlagos konverziós arányokat, a leadenkénti költséget (CPL), az átkattintási arányt (CTR) és a kattntások költségét (CPC) vizsgálták. Így kiderült, hogy az átlagos konverziós arány 6,96 százalékos. Ezzel szemben tavaly még 7,04 százalék volt, míg 2022-ben 7,85 százalék. A csökkenés üteme kétségtelenül lassult az elmúlt évben, és a 23 vizsgálat iparágból 12 növelni tudta a konverziós arányát. Ugyanakkor jelentős visszaesést voltak kénytelenek elkönyvelni olyan ágazatok, mint a pénzügy és biztosítás (32,4 százalékos csökkenés) vagy a fogorvosok (19,57 százalékos esés). A divattal és ékszerekkel foglalkozó cégeknél viszont 112 százalékos növekedésre kerül sor, illetve a karrier és munka területén 80,97 százalékos volt a javulás. Eközben a leadenkénti költségnél átlagosan 25 százalékos drágulásra került sor. A vizsgált 23 iparág közül 19 volt kénytelen növekvő költséggel szembenézni, igaz, egy évvel korábban még 27 százalékos volt a drágulás mértéke. Mindenesetre a CPL értéke a legújabb felmérés szerint 66,69 dollár, míg 2023-ban még 53,52 dollár volt, illetve 2022-ben 44,70 dollár. Azért ezeket a számokat tekintve kénytelen vagyunk beismerni, hogy elég elég komoly drágulásra került sor. Na, de lépjünk tovább egy pozitívabb adathoz: az átkattintási arány ugyanis 6,42 százalékot ért el, ami 5 százalékos növekedés, és az iparágak 70 százaléka esetében javulás történt. Sokra persze nem mennek vele a cégek az eladásokat tekintve, de azért jó látni, hogy míg 2022-ben még 5,91 százalékos volt az átkattintási arány, illetve 2023-ban 6,11 százalékos, most 6,42 százalékot ér el. Ami viszont már komolyabb hatással van a mérlegre, hogy a kattintásonkénti költség (CPC) átlagosan 10 százalékkal nőtt, és az iparágak 86 százalékát tekintve drágulás következett be.  Ez azért kellemetlen, mert ezt a többletet a hirdető cégeknek ki kell fizetni - mint láttuk - a kevesebb vevőért. Az ingatlanszektor, a sport és pihenés vagy a személyes szolgáltatások ennél jóval nagyobb, 25 százalékos drágulást kénytelen elkönyvelni. Mindez dollárban kifejezve egyébként 4,66, míg 2023-ban még 4,22 dollár volt, 2022-ben pedig éppen csak átlépett a 4 dolláros szinten. Ezek tehát a legújabb számok, az okokat most ne boncolgassuk, hiszen az messzire vezet, és nem is lenne egyszerű megtalálni a probléma okát, leginkább csak találgatásra futná. Mindenesetre érdemes figyelembe venni, amikor keresőhirdetésben gondolkodunk, hogy a gyengébb számok és a magasabb költségek nem csak egy-egy céget sújtanak - egy esetleges rossz hirdetésbeállítás vagy gyenge landing oldalak miatt - hanem összességében és trendszerűen jelentkeznek. Legalábbis a Google Ads esetében, ugyanis a vizsgálat arra is felhívja a figyelmet, hogy a Microsoft hasonló hirdetési platformján éppen ellenkező irányú a trend, tehát csökken a kattintásonkénti és a leadenkénti költség.  
Adatszivárgás a Google-nél: kiderült, mi is fontos valójában a SEO-ban?
2024.05.29
Jelentős mértékben alakíthatja át azt, amit eddig a SEO-ról gondoltunk, az a néhány napja nyilvánossá vált belső Google-dokumentum, mely feltételezések szerint keresési rangsorolási tényezőket sorol fel. Már amennyiben valóban a Google kereső működéséről szól. Sokak szerint fellebbent a fátyol a Google-kereső működéséről és valós rangsorolási tényezőiről, annak a jelentős oldalszámú dokumentumnak köszönhetően, mely még március elején jelent meg a GitHubon egy automatizált bot (yoshi-code-bot) révén, majd néhány héttel később - némi elemző munkát követően - Rand Fishkinnek, a SparkToro társalapítójának, a Moz korábbi vezetőjének köszönhetően vált nyilvánossá még május elején. Az adatok Erfan Azimi, az EA Eagle Digital digitális marketingügynökség vezérigazgatójának állítása szerint tőle kerültek Fishkinhez. Az információk egyébként a Google Content API Warehouse-ból származnak - mely egy belső verziója a nyilvános Document AI Warehouse áttekintésnek, mely hasonlóságot is mutat vele - , illetve egyes feltételezések szerint arra világítanak rá, hogy miként is működik a Google rangsorolási algoritmusa. Ennek kapcsán azért érdemes figyelembe venni, hogy itt egy “dokumentum-raktárról” van szó, tehát úgy tűnik, nem belső Google Search információk kerültek ki rangsorolásról és egyebekről, amit egyébként Fishkin sem állít (ellentétben Azimivel), pusztán belső Google-infókról van szó. Nagy kérdés, hogy a kiszivárgott adatoknak tényleg van-e közük a Google keresőhöz, vagy ahogy a neve is utal rá, csak egy külső API egy dokumentumtároló felépítéséhez. Ugyanakkor az információk így is árnyalják a SEO-ról eddig kialakított képet, annál is inkább, mivel abban megegyeznek a szakértők, hogy hiteles a dokumentum, tehát a Google-től származik. Azimi szerint ő is megmutatta korábbi Google-alkalmazottaknak a dokumentumokat, akik szintén megerősítették a hitelességét. De így járt el Fishkin is, aki három volt Google-alkalmazottal egyeztetett, és hasonló eredményre jutott. A Google viszont eddig nem nyilatkozott az ügyben. Mit állíthat a dokumentum, ha a keresésre vonatkoztatjuk? Fishkin, illetve az általa másik szakértőnek felkért Michail King, az iPullRank vezérigazgatója tehát ellenőrizte és elemezte a dokumentumokat, és néhány pontban összefoglalta, hogy mire jutott. És ha egyelőre kételyekkel közelítünk is hozzá, érdemes áttekinteni, mi is található benne, és milyen következtetést vonhatunk le a SEO-ra nézve, már ha valóban a keresésre vonatkozik, de most induljunk ki ebből. Az egyik legfontosabb megállapítás talán az lehet, hogy a Google szóvivőinek eddigi állításaival szemben a Google figyelembe veszi a felhasználói aktivitási adatokat. És persze az is fontos, hogy sok minden, amit eddig állítottak a rangsorolásról a Google szakemberei nem egészen úgy vannak, ahogy eddig mondták. A megállapítások: Az információk pontosak és márciusban még érvényben voltak. 2596 modulról tesz említést a dokumentáció, bennük 14 014 attribútummal. Csak a rangsorolási tényezőket sorolja fel, azok súlyozásáról nem tesz említést. King szerint olyan újra-rangsorolási tényezők szerepelnek benne, melyek egy-egy oldal pontszámát vagy annak rangsorolását módosítják vagy változtatják meg. Tartalmakat leértékelhet a Google olyan tényezők alapján, hogy például a link nem passzol a céloldalhoz, a találati oldali jelzések felhasználói elégedetlenséget mutatnak, a termékértékelések, a hely, a pontos egyezésű domain és a pornó jelenléte. A Google gyakorlatilag minden weboldalnak minden verzióját tárolja, melyet valaha indexelt. Tehát emlékszik minden változtatásra, ami egy adott weboldalon történt, ugyanakkor csak a legutolsó húsz változtatást használja fel az elemzéskor. A linkek fontosak: a linkek sokszínűsége és relevanciája továbbra is kulcsfontosságú tényező. A PageRank továbbra is működik: a főoldal PageRankjét figyelembe veszik a rangsorolásnál minden egyes aloldal esetében. A felhasználói kattintások számítanak a rangsorolásnál, ezeket mindenféle szempontból méri a Google a találati oldalakon: goodClicks, badClicks, lastLongestClicks, megtekintések, stb. A rövidebb tartalmak eredetiség alapján pontszámot kapnak 0-512 között, ahogy bizonyos témájú tartalmaknál is pontoz a Google, így például az egészség- vagy utazás-témáknál vagy a híreknél. King mindezek alapján azt a tanulságot vonta le, hogy a weboldalaknak “sikeres” kattintásokat kell lehetőleg gyűjteni minél több keresőkifejezésre, valamint a linkek sokszínűségére kell törekedni a jó helyezés érdekében. Tehát a minőségi forgalom növelésére kell törekedni, és ennek a forgalomnak jó felhasználó élményt kell nyújtani, ami azt jelzi a Google-nak, hogy az oldal megérdemli a rangsorolást. Egyébként az is kiderült, hogy a márkanév rendkívül fontos. Ezért Fishkin azt tanácsolja, hogy a cégeknek egy népszerű, jól ismert márka építésére kell törekedni az adott területen, mégpedig a Google-keresésen kívül, hogy aztán a Google-keresésben jól szerepelhessenek az oldalak. Az is figyelemre méltó, hogy miközben a Google korábban tagadta a weboldal-hitelességi pontszám létezését, úgy tűnik, hogy mégis használja.  A rangsorolásnál ugyancsak használja a Chrome böngészőből származó felhasználói adatokat, mind az egyes aloldalakra vonatkoztatva, mind a teljes dominre nézve. Úgy tűnik, hogy a Chrome-felhasználók teljes kattintási folyamatát figyelembe veszi a rangsorolásnál. (Amit egyébként szintén tagadtak a Google-szóvivők). Emellett vannak úgynevezett “fehérlistái” különböző téma-csoportokba tartozó domainekről, így például a választások vagy a Covid kapcsán. Ez azt jelenti, hogy bizonyos érzékeny témákban van arra befolyása, hogy milyen oldalak jelenjenek meg a keresésekre. A kis oldalakat külön értékeli, ugyanis erre létezik egy modulja, vagyis ez alapján segítheti vagy értékelhet le kisebb személyes oldalakat vagy blogokat. Ezt azonban pontosan nem lehet tudni a dokumentum alapján. További fontos tényezők: A frissesség számít: a Google figyelembe veszi az URL-ek és tartalmak dátumait a rangsorolásnál. Meghatározza, hogy egy tartalom a fő témájába tartozik-e egy oldalnak vagy sem. Tárolja a domainregisztrációs információkat. Az oldalak címei fontosak: a Google értékeli, hogy mennyire passzol egy oldal címe a keresőkifejezéshez. Ugyanakkor azt nem szabad elfelejteni, hogy mint korábban említettük, súlyozásról nem esik szó ezen rangsorolási tényezők kapcsán. Ez azt jelenti, hogy csak azért, mert valamiről szó esik az API-dokumentációban, annak mindjárt jelentős hatása van a keresési eredményekre (már ha egyáltalán a dokumentum a Google-keresésre vonatkozik). Nem véletlen, hogy szakértők egy része óvatosságra int az új információk alapján.  Emellett figyelembe kell venni, hogy a dokumentum - még ha teljesen pontos is és a kersésre vonatkozik - csak a pillanatnyi állapotát tükrözheti a rangsorolási tényezőknek, márpedig a változás folyamatos.  Mit jelent mindez a SEO-ra nézve? Mindenesetre néhány következtetés levontható a kiszivárgott információk alapján. Egyrészt az, hogy érdemes figyelni a kattintási adatokra és a felhasználói aktivitásra, mivel ezek közvetlen rangsorolási tényezők, a Google korábbi állításaival szemben. Vagyis fontosak a jó címek és aktivitásra késztető meta leírások, melyek az átkattintási arányt növelhetik. A felhasználói élmény javítása érdekében fontos a gyors oldal, a könnyű navigáció az oldalon és az az oldalon belüli továbbkattintás elérése, hogy csökkenjen a visszafordulási arány, mert ezt figyelembe veszi a Google. És nem csak a keresőből származó forgalom számít, hanem a közösségi média platformokról és az e-mailekből származó is, melyek szintén pozitív aktivitási jelzést küldenek. Mindez egyébként azt is jelenti, hogy a tartalmaknál kiemelkedő fontossága van a minőségnek és a relevanciának, de a kattintásokra, aktivitásra összpontosításnak a minőségi tartalmakat kell támogatnia, nem pedig helyettesítenie. A linkekkel is érdemes foglalkozni, mégpedig azt figyelembe véve, hogy azoknak a linkeknek, melyek átkattintást eredményeznek, illetve látogatottab oldalra mutatnak, nagyobb a súlyuk, mint a kevésbé népszerű oldalakra mutatóknak. Ez persze nem mond ellent annak, amit eddig is tudtunk a linképítés kapcsán.  Ami viszont egy új szempont lehet, hogy mennyire fontos a márkanév, hiszen, mint kiderült: a Google márkával kapcsolatos jelzéseket használ a rangsorolásnál. Ide olyan mérőszámok tartozhatnak, mint a márkaemlítések, keresések a márkanévre, illetve a márka tekintélye. A SEO-ban tehát ezentúl hangsúlyozni kell a márkaépítés, a márkaismertség, a tekintély és hitelesség fontosságát, ami nem csak az online-ra érvényes, hanem offline is. Utóbbi tehát a gyakorlatban azt jelenti, hogy fontosak a megbízható médiaoldalakról származó márkamlítesek, - megjelenések és persze az innen származó linkek. Használni kell a hagyományos PR-t, a hirdetések, a szponzorációkat a márkaépítéshez. Azt kell elérni, hogy minél több márkakeresés történjen, ehhez pedig más marketing csatornákat kell használni a keresőn kívül. Jót tesz egy aktív közösség a social media platformokon a márkának. Tekintély és hitelesség építése a szakértelem és annak bemutatása révén. A cél, hogy minél több felhasználó keressen rá a márkádra és kapcsolódjon hozzá, mivel ezek adnak pozitív jelzést a Google számára. Egyelőre ennyi, de az elkövetkező napokban hetekben még nyilván rengeteg elemzéssel fogunk találkozni a szakértők tollából, hiszen a kiszivárgott információk elegendő alapanyagot adnak most a tartalomkészítéshez SEO témában. Ugyanakkor az látható, hogy a SEO alapjai még akkor sem rendültek meg, ha valóban a keresésre vonatkozónak az infók, hiszen az továbbra is érvényes, hogy a jó minőségű, releváns, felhasználó-központú tartalom a legfontosabb továbbra is. Mindössze az derült ki, hogy más szempontokat is figyelembe vesz ennek értékelésére a Google, mint amiről eddig beszéltek. 
Mennyi idő alatt töltődik be most egy átlagos weboldal? És a tiéd?
2024.05.16
Mivel a weboldaltulajdonosok elviekben arra törekszenek, hogy gyorsabb legyen a weboldaluk, ezért a számokat tekintve folyamatos javulást kellene látnunk. Ez valóban látszik is az átlagokat tekintve, de a helyzet azért messze van a tökéletestől. Habár mindenki a gyorsabb weboldalakat szereti, és a Google is erre ösztönzi a weboldaltulajdonosokat a webes vitals mutatókon keresztül, így azt gondolhatnánk, hogy egyre jobb a helyzet ilyen tekintetben, lassan elérjük a pillanatok alatt betöltődő weboldalak korszakát. Sok weboldal esetében valóban így áll a helyzet, bőven akadnak azonban kivételek.  Egy vizsgálat alapján - melyet a webfigyeléssel foglalkozó DebugBear készített - az derül ki, hogy az átlagos weboldal főoldala egy átlagos látogató számára egészen pontosan 1,3 másodperc alatt töltődik be. Az adat a Google Chrome felhasználói élmény jelentésén (CrUX) alapul, mely valós számokat gyűjt több millió weboldalról, és a legnagyobb vizuális tartalomválaszt (Largest Contentful Paint, LCP) veszi figyelembe. Ez a szám azt mutatja, hogy mikor válik láthatóvá a weboldalra megérkező felhasználó számára a fő tartalmi elem. (Forrás: DebugBear) Az 1,3 másodperc egyébként nem átlag, hanem mediánérték, tehát a weboldalak legnagyobb számban ilyen értéket mutatnak. Ugyanakkor az adatok rendkívüli módon szórnak, így megerősítik a felhasználók által webes böngészés közben tapasztaltakat, jelesül azt, hogy akadnak “tetű lassú” weboldalak a weben. A mobil weboldalak 25 százalékán a felhasználóknak 2,1 másodpercet kell várnia az oldal fő elemének betöltődésére. Ugyanakkor a leglassabb egy százalék esetében ugyanez az átlagérték már 5,7 másodperc mobilon. Egyébként a legrosszabb 10 százalék esetében a felhasználók 10 százalékának több mint 5 másodpercet kell várnia a fő tartalmi elem megjelenésére.  (Forrás: DebugBear) Az is lényeges megállapítása ugyanakkor a vizsgálatnak, hogy még a gyorsabb weboldalak esetében is előfordulnak olyan oldalmegtekintések, melyek túl lassúak. Az adatok ugyanis nagyon változatosak attól függően, hogy milyen eszközről vagy földrajzi elhelyezkedésről van szó a felhasználó esetében: az asztali gépes weboldalak jellemzően gyorsabbak, mint a mobilon megjelenők: előbbiek 1,1 másodperc alatt töltődnek be átlagosan az LCP-t figyelembe véve, utóbbiak 1,4 másodperc alatt. Míg a mobilos weboldalak 25 százaléka esetében egy másodperc alatt van az LCP értéke, addig 10 százalékuknál 4 másodperc felett. A jelentés világossá tette, hogy a hálózati sebesség és az eszköz processzorsebessége meghatározza azt, hogy milyen gyorsan töltődnek be az oldalak, és ez jelentős eltéréseket okoz az egyes országokban elérhető sebességek között is.  (Forrás: DebugBear) A tanulmány azt is megállapította, hogy a népszerűbb weboldalak általában gyorsabbak: a top 1000 oldal esetében az LCP mediánértéke 1,1 másodperc, míg a top 10 millió esetében 1,4 másodperc. Az eltérések ellenére azt lehet látni, hogy a weboldalak gyorsabbá váltak az elmúlt években. És nem csak az LCP-t hanem más mérőszámokat, így például az első vizuális tartalomválaszt (FCP) tekintve is. Utóbbi azért lehet érdekes, mert míg az LCP esetében annak meghatározása némileg változott, addig az első vizuális tartalomválasz meglehetősen stabil fogalom.  A növekedéshez persze nem a weboldaltulajdonosok nagy igyekezete vezetett, hanem leginkább az, hogy az idők folyamán gyorsabbá váltak az eszközök és a hálózatok is, miközben maga a Chrome böngésző is jobban optimalizált lett. (Forrás: DebugBear) A tanulmány szerint a lényeg tehát, hogy a weboldalsebességek folyamatosan javulnak, még ha az eltérések jelentősek is a weboldalak között. Ugyanakkor mivel a felhasználók sokféle weboldalt meglátogatnak nap mint nap, belefutnak olyanokba is, melyek rendkívül lassúak, ezért az a benyomásuk támadhat, hogy továbbra sincs javulás a weboldalsebességeknél.  És a Te weboldalad mennyire gyors? Ehhez nézz rá a webes vitals mutatóknál az LCP értékre a felhasználói élmény jelentésnél. Ha találsz olyan szegmenst, ahol problémát jelez a Google, akkor érdemes lehet némi sebességoptimalizálásba kezdeni. Ha külföldi felhasználóid is vannak, akkor országonként is érdemes vizsgálni a helyzetet. Ha gyenge értékeket találsz egyes helyszíneken, akkor érdemes lehet elgondolkodni a CDN használatán.  
Mégtöbb hasznos cikk Mégtöbb hasznos cikk

Ajánlott cikkek a témában

Adatszivárgás a Google-nél: kiderült, mi is fontos valójában a SEO-ban?
Adatszivárgás a Google-nél: kiderült, mi is fontos valójában a SEO-ban?
2024.05.29
Jelentős mértékben alakíthatja át azt, amit eddig a SEO-ról gondoltunk, az a néhány napja nyilvánossá vált belső Google-dokumentum, mely feltételezések szerint keresési rangsorolási tényezőket sorol fel. Már amennyiben valóban a Google kereső működéséről szól. Sokak szerint fellebbent a fátyol a Google-kereső működéséről és valós rangsorolási tényezőiről, annak a jelentős oldalszámú dokumentumnak köszönhetően, mely még március elején jelent meg a GitHubon egy automatizált bot (yoshi-code-bot) révén, majd néhány héttel később - némi elemző munkát követően - Rand Fishkinnek, a SparkToro társalapítójának, a Moz korábbi vezetőjének köszönhetően vált nyilvánossá még május elején. Az adatok Erfan Azimi, az EA Eagle Digital digitális marketingügynökség vezérigazgatójának állítása szerint tőle kerültek Fishkinhez. Az információk egyébként a Google Content API Warehouse-ból származnak - mely egy belső verziója a nyilvános Document AI Warehouse áttekintésnek, mely hasonlóságot is mutat vele - , illetve egyes feltételezések szerint arra világítanak rá, hogy miként is működik a Google rangsorolási algoritmusa. Ennek kapcsán azért érdemes figyelembe venni, hogy itt egy “dokumentum-raktárról” van szó, tehát úgy tűnik, nem belső Google Search információk kerültek ki rangsorolásról és egyebekről, amit egyébként Fishkin sem állít (ellentétben Azimivel), pusztán belső Google-infókról van szó. Nagy kérdés, hogy a kiszivárgott adatoknak tényleg van-e közük a Google keresőhöz, vagy ahogy a neve is utal rá, csak egy külső API egy dokumentumtároló felépítéséhez. Ugyanakkor az információk így is árnyalják a SEO-ról eddig kialakított képet, annál is inkább, mivel abban megegyeznek a szakértők, hogy hiteles a dokumentum, tehát a Google-től származik. Azimi szerint ő is megmutatta korábbi Google-alkalmazottaknak a dokumentumokat, akik szintén megerősítették a hitelességét. De így járt el Fishkin is, aki három volt Google-alkalmazottal egyeztetett, és hasonló eredményre jutott. A Google viszont eddig nem nyilatkozott az ügyben. Mit állíthat a dokumentum, ha a keresésre vonatkoztatjuk? Fishkin, illetve az általa másik szakértőnek felkért Michail King, az iPullRank vezérigazgatója tehát ellenőrizte és elemezte a dokumentumokat, és néhány pontban összefoglalta, hogy mire jutott. És ha egyelőre kételyekkel közelítünk is hozzá, érdemes áttekinteni, mi is található benne, és milyen következtetést vonhatunk le a SEO-ra nézve, már ha valóban a keresésre vonatkozik, de most induljunk ki ebből. Az egyik legfontosabb megállapítás talán az lehet, hogy a Google szóvivőinek eddigi állításaival szemben a Google figyelembe veszi a felhasználói aktivitási adatokat. És persze az is fontos, hogy sok minden, amit eddig állítottak a rangsorolásról a Google szakemberei nem egészen úgy vannak, ahogy eddig mondták. A megállapítások: Az információk pontosak és márciusban még érvényben voltak. 2596 modulról tesz említést a dokumentáció, bennük 14 014 attribútummal. Csak a rangsorolási tényezőket sorolja fel, azok súlyozásáról nem tesz említést. King szerint olyan újra-rangsorolási tényezők szerepelnek benne, melyek egy-egy oldal pontszámát vagy annak rangsorolását módosítják vagy változtatják meg. Tartalmakat leértékelhet a Google olyan tényezők alapján, hogy például a link nem passzol a céloldalhoz, a találati oldali jelzések felhasználói elégedetlenséget mutatnak, a termékértékelések, a hely, a pontos egyezésű domain és a pornó jelenléte. A Google gyakorlatilag minden weboldalnak minden verzióját tárolja, melyet valaha indexelt. Tehát emlékszik minden változtatásra, ami egy adott weboldalon történt, ugyanakkor csak a legutolsó húsz változtatást használja fel az elemzéskor. A linkek fontosak: a linkek sokszínűsége és relevanciája továbbra is kulcsfontosságú tényező. A PageRank továbbra is működik: a főoldal PageRankjét figyelembe veszik a rangsorolásnál minden egyes aloldal esetében. A felhasználói kattintások számítanak a rangsorolásnál, ezeket mindenféle szempontból méri a Google a találati oldalakon: goodClicks, badClicks, lastLongestClicks, megtekintések, stb. A rövidebb tartalmak eredetiség alapján pontszámot kapnak 0-512 között, ahogy bizonyos témájú tartalmaknál is pontoz a Google, így például az egészség- vagy utazás-témáknál vagy a híreknél. King mindezek alapján azt a tanulságot vonta le, hogy a weboldalaknak “sikeres” kattintásokat kell lehetőleg gyűjteni minél több keresőkifejezésre, valamint a linkek sokszínűségére kell törekedni a jó helyezés érdekében. Tehát a minőségi forgalom növelésére kell törekedni, és ennek a forgalomnak jó felhasználó élményt kell nyújtani, ami azt jelzi a Google-nak, hogy az oldal megérdemli a rangsorolást. Egyébként az is kiderült, hogy a márkanév rendkívül fontos. Ezért Fishkin azt tanácsolja, hogy a cégeknek egy népszerű, jól ismert márka építésére kell törekedni az adott területen, mégpedig a Google-keresésen kívül, hogy aztán a Google-keresésben jól szerepelhessenek az oldalak. Az is figyelemre méltó, hogy miközben a Google korábban tagadta a weboldal-hitelességi pontszám létezését, úgy tűnik, hogy mégis használja.  A rangsorolásnál ugyancsak használja a Chrome böngészőből származó felhasználói adatokat, mind az egyes aloldalakra vonatkoztatva, mind a teljes dominre nézve. Úgy tűnik, hogy a Chrome-felhasználók teljes kattintási folyamatát figyelembe veszi a rangsorolásnál. (Amit egyébként szintén tagadtak a Google-szóvivők). Emellett vannak úgynevezett “fehérlistái” különböző téma-csoportokba tartozó domainekről, így például a választások vagy a Covid kapcsán. Ez azt jelenti, hogy bizonyos érzékeny témákban van arra befolyása, hogy milyen oldalak jelenjenek meg a keresésekre. A kis oldalakat külön értékeli, ugyanis erre létezik egy modulja, vagyis ez alapján segítheti vagy értékelhet le kisebb személyes oldalakat vagy blogokat. Ezt azonban pontosan nem lehet tudni a dokumentum alapján. További fontos tényezők: A frissesség számít: a Google figyelembe veszi az URL-ek és tartalmak dátumait a rangsorolásnál. Meghatározza, hogy egy tartalom a fő témájába tartozik-e egy oldalnak vagy sem. Tárolja a domainregisztrációs információkat. Az oldalak címei fontosak: a Google értékeli, hogy mennyire passzol egy oldal címe a keresőkifejezéshez. Ugyanakkor azt nem szabad elfelejteni, hogy mint korábban említettük, súlyozásról nem esik szó ezen rangsorolási tényezők kapcsán. Ez azt jelenti, hogy csak azért, mert valamiről szó esik az API-dokumentációban, annak mindjárt jelentős hatása van a keresési eredményekre (már ha egyáltalán a dokumentum a Google-keresésre vonatkozik). Nem véletlen, hogy szakértők egy része óvatosságra int az új információk alapján.  Emellett figyelembe kell venni, hogy a dokumentum - még ha teljesen pontos is és a kersésre vonatkozik - csak a pillanatnyi állapotát tükrözheti a rangsorolási tényezőknek, márpedig a változás folyamatos.  Mit jelent mindez a SEO-ra nézve? Mindenesetre néhány következtetés levontható a kiszivárgott információk alapján. Egyrészt az, hogy érdemes figyelni a kattintási adatokra és a felhasználói aktivitásra, mivel ezek közvetlen rangsorolási tényezők, a Google korábbi állításaival szemben. Vagyis fontosak a jó címek és aktivitásra késztető meta leírások, melyek az átkattintási arányt növelhetik. A felhasználói élmény javítása érdekében fontos a gyors oldal, a könnyű navigáció az oldalon és az az oldalon belüli továbbkattintás elérése, hogy csökkenjen a visszafordulási arány, mert ezt figyelembe veszi a Google. És nem csak a keresőből származó forgalom számít, hanem a közösségi média platformokról és az e-mailekből származó is, melyek szintén pozitív aktivitási jelzést küldenek. Mindez egyébként azt is jelenti, hogy a tartalmaknál kiemelkedő fontossága van a minőségnek és a relevanciának, de a kattintásokra, aktivitásra összpontosításnak a minőségi tartalmakat kell támogatnia, nem pedig helyettesítenie. A linkekkel is érdemes foglalkozni, mégpedig azt figyelembe véve, hogy azoknak a linkeknek, melyek átkattintást eredményeznek, illetve látogatottab oldalra mutatnak, nagyobb a súlyuk, mint a kevésbé népszerű oldalakra mutatóknak. Ez persze nem mond ellent annak, amit eddig is tudtunk a linképítés kapcsán.  Ami viszont egy új szempont lehet, hogy mennyire fontos a márkanév, hiszen, mint kiderült: a Google márkával kapcsolatos jelzéseket használ a rangsorolásnál. Ide olyan mérőszámok tartozhatnak, mint a márkaemlítések, keresések a márkanévre, illetve a márka tekintélye. A SEO-ban tehát ezentúl hangsúlyozni kell a márkaépítés, a márkaismertség, a tekintély és hitelesség fontosságát, ami nem csak az online-ra érvényes, hanem offline is. Utóbbi tehát a gyakorlatban azt jelenti, hogy fontosak a megbízható médiaoldalakról származó márkamlítesek, - megjelenések és persze az innen származó linkek. Használni kell a hagyományos PR-t, a hirdetések, a szponzorációkat a márkaépítéshez. Azt kell elérni, hogy minél több márkakeresés történjen, ehhez pedig más marketing csatornákat kell használni a keresőn kívül. Jót tesz egy aktív közösség a social media platformokon a márkának. Tekintély és hitelesség építése a szakértelem és annak bemutatása révén. A cél, hogy minél több felhasználó keressen rá a márkádra és kapcsolódjon hozzá, mivel ezek adnak pozitív jelzést a Google számára. Egyelőre ennyi, de az elkövetkező napokban hetekben még nyilván rengeteg elemzéssel fogunk találkozni a szakértők tollából, hiszen a kiszivárgott információk elegendő alapanyagot adnak most a tartalomkészítéshez SEO témában. Ugyanakkor az látható, hogy a SEO alapjai még akkor sem rendültek meg, ha valóban a keresésre vonatkozónak az infók, hiszen az továbbra is érvényes, hogy a jó minőségű, releváns, felhasználó-központú tartalom a legfontosabb továbbra is. Mindössze az derült ki, hogy más szempontokat is figyelembe vesz ennek értékelésére a Google, mint amiről eddig beszéltek. 
Tovább olvasom Tovább olvasom
IRATKOZZ FEL HÍRLEVELÜNKRE!
Érdekelnek a legfrissebb iparági hírek, legújabb blogbejegyzéseink?
Ajánlatkérés