SEO

[SEO Alapok] A keresőoptimalizálásról kezdőknek

7 perc olvasási idő keresőoptimalizálás bevezető

Mit értünk keresőoptimalizálás alatt?

A keresőoptimalizálás kifejezés mellett gyakran találkozhatunk a SEO mozaik szóval, mely az angol Search Engine Optimization kifejezésnek felel meg.

Amikor “keresőoptimalizáljuk” a webfelületünket, arra törekszünk, hogy minél inkább megfeleljünk a keresőmotorok (Google, Bing, Yahoo stb.) rangsorolási faktorainak, ezáltal pedig előrébb jussunk a találati oldalakon.

Mindezt azért, mert az átkattintások jelentős része jellemzően az első oldalon megjelenő találatok között oszlik meg, azon belül is az első három organikus (nem kattintás alapú hirdetés miatt megjelenő) találat szerzi a legtöbb kattintást.

Google találati lista heatmap

A fenti hőtérképen jól látható, hogy a kattintások jelentős része a piros területen történt, azaz az első három organikus találaton.

Miért jó ez nekünk?

Azért, mert az organikus találatokra történő kattintások esetében gyakorlatilag nem kell semmit sem fizetnünk az elért látogatókért, szemben a PPC (Pay Per Click) hirdetésekkel, mint például a Google Ads.

Fizetett és organikus találatok a Google találati oldalán

Ez alapján láthatjuk, hogy a Google találati oldalát (vagy más néven SERP-et – Search Engine Result Page) két tartalmi részre bonthatjuk: a lap tetején, illetve bizonyos kifejezések keresése esetén a lap alján vagy akár az oldalán is fizetett hirdetések jelennek meg.

A többi részén pedig azok a találatok, amiről a Google egy összetett folyamat alapján úgy ítélte meg, hogy a tartalom annyira releváns, hogy emiatt alanyi jogon érdemel helyet az “ingyenes” találatok között.

Ez a két csoport képezi a keresőmarketinget, melyre rövid idő alatt egy egész iparág épült.

Mi történik a Google keresés során?

Amennyiben még csak információkat gyűjtünk a SEO működéséről, érdemes pár percet rászánni a lenti videó megtekintésére, mert bár több mint 10 éve került publikálásra, még mindig aktuális a tartalma:

Amikor beírunk egy kereső kifejezést a Google-be, a rendszer a másodperc tört része alatt listázza ki nekünk a témában releváns találatokat.

Ahhoz, hogy erre ilyen rövid idő alatt és ilyen pontossággal képes legyen, három lépésen megy keresztül újra meg újra.

A Google keresőrobotok (Google bot) folyamatosan pásztázzák az interneten elérhető tartalmakat. Linkről-linkre ugrálva térképezik fel az oldalakat és amennyiben a talált tartalmak megfelelnek a feltételeiknek, adatbázisba veszik, vagyis indexelik őket.

Így tehát, amikor beírásra kerül egy kereső kifejezés, a Google a saját – extrém méretű – adatbázisából válogathatja le a keresésnek megfelelő leginkább releváns oldalakat, tehát rangsorolja a tartalmakat.

A sorba rendezést több száz szempont alapján végzi el. Ezen szempontok egy nagy részét ismerjük, ugyanakkor azt nem tudjuk pontosan, hogy a rangsor kialakításáért felelős algoritmus mennyire súlyozottan vesz figyelembe egy-egy tényezőt.

Persze az eddigi tapasztalatok alapján ki lehet következtetni, hogy mik azok a legfontosabb rangsorolási faktorok, amik követésével látványosabb eredményeket lehet elérni.

A keresőoptimalizálás területei

A keresőoptimalizálás alapvetően három nagy csoportba osztható:

  1. Technikai SEO
  2. Tartalmi SEO/On-page vagy on-site SEO
  3. Off-page SEO – viszontlinkek mennyisége és minősége

Technikai SEO

A technikai SEO esetében a boltunk felépítésére kell gondolnunk.

Törekednünk kell arra, hogy a webáruházunk felhasználóbarát legyen. Tehát megfelelően jelenjen meg asztali nézetben és mobilon egyaránt, a látogatók könnyen el tudjanak igazodni az oldalon, ne bukkanjanak olyan tartalmakra, amik már nem elérhetők az áruházban (404-es oldalak) vagy ne kelljen perceket várni egy oldal betöltésére és az áruház mindig elérhető legyen.

Tartalmi SEO

A tartalmi SEO tekintetében arra kell törekednünk, hogy a webáruházban fellelhető tartalmak a lehető legoptimálisabban kerüljenek megszerkesztésre.

  • Szerepeljen rajta az aloldalhoz tartozó legfontosabb, releváns kulcsszavunk
  • A hosszabb tartalmakat tagoljuk címsorokkal (h1, h2, h3 stb.)
  • Ne felejtsük el kitölteni a Meta adatokat és a képek alt tagjeit
  • Figyeljünk arra, hogy keresőbarát URL-eket alkalmazzunk a boltban.

A tartalmunk legyen egyedi, kerüljük a más felületekről átvett szövegeket és leírásokat és törekedjünk arra, hogy az informcáió, amit átadunk szórakoztasson és valóban hasznára váljék a látogatónknak.

Off-page SEO

Az off-page SEO pedig tulajdonképpen az áruházra mutató hivatkozások megszerzését jelenti, ez más néven a linkmarketing vagy linképítés.

Itt már nem jó stratégia az, ha csak a mennyiségre koncentrálunk, ugyanis a Google figyelembe veszi azt is, hogy honnan érkeznek ezek a hivatkozások.

Itt is fontos, hogy témában releváns felületről kapjunk viszontlinkeket (backlink), természetes vagy legalább annak tűnő folyamat során. Tehát nem kell azt várnunk, hogy valaki végre önszántából megemlítsen minket a saját oldalán, írhatunk akár vendégcikkeket is a visszamutató linkekért cserébe.

Képzeljük el úgy ezeket a linkeket, mint egy-egy szavazatot olyan oldalakról, amiket a Google az adott témában relevánsnak ítél meg. Ezek a felületek már rendelkeznek egyfajta linkerővel és azáltal, hogy hivatkoznak ránk, mi is szerezhetünk egy kicsit ebből az erőből.

Ezen az elven elindulva azt is láthatjuk, hogy akár a hátrányunkra is válhat ez a technika, abban az esetben, ha olyan oldalról kapunk linket, amit esetleg negatívan értékelnek a keresők, sőt akár valamilyen büntetéssel is sújtotta őket a Google.

A Pingvin névre keresztelt algoritmusnak köszönhetően már nem kaphat a webáruházunk konkrét értelemben vett büntetést abban az esetben, ha nem minőségi viszontlinkekkel rendelkezik a boltunk.

Ezeket a linkeket egyszerűen nem veszi számításba a Google, így a linkek elvesztésével a helyezéseink eshetnek, de nem súlyt büntetéssel minket a kereső.

Google algoritmusok és hatásuk

Az első algoritmus frissítések előtt a keresőkben előre kerülni – kis túlzással – annyira egyszerű volt, mint a faék. Szinte minden olyan trükköt bevethettünk, aminek hallatán ma már elkerekedett szemmel tiltakoznánk, ha valaki ezeket az eszközöket ajánlaná nekünk.

Nyugodtan használhattunk duplikált tartalmakat, halmozhattuk a kulcsszavakat, nem volt gond, ha a szöveg élvezhetetlenné vált a SEO trükkök miatt, sőt az uralta a keresőket, aki több katalóguslinket tudta szerezni.

A keresőmotor emiatt nem tudta kiszolgálni a felhasználói igényeket, vagyis azt, hogy a keresés során rövid időn belül a célunknak megfelelő találatra bukkanjunk.

Ahhoz, hogy a Google a lehető legrelevánsabb és legjobb információkat nyújtó találatokat tudja listázni, alapvető változtatásokat kellett eszközölnie.

A 2011-es Panda algoritmussal pedig elindult a folyamatos algoritmus frissítések korszaka.

Megszületett a White hat, Gray Hat és Black Hat SEO fogalma.

Ezek közül a “fehér kalapos SEO” természetesen etikus eszközökkel próbálja segíteni az oldalakat, a “fekete kalapos SEO” esetében úgy optimalizálják a felületeket, amivel nem csak a keresőrobotokat, de a felhasználóinkat is megtévesztik, a “szürke kalapos SEO” pedig a kettő közötti vékony vonalat jelenti.

Az összes eddigi algoritmus frissítést a Moz.com oldalán időrendi sorrendben megtekinthetjük.

Mi a továbbiakban csak azokat a frissítéseket mutatjuk be, amelyek alapvetően megváltoztatták a keresések minőségét és ezzel együtt a SEO szempontokat is.

1. A Panda algoritmus

A Panda volt az első olyan frissítés, amely elindította a rendszeres algoritmus frissítések korszakát. A Panda leginkább a szöveges tartalmakat érintette és alapjaiban rendezte át a találati listákat.

Segítségével a Google ki tudta szűrni a gyenge minőségű, másolt tartalmakat illetve az olyan túloptimalizált oldalakat, ahol a kulcsszóhalmozás következtében már élvezhetetlenné vált a szöveg. De azok a honlaptulajdonosok is rosszul jártak, akik teljesen irreleváns kifejezésekre optimalizáltak, ezzel megtévesztve a látogatóikat.

A Panda 2016 óta része az alap algoritmusnak, tehát az alap algoritmus frissítésekor valószínűleg a Panda is vele frissül, de itt nem beszélhetünk valós idejű futásról. A frissítések bizonyos időközönként manuálisan indulnak el.

2. A Pingvin algoritmus

A Panda mellett jelentős változást hozott a Pingvin, amely a linkek minőségét, az oldalak linkprofilját vizsgálja. Indulásának idejében büntető algoritmusnak számított, ez az évek során – ahogy fentebb is írtuk – finomodott.

A frissítésnek az volt a célja, hogy kizárja a találatok közül azokat az oldalakat, akik manipulációs céllal építettek linkprofilt, annak érdekében, hogy előrébb kerüljenek a találati listákon. Ezzel megszűnt a linkfarmok kora is.

Mindezt úgy, hogy nemcsak az adott aloldalt vizsgálta, hanem a linkelő oldal teljes felépítését. Így azt, hogy:

  • található-e az oldalon minőségi szöveges tartalom
  • van-e valamilyen funkciója az oldalon annak a linknek, például egy releváns tartalommal bíró cikkben említjük meg benne a másik aloldalt, mint további információt stb.

Mára a Pingvin szintén részévé vált az alap algoritmusnak, azonban valós idejű lett. Tehát attól függően, hogy mikor térképezte fel az oldalunkat a Google, rövid időn belül láthatjuk a helyezésekben a változásokat és nem kell hónapokat várnunk egy manuális frissítésre.

3. A Kolibri algoritmus

A Kolibri hatására a keresés fokozatosan szemantikussá vált. Ez azt jelenti, hogy a keresési szándékot próbálja kitalálni a Google, és ennek megfelelően ad ki találatokat.

Emellett pedig a felhasználó preferenciáit is figyeli:

  • milyen oldalakat látogatott meg korábban,
  • milyen eszközről böngésznek a látogatók,
  • de akár azt is, hogy azok, akik korábban rákerestek erre a kifejezésre, milyen további keresőszavakat írtak be és ezek alapján próbálja meg kiadni, illetve rangsorolni a legmegfelelőbb találatokat.

4. A Mobile algoritmus

Már 2015-öt megelőzően is fontos szerepet töltött be a felhasználói élmény kapcsán az, hogy egy oldalnak legyen megfelelő mobilos verziója is, azonban a Mobil(barát) algoritmus ennek még nagyobb jelentőséget adott.

Így előnybe kerültek azok az oldalak, amik megfeleltek a Google mobilbarát felépítéssel kapcsolatos irányelveinek és pozíciókat veszthettek azok, akik nem készültek fel a változásra.

Ugyanis a Google, tőle szokatlan módon ezt a változtatást hónapokkal előre bejelentette, hogy legyen ideje felkészülni a webmestereknek. Éppen emiatt ez a változtatás nem okozta a találati listák tömeges átrendeződését.

Emellett pedig ez az algoritmus is valós időben fut, így amennyiben egy hátrányosan érintett oldal odafigyel a mobilos megjelenésre is és javítja a jelzett hibákat, amint újra feltérképezi a tartalmat a kereső, javulhat a helyezésünk is.

5. A Rankbrain algoritmus

A 2015-ös Rankbrain a Kolibri algoritmus része. Gyakorlatilag egy mesterséges intelligencia, amely segít a keresőknek a keresési szándék (search intent) megértésében.

Megpróbálja értelmezni az olyan keresési lekérdezéseket, amire még nem volt példa és visszafejteni egy könnyebben kezelhető kulcsszóra, így megjelenítve a kapcsolódó találatokat.

Megjelenése után a Google-nél kijelentették, hogy a minőségi tartalom és a linkek mellett gyakorlatilag ez a harmadik legfontosabb rangsorolási tényező, majd egy mondatban összefoglalták a lényegét: amennyiben a tartalom nincs túloptimalizálva és a lehető legtermészetesebb hatást kelti, máris optimalizáltunk a Rankbrain-re.

Próbáljuk úgy megírni ezeket a szövegeket, mintha csak egy beszélgetés zajlana az emberek között és használjuk a témakörre jellemző kifejezéseket.

6. A BERT algoritmus

Amikor ez a frissítés elindult, a Google azt mondta róla, hogy ”talán a legnagyobb lépés a keresés történetében”. A frissítés lényege az volt, hogy ezzel egyszerűbben tudják értelmezni a felhasználói kereséseket. A mesterséges intelligencián alapuló BERT-tel a Google jobban meg tudja érteni a keresés szándékát és így sokkal jobb találatokat adhat a felhasználónak. Ez a frissítés nem váltotta le a Rankbraint, hanem azt kiegészítve, néha helyettesítve azt működik.

7. A Page Experience update

Ennek a frissítésnek a leglényegesebb része a Core Web Vitals megjelenése volt, amely három speciális mutatószámot takar. Ezek a weboldal sebességét és a felhasználói interakciót mérő mutatók:

  • Legnagyobb Vizuális Tartalomválasz (Large Contentful Paint – LCP)
  • Első reakciótól számított válaszkésés (First Input Delay – FID )
  • Elrendezés összmozgása (Cumulative Layout Shift – CLS )

A Google azzal indokolta ezt a frissítést, hogy a kutatásaik azt bizonyítják, hogy a felhasználók előnyben részesítik azokat az oldalakat, amelyek jó oldalélményt nyújtanak és jól használhatók. Ugyanakkor azt is jelezték, hogy továbbra is a minőségi, releváns tartalom a fontos, ezeket a mutatókat inkább csak különbségtételre fogják használni két hasonló oldal között.

Legfrissebb bejegyzések

Előző bejegyzés:
Rekordméretű befektetés a Cápáktól

Új sorozatot olvashattok tőlünk, amelyben a Cápák között című RTL Klubon futó befektető műsor ...Elolvasom

Close