Semalt: Mi az a Googlebot?



  1. Bevezetés
  2. Mi a Googlebot?
  3. Miért kell aggódnia a Googlebot miatt?
  4. Miért nem térképezi fel a Googlebot egyes webhelyek összes oldalát?
  5. Hogyan optimalizálhatja webhelyét a Googlebot költségkeretének maximalizálása érdekében
  6. Következtetés

Bevezetés

Tudja, hogy a Google hogyan talál forrásokat a kereséshez? Ahogy azt széles körben elterjedt vélekedés képezi, a Google nem egy mindentudó szellem, amely tudja, miről szól minden online tartalom. Nem valamiféle pszichikus, aki tudja, hol a pontos válasz a kérdésre.

Mint minden más keresőmotornak, ennek is van szoftvere, amely másodpercenként milliárdnyi oldalt (és webhelyet) mász át, hogy információkat gyűjtsön; nyerje ki a tartalom értékét és a témát. Tehát, amikor a keresést végzik, a válasz ezekről az oldalakról származik - olyan, mint egy könyvtár.


Ez nagyon hasonlít a SEO -ra, és ez azért van, mert sok köze van hozzá. Amikor egy webhelyet hatékonyan optimalizálnak, a Google gyorsan látja a webhelyet, átolvassa az oldalait, és felbukkan, amikor kapcsolódó kereséseket hajt végre a keresőmotoron.

De ez nem történik meg a webhely minden oldalán, így néhány oldalt készít láthatatlan a világnak. Miért történik ez? És mit lehet tenni ellene (különösen a nagyon fontos oldalak esetében)? Itt található egy útmutató, amely részletesen leírja a Google webhely -feltérképező robotjáról (Googlebot), miért nem térképezi fel eléggé az oldalakat, és hogyan használhatja fel a webhelytulajdonos a webhelyoptimalizálást és a SEO -t a Googlebot feltérképezési költségkeretének maximalizálása érdekében.

Mi a Googlebot?



Pók! Lánctalpas! Ezek népszerű nevek, amelyeket a Googlebotnak adtak. Ez azért van, mert valahogy így működik. A szoftver arra készült, hogy feltérképezze és átnézze a nyilvánosság számára közzétett webhelyek milliárdjait.

Így van - ha egy webhely privát marad, a Googlebot egyszerűen nem tudja szkennelni az oldalait, ne feledje, hogy a pók nem pszichikus. Egyszerűen követi az oldalak linkjeit (egyik oldalról a másikra), majd folytatja az adatfeldolgozást. Miután ez befejeződött, az információkat egy indexbe állítják össze (könnyen megjegyezhető Goggle könyvtárként vagy üzletként).

A szoftver jelenléte miatt a Google kevesebb, mint egy másodperc alatt összeállíthatja és felhalmozhatja az egymillió gigabájt (GB) összegű információkat (oké - ez most varázslatos). Ebből a rendszeresen frissülő indexből a Google minden online kereséshez erőforrásokat húz elő asztali számítógépen és mobileszközön egyaránt.

Miért kell aggódnia a Googlebot miatt?

A Googlebot feltérképezése rengeteg köze van egy webhely SEO -jához (keresőoptimalizálás). A pók lényege, hogy információkat gyűjtsön egy webhely oldalairól, hogy amikor kapcsolódó témákban végezzen keresést, megjelenítse az oldalt az online keresési eredmények egyikeként. Ezért, amikor a Googlebot folyamatosan feltérképezi a webhely oldalainak nagy részét, akkor a láthatóság fokozódik, ami nagyobb webhelyforgalmat eredményez ezen az oldalon (ez ugye az egyik cél?).

Használja ezt az illusztrációt:

Az X -nek van egy webhelye, amelynek oldala a témában: professzionális SEO webhelyek számára. Y pedig a webhely SEO -jára keres. Ha a Googlebot feltérképezte X oldalát a SEO -ban, és indexelte, akkor ez az egyik találat, amely megjelenik a Google keresési eredményei között. Ugyanez történne a többi kapcsolódó kereséssel is, még akkor is, ha ez naponta százszor történik meg világszerte.

Ne feledje, hogy ennek más aláhúzó tényezői is vannak, mint például a jó webhelystruktúra, a viszonyítható, gyors webhelybetöltési idő. De csak egy SEO szakértő segíthet abban, hogy ezek megfelelően történjenek, és hogy egy webhely oldala megjelenjen a Google keresési eredményei első oldalán.


Miért nem térképezi fel a Googlebot az összes oldalt egyes webhelyeken?

A Google egyik SEO irodai társalgása során feltették a kérdést, hogy a Googlebot miért nem térképezi fel eléggé az egyes oldalakat. Több mint százmilliárd oldalt publikáltak nyilvánosan a webszervernek. Az emberek minden nap új oldalt tesznek közzé a kiszolgálón, ami azt jelenti, hogy a Googlebot több oldalt indexelhet. Néha azonban a bot nem felel meg az elvárásoknak; vagyis; több mint egymillió GB információt gyűjtenek össze kevesebb, mint másodperc alatt. Ennek több oka is lehet.

Először is előfordulhat, hogy túl sok tartalom, oldal és webhely található az interneten az indexeléshez. Néhányuk gyenge minőségű, mások lassú webhelybetöltési sebességgel rendelkeznek, a többiek pedig irreleváns tartalommal rendelkezhetnek, bonyolult webhelystruktúrával (vagy bármi mással, ami a jó felhasználói élmény ellen hat). Ezért a Google létrehozott egy stratégiát, amely csak jó minőségű weboldalakat indexel, és kizárja az alacsonyabb minőségű oldalakat. Ily módon az oldalak szűrhetők és csökkenthetők (ahelyett, hogy az összes online oldalt indexelné - mind értékes, mind nem értékes oldalakat).

De a fentiek nem adnak teljes választ a kérdésre: Miért nem térképezi fel a Googlebot az összes webhelyet? A kérdés inkább az, hogy miért nem térképezi fel a Googlebot a webhely összes oldalát (vagy elég oldalt). És erre két válasz létezik. A hosszú válasz és a rövid válasz:

A rövid válasz

A Google minden nap bizonyos mennyiségű erőforrást és időt társít minden webhely feltérképezéséhez. Ezt nevezik egy webhely feltérképezési költségkeretének. Ezért a bot ezen a költségvetésen belül végzi a feltérképezést és az indexelést. Így egy tízezer oldalt meghaladó weboldal esetében nem minden oldalt indexelnek.

Van azonban ennél több, ami elvezet minket a hosszú válaszhoz:

A hosszú válasz


A feltérképezési költségkeret határozza meg a Googlebot által naponta feltérképezhető és indexelhető oldalak számát. De mint korábban említettük, ennél sokkal többről van szó. Bizonyos tényezők határozzák meg a pók ütemét, miközben a feltérképezési költségvetésen belül feltérképezik az egyes webhelyeket. Van értelme? Ez azt jelenti, hogy bár a költségvetés korlátokat teremtett, bizonyos tényezők felgyorsíthatják vagy lelassíthatják a bot ütemét. Tartalmazzák:
  1. Lassú szerver: Ha egy szerver válaszideje jelentősen lassú, akkor megváltoztathatja azt a sebességet, amellyel a robot feltérképezési költségkereten belül minden egyes oldalt feltérképez. A webhelytulajdonosok ezeket ellenőrizhetik a feltérképezési statisztikai jelentésben. Javasolt, hogy a 300 ezredmásodpercen felüli idő nem jó válaszidő.
  2. Weboldal szerver gazdája: Ha egy webhelyet megosztott szerveren tárol, ez lelassíthatja az egyes oldalak kiszolgálásának sebességét a Google számára a feltérképezés során. Ennek oka az lehet, hogy ugyanazon a szerveren más webhelyek nagy erőforrások használatával lelassíthatják azt. Még rosszabb, ha ugyanaz a szerver sok webhelyet tárol.
  3. Rouge botok: Ezek más robotok, amelyek akadályozhatják, blokkolhatják vagy lelassíthatják a Googlebot műveleteit. Ezek különböző formákban érkezhetnek, és néha egy weboldalnak professzionális segítségre van szüksége a robotok műveleteinek kezeléséhez és ellenőrzéséhez.
  4. A webhely feltérképezhetősége: Ennyi hozzáférést biztosít a robot a webhely minden oldalához. Ha a szoftver könnyen hozzáfér a webhely tartalmához, sok oldal feltérképezése és indexelése lesz a feltérképezési költségkereten belül.

Hogyan optimalizálhatja webhelyét a Googlebot költségkeretének maximalizálása érdekében


Az előző részben megvitattuk azokat a tényezőket, amelyek meghatározzák, hogy a Googlebot milyen gyorsan (vagy milyen lassan) térképezi fel az oldalt. De egy személy több mindent tehet annak érdekében, hogy maximalizálja, hogy a robot hány oldalt térképezzen fel a költségvetésen belül. Röviden, íme néhány dolog, amit egy webhelytulajdonos tehet annak érdekében, hogy maximalizálja, hogy a Googlebot naponta hány oldalt térképezzen fel és indexeljen a feltérképezési költségkereten belül.
  1. Oldaltérkép kidolgozása: Ez az egyik olyan dolog, amely segíthet a Googlebotnak abban, hogy gyorsabban feltérképezzen egy webhelyet. Az oldaltérkép telepíthető, létrehozható egy webhelytérkép -generátorból, vagy létrehozható a semmiből.
  2. Fektessen be a webhelyszervezésbe: Ez a weboldal felépítésével és az oldalak oldalainak kategorizálásával függ össze. Ha egy webhely úgy van felépítve, hogy a látogatók könnyen megértsék és navigálhassanak rajta, nagy a valószínűsége annak, hogy a Googlebot könnyen feltérképezi.
  3. Weboldal optimalizálás: Ez összefoglalja a fent említett összes pontot. Ha egy webhelyet folyamatosan (a megfelelő módon) optimalizálnak, akkor a webhely kezelőfelülete megfelelően felépül, és létrejön egy webhelytérkép. Egyéb dolgok közé tartozik a feltérképezést gátló tényezők (például a robots.txt) szabályozása, a címek optimalizálása, a tartalom olvashatósága, a tartalom értéke és még sok más. A webhely megfelelő optimalizálása elősegíti a Googlebot gyorsabb beolvasását egy ilyen oldal oldalain.

Következtetés

A Googlebot egy kis internetes robotnak tekinthető, amely a Google -nak dolgozik. Körüljárja az oldalak fogadását a webszervertől a webhelyekre mutató hivatkozásokon keresztül. Ezután minden oldalt átnéz, és hozzáadja az indexelt információk gyűjteményéhez. Számos tényező és változó miatt azonban a bot nem tud feltérképezni minden webhely minden oldalát (sőt, néha ez nem elég). És az összes említett tényező és megoldás közül a legegyszerűbb megoldás egy olyan professzionális cég felvétele, mint amilyen Semalt amely képes a megfelelő módon és a megfelelő időben megtenni mindent, amire szükség van annak biztosítása érdekében, hogy webhelye fontos oldalait feltérképezzék és indexeljék - ha nem is minden oldalt.

mass gmail