Hvordan finder, gennemgår og indekserer søgemaskiner dit indhold?

Search Engine Optimization

Jeg anbefaler ikke ofte, at klienter bygger deres egen e-handel eller indholdsstyringssystemer på grund af alle de usynlige udvidelsesmuligheder, der er nødvendige i dag - primært fokuseret på søgning og social optimering. Jeg skrev en artikel om hvordan man vælger et CMS og jeg viser det stadig til de virksomheder, som jeg arbejder med, der er fristet bare til at opbygge deres eget content management system.

Der er dog absolut situationer, hvor en brugerdefineret platform er en nødvendighed. Når det er den optimale løsning, skubber jeg stadig mine klienter til at opbygge de nødvendige funktioner til at optimere deres websteder til søgning og sociale medier. Der er dybest set tre nøglefunktioner, der er en nødvendighed.

  • robots.txt
  • XML Sitemap
  • Metadata

Hvad er en Robots.txt-fil?

robots.txt fil - den robots.txt filen er en almindelig tekstfil, der er i rodmappen på webstedet og fortæller søgemaskinerne, hvad de skal inkludere og ekskludere fra søgeresultaterne. I de senere år anmodede søgemaskiner også om, at du medtager stien til et XML-sitemap i filen. Her er et eksempel på mig, der giver alle bots mulighed for at gennemgå mit websted og også dirigerer dem til mit XML-sitemap:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Hvad er et XML-sitemap?

XML Sitemap - Ligesom HTML er til visning i en browser, er XML skrevet til at blive fordøjet programmatisk. Et XML-sitemap er grundlæggende en tabel over hver side på dit websted, og hvornår det sidst blev opdateret. XML-sitemaps kan også kædes ved siden af ​​hinanden ... det vil sige et XML-sitemap kan henvise til et andet. Det er godt, hvis du ønsker at organisere og opdele elementerne på dit websted logisk (ofte stillede spørgsmål, sider, produkter osv.) I deres egne sitemaps.

Sitemaps er vigtige, så du effektivt kan lade søgemaskinerne vide, hvilket indhold du har oprettet, og hvornår det sidst blev redigeret. Processen, som en søgemaskine bruger, når man går til dit websted, er ikke effektiv uden at implementere et sitemap og uddrag.

Uden et XML-sitemaprisikerer du, at dine sider aldrig bliver opdaget. Hvad hvis du har en ny produktlandingsside, der ikke er linket internt eller eksternt. Hvordan finder Google det ud? Nå, simpelthen sætte ... indtil et link er fundet til det, vil du ikke blive opdaget. Heldigvis gør søgemaskiner det muligt for indholdsstyringssystemer og e-handelsplatforme at rulle et rødt tæppe ud for dem!

  1. Google finder et eksternt eller internt link til dit websted.
  2. Google indekserer siden og rangerer den efter dens indhold, og hvad indholdet og kvaliteten af ​​det henvisende links websted er.

Med et XML-sitemap, overlader du ikke opdagelsen af ​​dit indhold eller opdateringen af ​​dit indhold til tilfældighederne! For mange udviklere prøver at tage genveje, der også gør ondt. De udgiver det samme rich-kodestykke på tværs af webstedet og leverer oplysninger, der ikke er relevante for sideoplysningerne. De udgiver et sitemap med de samme datoer på hver side (eller alle opdateres, når en side opdateres), hvilket giver køer til søgemaskinerne, at de spiller systemet eller upålideligt. Eller de peger slet ikke søgemaskinerne ... så søgemaskinen ved ikke, at der er offentliggjort nye oplysninger.

Hvad er metadata? Mikrodata? Rich Snippets?

Rich uddrag er omhyggeligt mærket mikrodata der er skjult for seeren, men synlig på siden, som søgemaskiner eller sociale mediesider kan bruge. Dette kaldes metadata. Google overholder Schema.org som en standard til inkludering af ting som billeder, titler, beskrivelser ... samt en overflod af andre informative uddrag som pris, antal, placeringsoplysninger, vurderinger osv. Skema vil forbedre din søgemaskins synlighed og sandsynligheden for, at en bruger vil klikke igennem.

Facebook bruger OpenGraph protokol (selvfølgelig kunne de ikke være den samme), Twitter har endda et uddrag til at specificere din Twitter-profil. Flere og flere platforme bruger disse metadata til at forhåndsvise indlejrede links og anden information, når de offentliggør.

Dine websider har en underliggende betydning, som folk forstår, når de læser websiderne. Men søgemaskiner har en begrænset forståelse af, hvad der diskuteres på disse sider. Ved at tilføje yderligere tags til HTML på dine websider - tags, der siger "Hej søgemaskine, disse oplysninger beskriver denne specifikke film eller sted eller person eller video" - kan du hjælpe søgemaskiner og andre applikationer med bedre at forstå dit indhold og vise det på en nyttig, relevant måde. Microdata er et sæt tags, introduceret med HTML5, der giver dig mulighed for at gøre dette.

Schema.org, hvad er MicroData?

Selvfølgelig kræves ingen af ​​disse ... men jeg kan varmt anbefale dem. Når du f.eks. Deler et link på Facebook, og intet billede, titel eller beskrivelse kommer op ... få mennesker vil være interesserede og rent faktisk klikke igennem. Og hvis dine skemauddrag ikke findes på hver side, kan du selvfølgelig stadig vises i søgeresultaterne ... men konkurrenter kan slå dig ud, når de har vist yderligere oplysninger.

Registrer dine XML-sitemaps i Search Console

Det er bydende nødvendigt, at hvis du har bygget dit eget indhold eller din e-handelsplatform, at du har et undersystem, der pinger søgemaskinerne, offentliggør mikrodata og derefter leverer et gyldigt XML-sitemap til det indhold eller produktinformation, der findes!

Når din robots.txt-fil, XML-sitemaps og rich snippets er tilpasset og optimeret på hele dit websted, skal du ikke glemme at registrere dig til hver søgemaskes søgekonsol (også kendt som webmasterværktøj), hvor du kan overvåge sundheden og synligheden af ​​din websted på søgemaskiner. Du kan endda specificere din Sitemap-sti, hvis ingen er på listen, og se hvordan søgemaskinen bruger det, om der er nogen problemer med det eller ej, og endda hvordan man retter dem.

Rul det røde løber ud til søgemaskiner og sociale medier, så finder du dit webstedsrangering bedre, dine poster på søgemaskinens resultatsider klikkes gennem mere, og dine sider deles mere på sociale medier. Det hele tilføjer!

Sådan fungerer Robots.txt, Sitemaps og MetaData

At kombinere alle disse elementer er meget som at rulle det røde løber ud til dit websted. Her er den gennemgangsproces, som en bot tager sammen med, hvordan søgemaskinen indekserer dit indhold.

  1. Dit websted har en robots.txt-fil, der også refererer til din XML Sitemap-placering.
  2. Dit CMS- eller e-handelssystem opdaterer XML Sitemap med en hvilken som helst side og offentliggør dato eller rediger datooplysninger.
  3. Dit CMS- eller e-handelssystem pinger søgemaskinerne for at fortælle dem, at dit websted er blevet opdateret. Du kan pinge dem direkte eller bruge RPC og en tjeneste som Ping-o-matic at skubbe til alle de vigtigste søgemaskiner.
  4. Søgemaskinen vender straks tilbage, respekterer filen Robots.txt, finder nye eller opdaterede sider via sitemapet og indekserer siden.
  5. Når det indekserer din side, bruger den mikrodata med rich snippet til at forbedre resultatsiden for søgemaskinen.
  6. Da andre relevante sider linker til dit indhold, rangeres dit indhold bedre.
  7. Da dit indhold deles på sociale medier, kan de angivne rich snippet-oplysninger hjælpe med at få et korrekt eksempel på dit indhold og dirigere dem til din sociale profil.

2 Kommentarer

  1. 1

    min hjemmeside er ikke i stand til at indeksere nyt indhold, jeg henter sitemap og webadresser på webmaster, men kan stadig ikke forbedre dette. Er det google backend-problem?

Hvad mener du?

Dette websted bruger Akismet til at reducere spam. Lær, hvordan dine kommentardata behandles.