SEO: The Beginner's Guide to Search Engine Optimization from Moz
Zoekmachines hebben twee hoofdfuncties: crawlen en een index opbouwen en zoekgebruikers voorzien van een gerangschikte lijst met websites die ze hebben bepaald als de meest relevante.
Stel je het World Wide Web voor als een netwerk van haltes in een grootstedelijke metrosysteem.
Elke stop is een uniek document (meestal een webpagina, maar soms een PDF-, JPG- of ander bestand). De zoekmachines hebben een manier nodig om de hele stad te "crawlen" en alle tussenstops onderweg te vinden, dus gebruiken ze de beste beschikbare pad-koppelingen.
De verbindingsstructuur van het web dient om alle pagina's samen te binden.
Met koppelingen kunnen de geautomatiseerde robots van de zoekmachines, genaamd "crawlers" of "spiders", de vele miljarden onderling verbonden documenten op internet bereiken.
Zodra de zoekmachines deze pagina's hebben gevonden, ontcijferen ze de code en slaan ze geselecteerde stukken op in enorme databases om ze later opnieuw op te roepen wanneer ze nodig zijn voor een zoekopdracht. Om de gigantische taak te volbrengen om miljarden pagina's te hebben die binnen een fractie van een seconde kunnen worden bekeken, hebben de bedrijven in de zoekmachines over de hele wereld datacenters gebouwd.
Deze monsterlijke opslagfaciliteiten zorgen ervoor dat duizenden machines zeer snel grote hoeveelheden informatie verwerken. Wanneer een persoon een zoekopdracht uitvoert bij een van de grote motoren, eisen deze onmiddellijk resultaten; zelfs een vertraging van één of twee seconden kan ontevredenheid veroorzaken, dus de motoren werken er hard aan om antwoorden zo snel mogelijk te geven.
Zoekmachines zijn antwoordapparaten . Wanneer een persoon online zoekt, doorzoekt de zoekmachine het corpus van miljarden documenten en doet twee dingen: ten eerste retourneert het alleen de resultaten die relevant of nuttig zijn voor de zoekopdracht van de zoeker; ten tweede rangschikt het die resultaten in overeenstemming met de populariteit van de websites die de informatie bedienen. Het is zowel relevantie als populariteit die het proces van SEO moet beïnvloeden.
Hoe bepalen zoekmachines de relevantie en populariteit?
Voor een zoekmachine betekent relevantie meer dan het vinden van een pagina met de juiste woorden. In het begin van het web gingen zoekmachines niet veel verder dan deze simplistische stap en waren zoekresultaten van beperkte waarde. In de loop der jaren hebben slimme technici betere manieren bedacht om resultaten aan de zoekopdrachten van gebruikers te koppelen. Tegenwoordig beïnvloeden honderden factoren de relevantie en bespreken we de belangrijkste in deze handleiding.
Zoekmachines gaan er doorgaans vanuit dat hoe populairder een site, pagina of document is, des te waardevoller de informatie die deze bevat moet zijn. Deze veronderstelling is redelijk succesvol gebleken in termen van gebruikerstevredenheid met zoekresultaten.
Populariteit en relevantie worden niet handmatig bepaald. In plaats daarvan gebruiken de motoren wiskundige vergelijkingen (algoritmes) om het kaf van het koren te scheiden (relevantie), en vervolgens om het koren te rangschikken in volgorde van kwaliteit (populariteit).
Deze algoritmen bevatten vaak honderden variabelen. Op het gebied van zoekmarketing duiden we ze aan als 'ranking factors'. Moz ontwikkelde een resource specifiek over dit onderwerp: Search Engine Ranking-factoren .
U kunt veronderstellen dat zoekmachines geloven dat Ohio State de meest relevante en populaire pagina is voor de zoekopdracht 'Universiteiten', terwijl de pagina voor Harvard minder relevant / populair is.
Hoe krijg ik enig succes dat binnenstroomt?
Of: "hoe zoek marketeers slagen"
De gecompliceerde algoritmen van zoekmachines lijken misschien ondoordringbaar. Inderdaad, de engines zelf bieden weinig inzicht in hoe je betere resultaten kunt behalen of meer verkeer kunt genereren. Wat ze ons bieden over optimalisatie en best practices wordt hieronder beschreven:
SEO-informatie van de richtlijnen voor webmasters van Google
Google beveelt het volgende aan om betere rankings te krijgen in hun zoekmachine:
- Maak pagina's voornamelijk voor gebruikers, niet voor zoekmachines. Bedrieg uw gebruikers niet en presenteer geen andere inhoud aan zoekmachines dan aan gebruikers, een praktijk die gewoonlijk 'cloaking' wordt genoemd.
- Maak een site met een duidelijke hiërarchie en tekstkoppelingen. Elke pagina moet bereikbaar zijn vanaf ten minste één statische tekstlink.
- Maak een nuttige, informatierijke site en schrijf pagina's die uw inhoud duidelijk en nauwkeurig beschrijven. Zorg ervoor dat uw
-elementen en ALT-attributen beschrijvend en nauwkeurig zijn. - Gebruik trefwoorden om beschrijvende, mensvriendelijke URL's te maken. Geef één versie van een URL op om een document te bereiken met behulp van 301-omleidingen of het rel = "canonical" -kenmerk om dubbele inhoud te adresseren.
SEO-informatie van de webmasterrichtlijnen van Bing
Bing-engineers bij Microsoft bevelen het volgende aan om betere rankings te krijgen in hun zoekmachine:
- Zorg ervoor dat er een duidelijke, trefwoordrijke URL-structuur aanwezig is.
- Zorg ervoor dat de inhoud niet wordt ingegraven in rich media (Adobe Flash Player, JavaScript, Ajax) en controleer of rich media koppelingen van crawlers niet verbergen.
- Maak zoekwoord-rijke inhoud en match sleutelwoorden naar wat gebruikers zoeken. Maak regelmatig nieuwe content.
- Plaats geen tekst die u in afbeeldingen wilt indexeren. Als u bijvoorbeeld wilt dat uw bedrijfsnaam of adres wordt geïndexeerd, zorg er dan voor dat deze niet in een bedrijfslogo wordt weergegeven.
Have No Fear, Fellow Search Marketer!
Naast dit gratis advies hebben zoekmachinisten in de ruim 15 jaar dat er op het web is gezocht methoden gevonden om informatie te verzamelen over hoe de zoekmachines pagina's rangschikken. SEO's en marketeers gebruiken die gegevens om hun sites en hun klanten te helpen een betere positionering te bereiken.
Verrassend genoeg ondersteunen de motoren veel van deze inspanningen, hoewel de zichtbaarheid van het publiek vaak laag is. Conferenties over zoekmarketing, zoals de Search Marketing Expo , Pubcon , Search Engine Strategies , Distilled en Moz's eigen MozCon trekken technici en vertegenwoordigers van alle belangrijke zoekmachines aan. Zoekvertegenwoordigers helpen webmasters ook door af en toe online deel te nemen aan blogs, forums en groepen.
Er is misschien geen groter hulpmiddel beschikbaar voor webmasters die onderzoek doen naar de activiteiten van de engines dan de vrijheid om de zoekmachines zelf te gebruiken om experimenten uit te voeren, hypotheses te testen en meningen te vormen. Het is door dit iteratieve - soms moeizame - proces dat een aanzienlijke hoeveelheid kennis over de functies van de motoren is verkregen. Sommige van de experimenten die we hebben geprobeerd, gaan ongeveer als volgt:
- Registreer een nieuwe website met onzinnige zoekwoorden (bijv. Ishkabibbell.com).
- Maak meerdere pagina's op die website, die allemaal gericht zijn op een soortgelijke belachelijke term (bijvoorbeeld, yoogewgally).
- Maak de pagina's zo dicht mogelijk bij identiek, verander dan één variabele tegelijk, experimenteer met plaatsing van tekst, opmaak, gebruik van trefwoorden, linkstructuren, etc.
- Puntlinks op het domein van geïndexeerde, goed gecrawlde pagina's in andere domeinen.
- Noteer de rangorde van de pagina's in zoekmachines.
- Breng nu kleine wijzigingen aan in de pagina's en evalueer hun impact op de zoekresultaten om te bepalen welke factoren een resultaat naar boven of naar beneden kunnen duwen ten opzichte van zijn peers.
- Registreer resultaten die effectief lijken te zijn en test deze opnieuw op andere domeinen of met andere voorwaarden. Als verschillende tests consequent dezelfde resultaten opleveren, is de kans groot dat u een patroon hebt ontdekt dat door de zoekmachines wordt gebruikt.
Een voorbeeldtest die we hebben uitgevoerd
In onze test zijn we begonnen met de hypothese dat een link eerder (hoger) op een pagina meer gewicht heeft dan een link lager op de pagina. We hebben dit getest door een onzinnig domein te maken met een startpagina met koppelingen naar drie externe pagina's die allemaal hetzelfde onzinnige woord hebben dat exact één keer op de pagina wordt weergegeven. Nadat de zoekmachines de pagina's hebben doorzocht, hebben we vastgesteld dat de pagina met de vroegste koppeling op de startpagina als eerste wordt gerangschikt.
Dit proces is nuttig, maar is niet de enige manier om zoekmachinemakers te informeren.
Naast dit soort testen kunnen zoekmarketeers ook informatie verzamelen over hoe de zoekmachines werken door middel van octrooiaanvragen van de grote motoren van het Amerikaanse octrooibureau. Misschien wel de meest bekende hiervan is het systeem dat aanleiding gaf tot Google in de Stanford-slaapzalen aan het eind van de jaren negentig, PageRank, gedocumenteerd als Patent # 6285999 : "Methode voor knooppuntrangschikking in een gekoppelde database." Het originele artikel over het onderwerp - Anatomie van een grootschalige hypertextual Web Search Engine - is ook het onderwerp geweest van uitgebreide studie. Maar maak je geen zorgen; je hoeft niet terug te gaan en corrigerende calculus te nemen om SEO te oefenen!
Door middel van methoden zoals patentanalyse, experimenten en live testen, zijn marketeers voor het zoeken als gemeenschap veel van de basishandelingen van zoekmachines en de kritische componenten van het maken van websites en pagina's die hoge rankings en aanzienlijk verkeer verdienen, gaan begrijpen.