In 8 stappen naar de SEO-audit - handleiding voor websites en bureaus

Dominik Stein Laatst bijgewerkt op 01.12.2020
24 Min.
SEO-audit
Laatst bijgewerkt op 01.12.2020

Als zoekmachineoptimalisator voer ik regelmatig SEO-audits uit voor uiteenlopende opdrachtgevers. In dit artikel laat ik je zien: wat is een SEO Audit? Waarom is het zo belangrijk voor zoekmachineoptimalisatie? En hoe kun je zelf de audit doen? Een complete gids voor zowel jouw eigen website als voor freelancers en bureaus.

Wat is eigenlijk een SEO-audit?

Een SEO-audit is de ultieme test van je website om het huidige niveau van zoekmachineoptimalisatie en technische optimalisatie te beoordelen. Grofweg alle OnPage- en OffPage-factoren van je aanwezigheid op het internet of je internetwinkels worden getest, tot in het kleinste detail.

Nauwkeuriger bezien gebruiken SEO-experts checklists, online-tools en hun eigen ervaring om de technische infrastructuur en de Performance. Maar ook de inhoud en de backlinks van de site. Ik laat je zien hoe je de audit zelf opstelt.

In de regel wordt hieruit een catalogus van maatregelen ontwikkeld. In deze catalogus worden alle zwakke punten en potentiële kansen van een website opgesomd. Kortom: een SEO-audit is de basis voor jouw strategie voor de komende maanden.

Wat is het doel van de SEO-audit?

Op de voorgrond staat de evaluatie van de zoekmachinevriendelijkheid van een website. Op basis van de resultaten wordt aan het einde een catalogus van maatregelen opgesteld. Meestal streven website-eigenaren of de klanten van jouw bureau met deze dienst de volgende doelen na:

  • Evaluatie van de website voor actuele SEO-trends, traffic etc.
  • Beoordeling van het succes van een huidig SEO-bureau door een derde partij
  • Verhoging van de zichtbaarheid in de organische zoekresultaten

Maar ook voor bureaus zijn SEO-audits een kans om

  • Het dienstverleningsportfolio uit te breiden
  • De klanten te overtuigen van technische en inhoudelijke maatregelen
  • Potentiële klanten te informeren over de status van hun website

Het grootste voordeel van een SEO-audit is dat de aanbevelingen zowel door het SEO-bureau als door de klant of door jouzelf kunnen worden uitgevoerd.

Waarom zijn SEO-audits zo duur?

Het probleem van een SEO-audit ligt in de zoekmachineoptimalisatie zelf. Want er zijn tientallen regels en optimalisatiemogelijkheden waarop elke URL van de website moet worden geanalyseerd. Bovendien moet je de inhoud of zelfs duizenden backlinks individueel onderzoeken op hun kwaliteit.

Dit hele proces is tijdrovend. Meestal duurt een SEO-audit enkele uren, dagen of zelfs weken. Hoe groter de website, hoe meer tijd er nodig is voor een volledige analyse. Naast het uurloon van de experts zal een SEO-bureau gebruik maken van verschillende tools en deze in rekening brengen. En deze tools zijn meestal niet goedkoop.

Al deze factoren maken dat een SEO-audit een zeer nuttige maar dure onderneming kan worden.

Voer de SEO-audit zelf uit

Toen ik door RAIDBOXES werd gevraagd om een artikel over dit onderwerp te schrijven, heb ik heel lang nagedacht: hoe kan je dit zeer uitgebreide onderwerp samenvatten op een manier dat iedereen in staat is om zelf een SEO-audit uit te voeren? Want geen enkel instrument kan een expert vervangen die zich regelmatig met het onderwerp bezighoudt. Regelmatigheid is het sleutelwoord. Er worden voortdurend nieuwe functies in de zoekmachineoptimalisatie toegevoegd, hoewel de basisregels van het spel al jaren hetzelfde zijn.

Elk jaar worden er duizenden wijzigingen in het zoekalgoritme aangebracht en ze blijven met regelmatige tussenpozen kleine veranderingen doorvoeren. En de concurrentie slaapt nooit. Informatie, tips en trics zijn na maanden al niet meer actueel. Of ze worden gekopieerd door verschillende concurrenten. Om een SEO-audit succesvol af te ronden, moet je:

  • Voortdurend aandacht besteden aan het thema zoekmachineoptimalisatie
  • Op de hoogte zijn van de huidige veranderingen en trends
  • Een brede kennis hebben van hoe je je website kunt optimaliseren

Zie bijvoorbeeld de bijdrage aan de SEO-gids 2019. In de volgende instructies laat ik je stap voor stap zien hoe je zelf kritische fouten op je website kunt opsporen. En hoe je ze kunt oplossen.

Deze tools heb je nodig

Zodat een SEO-audit overkoepelend is, moet je ervoor zorgen dat je toegang hebt tot de belangrijkste analysetools en -diensten. Daarbij horen Google Analytics, de Search Console en toegang tot de vermelding van Google My Business.

Een SEO-audit is een tijdrovende onderneming. Om de tijdsbesteding zo laag mogelijk te houden, is het aan te raden om bij het analyseren van de website gebruik te maken van professionele tools.

SEO-audit
De SEO-tools laten de toestand van je website onverbiddelijk zien

Professionele SEO-audit tools zijn bijvoorbeeld:

De Screaming Frog Spider is een geweldige tool om je URL's te analyseren. De tool is echter vooral gericht op gevorderde gebruikers. In tegenstelling tot online-tools maakt Screaming Frog je PC tot je eigen crawler. Het programma is gratis voor tot wel 500 gecrawlte URL's. Dat is net genoeg voor kleine websites.

ScreamingFrog Spider
De crawler of spin van Screaming Frog

Andere nuttige (gratis) tools:

De site-audit van Neil Patel is weliswaar gratis. Maar hij ligt nog mijlenver achter de betaalde tool. Het tot nu toe geleverde advies is vaak wel erg goed. De tool wordt voortdurend verder ontwikkeld en heeft de afgelopen maanden grote sprongen gemaakt.

NeilPatel Audit
De site-audit van Neil Patel

Stap #1: Controleer of alleen de SSL-versie van je website bereikbaar is

Voordat we een SEO-audit tool onze website laten controleren, moeten we er zeker van zijn dat er slechts één versie daarvan kan worden bereikt. Er zijn 4 verschillende URL-varianten waarmee gebruikers toegang kunnen krijgen tot een website:

  • http://voorbeeldsite.nl
  • http://www.voorbeeldsite.nl
  • https://voorbeeldsite.nl
  • https://www.voorbeeldsite.nl

Typ in het invoermasker van je internetbrowser elke versie van je website in. Idealiter zouden alle versies moeten worden doorverwijzen naar een enkele versie:

https-doorsturing
https-doorsturing

Als dit niet het geval is, of als je het waarschuwingsbericht "Niet veilig" in je browser ontvangt, moet je contact opnemen met je webhost. Zodat ze het SSL-certificaat voor je website kunnen activeren of je DNS-instellingen correct kunnen aanpassen.

Tip: Voor klanten van RAIDBOXES zijn deze instellingen direct in het dashboard te zien. Je kunt SSL activeren onder het gelijknamige menu-item. Een Let's Encrypt SSL-certificaat is altijd gratis inbegrepen. Het kan met één klik worden geïnstalleerd.

RAIDBOXES  Doorsturen
Het doorverwijzen in het dashboard van RAIDBOXES

Het is om twee redenen belangrijk dat je websites toegankelijk zijn via https://: In de eerste plaats is SSL een rankingsfactor. En ten tweede wil je zeker niet dat je bezoekers op de hoogte zijn van het feit dat de website of online shop misschien niet veilig is.

Om er zeker van te zijn dat alle inhoud van je website ook echt geïntegreerd is via een beveiligde verbinding, kun je een extra blik werpen op de ontwikkelaarsconsole van je internetbrowser:

inhoudsconsole
De ontwikkelaarsconsole van je browser

Als de console een zogenaamde "Mixed Content Error" aangeeft, moet dit ook worden verholpen. Dit gebeurt meestal als je een website met http:// in plaats van https:// geïntegreerd hebt. Veel voorkomende boosdoeners zijn externe scripts zoals Google Maps of afbeeldingen van andere websites.

Tip: Als je configuratie bij je webhost te complex is, kun je gebruik maken van een tool zoals Really Simple SSL . Het lost zulke fouten voor jou op. Maar niet alleen in dit geval zou je over een Managed WordPress hosting na moeten denken.

Stap #2: Audit met SEO-tools

In de tussentijd starten we een SEO-audit via een geschikte tool. Natuurlijk heb je de keuze om Neil Patel's Site Audit te gebruiken. Ik raad echter aan om een proefversie van de professionele tool uit te proberen (zie hierboven). Als je het leuk vindt of als je succes hebt, kun je de tool na de proefperiode blijven gebruiken.

SEMrush Audit
Een analyse met SEMrush

Belangrijke instellingen, ongeacht in welke tool:

  • Accepteer de instructies die in de robots.txt gegeven zijn. We willen naar een webpagina kijken zoals een crawler dat doet.
  • Indien mogelijk: crawl de website met behulp van de Sitemap.xml. Gebruikelijke paden voor een sitemap zijn: domain.nl/sitemap.xml of domain.nl/sitemap_index.xml

Dit proces zal enige tijd in beslag nemen, afhankelijk van de grootte van je website(s). Dus laten we naar de volgende stap gaan.

Stap #3: Controleer de indexering van de website

Is de website te vinden?

De volgende stap is om te controleren of je website überhaupt te vinden is. Of als crawlers problemen hebben met het lezen ervan. Ga naar google.nl en voer de volgende opdracht in het zoekvenster in:

site:yourdomain.com

Nu volgt een lijst met alle zoekresultaten, die echter alleen betrekking hebben op jouw domein:

Site opdracht Google
Opsomming van alle zoekresultaten voor een domein

Zoals je ziet, lijkt alles hier in ieder geval in orde te zijn. De website is te vinden in de zoekresultaten.

Vermeldingen in de zoekconsole controleren

Vervolgens ga je naar de Search Console . Googles eigen console toont informatie aan webmasters over de indexering van hun website. Je wordt ook op de hoogte gebracht van kritieke fouten. Een geweldige en zeer nuttige functie.

Controleer of je domein al geregistreerd en geverifieerd is. Zo niet, herhaal dan deze stap. Voor de Search Console is het verplicht dat ook de juiste versie van je website geïntegreerd is. Met andere woorden: als je website toegankelijk is via https://domain.nl, maar geregistreerd is als https://www.domain.nl, zal de zoekconsole niet goed werken. Dan krijg je verkeerde resultaten.

Klik op het tabblad "Dekking": Hier krijg je een lijst met mogelijke fouten en uitgesloten en geldige pagina's:

zijafdekking
Dekking van de pagina in de Search Console

Pagina's die hier als fout zijn gemarkeerd, moeten per se worden gecorrigeerd! Ook waarschuwingen moet je kritisch bekijken. En verwijder de oorzaken onmiddellijk.

Ook interessant: het screenshot toont slechts 28 geldige websites. Maar zoals we net ontdekten, geeft Google 45 resultaten voor deze website aan. We moeten dit nader onderzoeken. Het kan betekenen dat 404-foutpagina's in de zoekopdracht worden geïndexeerd.

Met de volgende manieren kun je dat controleren:

  • Je springt terug naar de Google-zoekopdracht en gebruikt het commando "site://yourdomain.com". Van daaruit kun je door de zoekresultaten heen klikken en zien of er afwijkingen zijn zoals 404-fouten etc.
  • Of je kunt een SEO-tool zoals Screaming Frog Spider of een tool naar keuze gebruiken om naar 404-pagina's te zoeken.

404-fouten oplossen

Aangezien je je al in de overeenkomstige sectie van de zoekmachine bevindt, zullen we tegelijkertijd een snelle blik werpen op de uitgesloten URL's. Klik op het tabblad "uitgesloten URL's" en zoek naar de volgende meldingen:

404 Fout
404-fout in de Google Search Console

404-pagina's zijn zowat het schadelijkste wat een website te bieden heeft. Welke bezoeker wil immers op een resultaat klikken om te zien dat de gewenste inhoud niet meer bestaat?

Bovendien heeft elke subpagina een waarde. Als je de 404-pagina niet omleidt, gaat deze waarde verloren. En daarmee al het vertrouwen en succes dat je met deze website in een zoekmachine hebt opgedaan. Hoogwaardige backlinks die je hebt opgebouwd, gaan verloren.

Zodat dit niet gebeurt, zijn er zogenaamde "omleidingen". Matt Cutts heeft voor Google uitgelegd wat zo'n omleiding is en waarom dit instrument zo belangrijk is voor Google:

YouTube

Door de video te laden, accepteer je het privacybeleid van YouTube.
Kom meer te weten

Laad video

PGlmcmFtZSBzcmM9Imh0dHBzOi8vd3d3LnlvdXR1YmUtbm9jb29raWUuY29tL2VtYmVkL3IxbFZQcllvQmtBIiBhbGxvdz0iYWNjZWxlcm9tZXRlcjsgYXV0b3BsYXk7IGVuY3J5cHRlZC1tZWRpYTsgZ3lyb3Njb3BlOyBwaWN0dXJlLWluLXBpY3R1cmUiIGFsbG93ZnVsbHNjcmVlbj0iIB3aWR0aD0iODU0IBoZWlnaHQ9IjQ4MCIgZnJhbVib3JkZXI9IjAiPjwvaWZyYW1lPg===

Overigens, als je je website bij RAIDBOXES hebt, dan is het eenvoudig om dergelijke redirects in te stellen. Ga naar Dashboard -> Instellingen -> Omleidingen en definieer welke URL doorgestuurd moet worden naar waar:

301 en 302 Overdrachten
301 en 302 omleidingen bij RAIDBOXES instellen

Het verschil tussen de twee omleidingen:

  • 301 Omleiding / Permanent Redirect: Permanente omleiding naar de bestemmingspagina. Wordt gebruikt wanneer de inhoud volledig op een andere URL te vinden is.
  • 302 Omleiding / Temporary Redirect: Tijdelijke omleiding naar de doel-URL. Wordt bijvoorbeeld gebruikt voor testpagina's.

Het is echter een feit dat een URL niet altijd moet verwijzen naar een nieuwe pagina. Soms wordt een inhoud gewoon permanent verwijderd. Hiervoor is er de statuscode 410, voor dergelijke gevallen kun je gebruik maken van de Yoast SEO Premium Plugin of de WordPress-plugin Redirection . Ze bieden precies deze functie, inclusief 301- en 302-omleidingen:

SEO WordPress Plugin
Omleidingen in de Yoast SEO WordPress-plugin

Het oplossen van 404-fouten is voor jou een topprioriteit. Zorg ervoor dat je alleen doorverwijst naar URL's die gerelateerd zijn aan de inhoud van de verwijderde pagina's.

NoIndex pagina's controleren

Laten we vervolgens eens kijken naar de URL's die door NoIndex in de zoekconsole uitgesloten zijn:

NoIndex zoekconsole
NoIndex sluit URL's uit de zoekresultaten uit

De noIndex-tag zegt crawlers dat overeenkomstige pagina's niet geïndexeerd moeten worden. Dit is bijvoorbeeld het geval voor bedankpagina's na een newsletter-registratie, voor ledenpagina's of voor wettelijk verplichte subpagina's.

Maar het kan ook gebeuren dat belangrijke pagina's die eigenlijk geïndexeerd zouden moeten worden, in deze categorie terecht komen. Bijvoorbeeld door plugins, onzorgvuldigheid of door onzuiver gescripte WordPress-themes. Als dit het geval is, moet je de oorzaak vaststellen.

Tip: Als je de Yoast SEO-plugin gebruikt om je artikelen te optimaliseren, vind je een selectievakje aan het einde van de post. Met dit vakje kun je bepalen of de tag "index" of "noindex" aan het artikeln moet worden toegewezen. Andere SEO-plugins voor WordPress, zoals All in One SEO Pack van Michael Torbert, bieden soortgelijke functies.

NoIndex met WordPress
NoIndex met Yoast en WordPress

Met de SEO-Site-Checkup kun je controleren of het probleem hierdoor oplost wordt. Zo niet, dan is het ook mogelijk dat je de Yoast SEO-plugin verkeerd hebt geconfigureerd. In dit geval adviseer ik deze handleiding.

Sitemap.xml conbtroleren

A XML-Sitemap is een gids voor zoekmachines. Het bestand bevat een lijst met alle URL's van uw website en wanneer deze voor het laatst zijn gewijzigd. Er zijn veel Plugins die automatisch een sitemap genereren voor WordPress en WooCommerce . Bijvoorbeeld de Yoast Plugin. De sitemap daarvan is te bereiken via "jouwdomein.nl/sitemap_index.xml".

We laten Google zien waar de XML Sitemap zich bevindt. Om het voor crawlers zo gemakkelijk mogelijk te maken om er bij te kunnen. Ga hiervoor naar de zoekconsole op het tabblad "Sitemaps" en voeg het daar toe:

WordPress  Sitemap zoekconsole
Voeg jouw sitemap uit WordPress toe aan de Search Console

Robots.txt controleren

Vervolgens kijken we naar de robots.txt , via jouwdomein.nl/robots.txt. De robots.txt is een bestand met instructies voor de crawlers die je website bezoeken.

Als je WordPress-site nog geen gebruik maakt van robots.txt, kun je de volgende vermelding kopiëren en het bestand invoegen. Vervolgens upload je het handmatig naar de root van je FTP-mappen. Als alternatief kun je eenvoudig het robots.txt-bestand in de Yoast SEO-plugin aanmaken:

WordPress  robots.txt
Het robots.txt-bestand van Yoast WordPress SEO

In het beste geval ziet je WordPress robots.txt er zo uit:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

De meeste websitebeheerders vergeten echter de mogelijkheid om hun sitemap.xml in de robots.txt op te slaan.

Sitemap: https://jouwdomein.nl/sitemap_index.xml

Afhankelijk van wie er aan je website gewerkt heeft, kunnen er andere codefragmenten in de robots.txt staan. Soms sluiten ze bepaalde crawlers uit of proberen ze dat bepaalde pagina's stoppen met indexeren.

Opmerking: NoIndex-statements in robots.txt worden sinds juli 2019 niet meer ondersteund door Google. Heb je tot nu toe pagina's op deze manier uitgesloten? Dan moet je alternatieven implementeren zoals de NoIndex-tag.

Stap #4: Volg de aanbevelingen van de SEO-tool

Ondertussen zou de SEO-tool klaar moeten zijn met het scannen van je website - en een hele reeks aanbevelingen moeten presenteren. Voor de volgende stappen gebruik ik mijn favoriete tool SEMrush. Doorgaans analyseren de meeste SEO-tools alleen de technische aspecten van je website.

SEMrush SEO
Overzicht met aanbevelingen in SEMrush

Tip: naast elke hint in SEMrush vind je een link met de ankertekst: "Reden en oplosssing". Daar laat Semrush zien waarom deze fout een probleem is voor de zoekmachineoptimalisatie van je website.

Kritische handelingsaanbevelingen

Kritische fouten moet je in ieder geval oplossen. Ze hebben het meeste effect op de rankings van je websites en kunnen negatieve gevolgen hebben.

Waarschuwingen SEMrush
Waarschuwingen en fouten in SEMrush

Hierbij een lijst met zaken waar je je tijdens een SEO-audit bewust van moet zijn:

  • Elke website heeft slechts één H1-tag. Deze tag is kort, bondig en beschrijft duidelijk het onderwerp van de website. Als je er meerdere hebt, moet je dit veranderen.
  • Hebben al mijn pagina's een aansprekende metatitel? Of een aantrekkelijke en unieke metabeschrijving? Vermijd duplicaten. Je kunt veranderingen aanbrengen in de Yoast plugin, zie deze handleiding.
  • Is alle inhoud op mijn website uniek? En zo niet, dan gebruik ik NoIndex-tags of Canonicals, zodat ze niet geïndexeerd worden.
  • Laden al mijn websites snel genoeg (zie stap 5)?
  • Verwijzen alle interne en externe links naar geldige websites?
  • Zijn alle 404-fouten op mijn website hersteld (zie stap 3)?
  • Kunnen alle URL's op mijn website gecrawld worden (zie stap 2)?
  • Is mijn website alleen toegankelijk met een enkele https://-Version (zie stap 1)?

Verder:

  • Zijn alle afbeeldingen beschikbaar op mijn website en veroorzaken ze geen 404-fout?
  • Staat er een geldige XML Sitemap op mijn website?
  • Is er een robots.txt bestand voor mijn website? Bevat het alleen de instructies die echt nodig zijn?
  • Is de XML-sitemap opgenomen in de robots.txt?
  • Meertalige websites: wordt de tag href-lang juist uitgevoerd?
  • Is er een geldig SSL-certificaat geactiveerd? Is alle inhoud toegankelijk via https:// (beveiligde verbinding)?
  • Zijn de omleidingsketens (redirect chains) verwijderd?
  • Zijn Javascript- en CSS-bestanden gecomprimeerd? Of is er serverzijdige caching?

Belangrijke aanbevelingen

Middelmatige fouten hebben een minder drastisch effect dan kritieke fouten. Ze hebben ofwel een passief effect op de ranking van je website ofwel beïnvloeden ze de gebruikerservaring. Dit heeft weer gevolgen voor de ranking van je website.

Hier moet je de volgende punten identificeren en oplossen:

  • De verhouding tussen tekst en HTML is groter dan 10 procent. Dit kan duiden op een overbelaste code.
  • URL's die minder dan 300 woorden hebben. Pagina's met weinig inhoud zijn meestal een indicator voor slecht onderzoek of slechte kwaliteit, zodat de vraag of de zoekintentie van de gebruiker niet kan worden beantwoord.
  • Metatitels zijn korter dan 70 karakters en uniek. Metabeschrijvingen zijn korter dan 160 tekens en uniek.
  • Elke afbeelding heeft ook een beschrijvend ALT-attribuut. Dit is belangrijk voor zoekmachines om de inhoud van een beeld te begrijpen. En voor een barrièrevrije en toegankelijke website.
  • Tijdelijke omleidingen zijn verwijderd of gewijzigd in 301-omleidingen.
  • URL's gebruiken koppeltekens en geen laag streepje (underscores). Koppeltekens worden gebruikt om woorden te scheiden.
  • Alle interne links gebruiken het dofollow-attribuut.
  • De site maakt gebruik van moderne technologieën zoals caching, compressie of moderne beeldformaten zoals webP om de laadtijd van een webpagina te verkorten. Zie de opmerkingen hier onder "Performance en SEO".
  • URL's zijn zo kort mogelijk. Stopwoorden worden vermeden.

Opmerkingen

Je moet ook de aanbevelingen oplossen, die helemaal niet als probleem worden gepresenteerd. In deze sectie geeft SEMrush je aanbevelingen waarbij de tool niet precies kan inschatten of deze instellingen zo bedoeld zijn. Bijvoorbeeld: moet deze pagina echt als noindex worden gemarkeerd? Aanbevolen acties met betrekking tot jouw inhoud horen er ook bij.

Dit is waar je naar moet kijken tijdens de SEO-audit:

  • Pagina's die met meer dan 3 klikken te bereiken zijn. Dit spreekt voor een slechte structuur van de website.
  • URL's van de website die maar één keer gelinkt worden, wat ook duidt op een slechte structuur.
  • Alle URL's die op de juistheid van de noIndex-tag en de noFollow-tag gecontrolleerd worden.

Stap #5: Paginasnelheid testen

Iedereen die de SEO-ontwikkeling van de afgelopen jaren heeft gevolgd, herinnert zich discussies zoals over de Mobilegeddon. Discussies die de hele SEO-scene in oproer hebben gebracht. De Mobilegeddon is weliswaar uitgebeleven. Maar het is geen geheim dat Google al jaren hard werkt om websites op het internet sneller te maken. Tegelijkertijd moedigt Google webmasters aan om de Google-index niet te overspoelen met pagina's van slechte kwaliteit.

Zo is de snelheid tot een pagina volledig is geladen een belangrijke rankingsfactor geworden. En Google heeft een aantal tools gelanceerd om websitebeheerders bij de optimalisatie van deze laadtijden te helpen.

Hoewel de paginasnelheid tot een van de zwakkere rankingsfactoren behoort, kan de laadtijd nog steeds van invloed zijn op de gebruikerservaring van je website. Het heeft dus een passief effect op de evaluatie van het gebruikersgedrag. Daaronder lijdt ook jouw omzet, zoals Amazon in een onderzoek heeft gepubliceerd.

Google wil hetzelfde fenomeen laten zien met zijn snelheidstest op Test my Site with Google . Een andere belangrijke tool die helpt bij het optimaliseren van je website is Google Pagespeed Insights.

Test mijn site Google
Prognose voor omzetverlies bij "Test My Site" van Google

Beide tools evalueren de huidige optimalisatie van je website en geven aanbevelingen die je moet uitvoeren. Ik wil hier niet verder ingaan op dit complexe onderwerp, maar verwijs naar de handleiding voor de PageSpeed Test.

Daarnaast kunnen de volgende tools worden gebruikt om een snelle evaluatie van de paginasnelheid te krijgen:

Een goede en betrouwbare webhosting zoals die van RAIDBOXES neemt veel werk uit handen. Want de servers staan precies op WordPress of WooCommerce en de gebruikerslast toegespitst zijn. Bovendien wordt de caching nog steeds serverzijdig overgenomen.

Tip: Je kunt geen gebruik maken van servercaching? Dan raad ik een plugin zoals WP-Rocketaan. Hoewel deze plugin niet gratis is, is deze compatibel met de meeste WordPress-plugins.

Mijn checklist voor het optimaliseren van jouw laadtijden:

  • Heeft jouw website een snelle webhosting? Bekijk: Snelheidsvergelijking.
  • Maakt de website gebruik van caching en compressie? Bekijk: Caching en Brotli-compressie.
  • Is elke URL op de website snel toegankelijk? Bekijk: Time to First Byte.
  • Zijn diensten zoals CDN's (bijvoorbeeld Cloudflare) correct geïntegreerd? Maar pas op: Zijn CDN's nuttig?
  • Zijn de grafische effecten tot een minimum beperkt (Javascript fade-ins etc.)?
  • Worden functies zoals Lazy Load gebruikt?
  • Zijn de beelden gecomprimeerd en gebruiken ze moderne formaten? Bekijk: beeldcompressie.
  • Wordt meta-informatie uit afbeeldingen verwijderd?
  • Zijn publiek toegankelijke documenten (.pdfs) gecomprimeerd?
  • Zijn alle afbeeldingen in de juiste afbeeldingsgrootte geüpload?
  • Wordt externe betrokkenheid grotendeels vermeden? Bijvoorbeeld, Google-lettertypen, social media-integratie, YouTube-video's etc.?
  • Zal het aantal plugins gereduceerd tot het strikt noodzakelijke?
  • Is de database van WordPress en WooCommerce opgeruimd en schoongemaakt?
  • Zijn er redirect-ketens die kunnen worden opgeheven?

Meer informatie over dit onderwerp:

Stap #6: De backlink-audit

Een backlink-audit controleert hoeveel backlinks naar jouw website verwijzen, of deze backlinks naar de belangrijkste URL's van je website verwijzen en hoe hoogwaardig ze zijn.

Waarom is dat zo belangrijk? Zelfs in 2019 worden de backlinks nog steeds gebruikt om een URL te beoordelen. Denk bij een backlink aan een aanbeveling. Elke URL die naar jouw website verwijst, doet zo'n aanbeveling voor de inhoud van je site. Backlinks zijn daarom een van de belangrijkste rankingsfactoren.

Google is nu echter zeer goed in het evalueren van hoe hoogwaardig/kwalitatief zo'n backlink is. Hier geldt: hoe hoger de kwaliteit van de bron en hoe beter de match met het onderwerp van uw website, hoe beter de kwaliteit van een backlink.

Maar het komt ook voor dat niet elke backlink die naar je website verwijst een goed advies is. Mogelijke redenen kunnen zijn:

  • Gekochte backlinks van dubieuze bronnen
  • Spam-aanvallen met als doel om een website te beschadigen
  • Gekoppelde website wordt niet meer onderhouden en de informatie is niet meer actueel
  • Gekoppelde website is verkocht of niet vernieuwd en is nu spam.

Het tweede geval stond bijvoorbeeld de ranking van een van mijn klanten in de weg, toen bijna tienduizend links uit spamdomeinen naar zijn pagina's verwezen.

Gelukkig biedt de Disavow-tool van Google (zo meteen meer hierover) een manier om dergelijke schadelijke en ongepaste links permanent uit te sluiten van de berekening van je ranking. En zie daar, slechts een paar dagen na het gebruik van de Disavow-tool waren al een aantal goede resultaten te zien:

Link Ontbinding
Succes na het gebruik van Disavow

Er zijn twee manieren om dergelijke links op te sporen:

Optie 1: Handmatig zoeken en verwijderen

Ga naar de Google Search Console. Onder "Links" vind je de widget "Top verwijzende websites". Daar vind je een lijst van alle domeinen die naar jouw website verlinken. Exporteer deze lijst als een tabel en controleer elk afzonderlijk domein op hun spam-inhoud:

Link lijst in de zoekconsole
De linklijst in de zoekconsole exporteren

Op https://www.google.com/webmasters/tools/disavow-links-main kun je deze domeinen dan ongeldig laten verklaren.

Optie 2: Een SEO-tool om de backlinks te analyseren

SEO-tools zoals Semrush en ahrefs geven je ook instrumenten om de backlinks van je website op hun kwaliteit te analyseren. Van alle tools zou ahrefs de beste aanbevelingen moeten geven, aangezien het vooral bekend is geworden om zijn grote backlink-database.

In Semrush vind je een overzicht van jouw backlinks onder het menu-item "Backlink Audit". Hier zie je het percentage backlinks dat afkomstig is van toxische (inferieure) bronnen. Het belangrijkste zijn de lijsten onder het tabblad "Audit".

Hier evalueert SEMrush precies waarom een URL als toxisch wordt beschouwd. Van daaruit kun je het als "veilig" markeren, of de URL of het hele domein direct in disavow.txt zetten. Vervolgens kun je het bij Google uploaden.

Als je dit hebt gedaan, zou je een paar uur later via de zoekconsole geïnformeerd moeten worden dat het Disavow-bestand succesvol is overgedragen:

Ontwerpbericht
Het bericht over Disavow van Google

Tip: Vergeet niet om de SEO-tools volledige toegang te geven tot jouw zoekconsole en analytische gegevens. Pas dan krijg je een gedetailleerd overzicht van al je backlinks.

Checklist:

  • Heeft het verlinkte domein een thematische verwijzing naar mijn website?
  • Is het linkdomein een spam-website (pornografische inhoud, oplichterij, nep-websites)?

De meest gelinkte pagina's en gelinkte ankerteksten controleren

In de Search Console vindt u het tabblad "Links". Daar zie je de widget Externe links -> De meeste gelinkte pagina's. Open dit verslag:

Meest gelinkte pagina's
Meest gelinkte pagina's in de Google Search Console

Nu kun je zien welke van de URL's op jouw website het meest gelinkt zijn door anderen. Meestal wordt jouw startpagina "/" het vaakst gelinkt. Dit heeft de eenvoudige achtergrond dat mensen de voorkeur geven aan het koppelen van merken in plaats van aan hele woordgroepen. En dat is een goede zaak. Waarom dit zo is, zal ik je zo meteen uitleggen.

We zijn echter eerst geïnteresseerd in het aantal links dat naar subpagina's verwijst. Dergelijke links zijn meestal een indicator voor hoogwaardige en onderwerprelevante verwijzingen, die door Google en andere zoekmachines als bijzonder goed worden beoordeeld.

Bekijk de volgende schermafbeelding eens goed:

Externe links
Verwijzingen naar subpagina's in de Search Console

231 backlinks verwijzen naar de startpagina "/", maar nauwelijks naar de belangrijke subpagina's. Er zijn helemaal geen backlinks voor de centrale diensten. Als zoekmachineoptimalisator zou ik nu het volgende willen concluderen:

  • De kwaliteit van de subpagina's is slecht, zodat ze niet worden gelinkt door andere websitebeheerders. Er is geen overeenkomstige prikkel.
  • De diensten zijn tot nu toe niet gerankt omdat er eenvoudigweg geen thematische backlinks zijn.

Laten we tot slot eens kijken naar de widget "top-referencing text". Je kunt deze ook vinden in de zoekconsole via "Links":

Bovenste verwijzende tekst
De analyse "top-referencing text" van Google

In het beste geval vind je hier een lijst met ankerteksten die verwijzen naar jouw domein of merk. Of op de auteurs van een website. Deze zijn zeer welkom en essentieel voor zoekmachineoptimalisatie, aangezien vermeldingen op het web betrouwbaar zijn voor zoekmachines. Ze helpen je een autoriteit op te bouwen.

Op de voet gevolgd moeten ankerteksten met trefwoorden verschijnen die heel belangrijk zijn voor je site. Bijvoorbeeld diensten of teamleden.

Ook hier neemt het vermoeden toe dat de diensten tot nu toe geen backlinks hebben ontvangen. Daarnaast kan men uit de ankerteksten aflezen dat belangrijke trefwoorden op dit moment nog steeds te kort komen Daarnaast zijn er ankerteksten van buitenlandse domeinen te vinden, die eventueel kunnen duiden op spam. Deze moeten nader worden onderzocht.

Stap #7: Controleer de rankings en het organische verkeer

Elke SEO-audit heeft tot doel om het organische verkeer van je websites op lange termijn te verhogen. Daarom zullen we in deze stap de huidige rankings van een website en het traffic uit Google Analytics onder de loep nemen.

Als eerste ga je naar Google Analytics op. In het menu-item Doelgroep -> Overzicht een overzicht van het aantal bezoekers in de afgelopen 12 maanden. Selecteer het segment "Alle gebruikers" en vervang het door "organische treffers":

Google Analytics
Organische toegangen in Google Analytics

In het beste geval zou de ranking van je website voortdurend moeten stijgen. Als het verkeer op je website is gestagneerd of zelfs is ingestort (zie het volgende geval), moeten we de redenen voor deze breakdown onderzoeken:

Google Update
Is een Google Update de oorzaak van deze terugval in aantallen?

In een dergelijk geval is het mogelijk dat je website werd getroffen door een Google-update. Helaas stelt Google websites niet individueel op de hoogte als een update hen negatief heeft beïnvloed. Het onderhoud en de controle ligt in handen van de webmasters.

Je kunt nu Google Search gebruiken om te controleren op updates en aankondigingen in deze tijdsperiode:

Google Update
Wat gebeurde er bij Google in augustus 2018?

En ziedaar, direct staan daar grote SEO-magazines, die een update op 1 augustus 2018 melden:

Google bemiddelen Update
De vermoedelijke oorzaak...

Nu weet je dat jouw website daadwerkelijk werd beïnvloed door een algoritme-update. Dit geeft je de mogelijkheid om meer informatie te krijgen over de oorzaken en gevolgen. Of je kunt informatie uitwisselen met anderen om de ranking van je website te herstellen.

Je kunt ook gebruik maken van de organische recherche van SEMrush en daar een domein naar keuze invoeren. Het diagram toont ook bekende updates van Google. Ze geven je een directe aanwijzing waarom het verkeer op dat moment is afgenomen:

SEMrush Google Updates
Informatie over updates van Google in SEMrush

Helaas toont Analytics geen gegevens over de huidige keyword-rankings van je website. Om dergelijke gegevens te krijgen, moet je een betaalde SEO-tool of UberSuggest gebruiken. Hoe groter de keyword-database van de SEO-tool, hoe beter je analyse zal zijn.

Om gegevens over de ranking van een website te krijgen, openen we opnieuw het organisch onderzoek in SEMrush.

Ook hier is het duidelijk dat tot nu toe alles correct is gedaan. En dat de rankings van het domein voortdurend verbeteren. Daarnaast krijgen we een overzicht van onze URL's: Op welk trefwoord of op welke positie staan ze?

Rangschikking van de trends
Ranking-trends van jouw belangrijkste keywords (SEMrush)

Als je op een van de trefwoorden klikt, krijg je een lijst te zien met alle belangrijke gegevens voor deze zoekopdracht. Ook een lijst met de top-10-resultaten. Met andere woorden: je ziet je concurrentie.

Hier is het de taak van onze SEO-audit om hier nieuwe trafficbronnen uit af te leiden en de huidige rankingen te evalueren. Dit is de enige manier om de kansen op het verhogen van je trefwoorden duidelijk te maken en het verkeer van de website op de lange termijn te vergroten. Analyseer wat de concurrenten die voor jou staan beter doen. Dit kan een betere inhoud zijn, een betere tool of gewoon een betere backlink.

Het gaat niet verder dan de reikwijdte van het artikel: Lees mijn gastartikel "Met de keyword-recherche naar SEO succes" door. Daar laat ik je stap voor stap zien hoe je met behulp van je huidige rankings een trefwoordonderzoek kunt doen om nieuwe verkeersbronnen op te sporen.

Wat doe je als het verkeer stagneert?

Ofwel jouw verkeer ontwikkelt zich niet meer omdat er geen nieuwe inhoud op de website wordt gepubliceerd, ofwel omdat je website niet in de positionering stijgt. Ook in dit geval adviseer ik een concurrentieanalyse voor elk trefwoord. Of gebruik een keyword-recherche om nieuwe trefwoorden te vinden.

Is de publicatie van de bijdragen iets langer geleden? Dan is het aan te raden om alle inhoud te verversen door deze te actualiseren. Zie stap 8.

Wat doe je als het verkeer ingezakt is?

Als je geen enkele aanwijzing vindt dat jouw website is beïnvloed door een Google-update, dan ligt het volgende vermoeden voor de hand: jouw website is het slachtoffer geworden van een technische fout. Volg al je wijzigingen volgens het principe van de reverse engineering terug. Controleer of de pagina's weken voor het instorten van het verkeer zijn gewijzigd of verwijderd. Of heb je nieuwe WordPress-plugins toegevoegd of updates uitgevoerd?

Wat de reden ook is, je moet de oorzaak achterhalen door middel van het uitsluitingsprincipe.

Stap #8: Content-audit en tekstkwaliteit

Zoekmachines houden van nieuwe inhoud! Niet voor niets maakt het nu deel uit van elke SEO-strategie om regelmatig inhoud op het internet aan te passen en nieuwe informatie toe te voegen. En ook jouw bezoekers zullen blij zijn met de huidige bijdragen.

Zo blijft de inhoud van jouw website dus ook actueel. En je vermindert het risico dat je concurrenten met nieuwe inhoud om de eerste plaats twisten. Er is niets ergers voor zoekmachines dan iemand naar een website met verouderde inhoud te sturen. Want het is de taak van zoekmachines om de gebruiker te helpen met het best mogelijke antwoord op zijn zoekopdracht. Als hij van jouw website afspringt, heeft de zoekmachine er geen baat bij. En het is niet goed voor je gebruikerservaring. Met andere woorden: het heeft een negatief effect op je ranking.

Daarom moet je regelmatig je inhoud aan een content-audit onderwerpen. In een inhoudsaudit analyseer je alle inhoud van je website om te zien of ze:

  • Toegevoegde waarde bieden voor de gebruiker
  • Actuele inhoud bevatten
  • Geen duplicaten van andere pagina's zijn
  • Organisch verkeer laten zien
  • Met andere pagina's gecombineerd kunnen worden
  • Hoe de gebruikerservaring deze URL beïnvloedt

Meestal maak je dan een lijst van alle URL's en bepaal je of een inhoud:

  • Verwijderd is
  • Samengevoegd is met een andere URL
  • Bijgewerkt kan worden
  • Of dat er geen handmatige actie nodig is

Je kunt een inhoudsaudit eenvoudig bijhouden in een spreadsheet/Excel tabel. Het ziet er ongeveer zo uit:

Inhoud Audit Voorbeeld
Voorbeeld van een Excel-ontwerp van de inhoudsaudit

Bovendien kun je in Google Analytics nog steeds elke URL afzonderlijk op de sessieduur en de bouncepercentage onderzoeken. De waarden geven informatie over de vraag of je bezoekers de inhoud van een website nuttig vinden of niet.

Ga naar het tabblad Google Analytics -> Gedrag -> Inhoud van de website -> Landingspagina's. Daar vind je een lijst met alle URL's en de meest bezochte pagina's:

Landingspagina analyse
De getallen van de landingspagina's in Google Analytics

Wil je meer weten over de content-audit? Dan raad ik het artikel Content Audit: bestaande inhoud analyseren aan geschreven door Mareike Doll. Hierin beschrijft zij in detail hoe een inhoudsaudit georganiseerd en uitgevoerd wordt.

Ook het boek Think Content van Miriam Löffler is zeer geschikt voor dit doel. Het bevat tal van tips over contentmarketing en de juiste contentstrategie.

Opmerking: vergeet metatitels en metabeschrijvingen niet!

Tijdens een content-audit richten veel webmasters zich alleen op de oppervlakkig zichtbare inhoud van hun website. Vaak vergeten ze hun metabeschrijvingen en metatitels daarop aan te passen. Dit zijn de korte teksten die later in de zoekresultaten worden weergegeven. Ze moeten gebruikers aanmoedigen om op je resultaten te klikken.

Om de metagegevens van je website te controleren: ga naar de Google-zoekopdracht en voer het commando "site:yourdomain.com" opnieuw in het zoekmasker in:

Metadata SEO
De meta-informatie in de Google-preview

Je ontvangt dan een lijst met al je geïndexeerde pagina's. Hier kun je zien welke metabeschrijvingen en metatitels te lang of te kort zijn.

Tip: Geef de inhoud van je pagina's altijd op een informatieve manier weer. Zorg er tegelijkertijd voor dat je zoekresultaten zo aantrekkelijk en boeiend mogelijk zijn voor de gebruiker. Meta-informatie is weliswaar geen actieve rankingsfactor meer. Maar het aantal mensen dat op je resultaten klikt kan nog steeds een passief effect hebben op je positionering. Het sleutelwoord is de Click-Through-Rate (CTR).

Of gebruik een tool zoals de Screaming Frog Spider. Het crawlt alle URL's van je website en laat zien of metabeschrijvingen te lang zijn of zelfs ontbreken:

metabeschrijving
Past elke metabeschrijving?

Met een plugin zoals Yoast SEO kan de meta-informatie van een URL direct in de WordPress editor bewerkt worden. Bovendien laat de plugin ook zien of je het aantal tekens hebt aangehouden:

WordPress  Meta SEO
WordPress Meta SEO in Yoast bewerken

Mijn conclusie

De lengte van mijn handleiding laat zien hoe uitgebreid een SEO-audit kan zijn. Het goede nieuws is: het is je gelukt! Als je al deze stappen volgt, moet je de zwakke punten van je website goed kennen. Je bent nu in staat om de belangrijkste te repareren.

Het slechte nieuws is dat een SEO-audit meestal veel uitgebreider is. Sommige onderwerpen zoals Structured Data, Google My Business of Duplicate Content zijn complexer dan ik hier zou kunnen beschrijven. Je kunt in de commentaren graag achterlaten voor welke subthema's je een geschikte tutorial mist.

Dus ook na een eerste audit is er nog veel ruimte voor verbetering. Voor sommige dingen moet je terugvallen op SEO-professionals. Zij hebben meer ervaring met het interpreteren van de gegevens om het probleem met de juiste benadering aan te pakken. Toch hoop ik dat ik je in dit artikel verder kon helpen. En nu: veel succes met je SEO-audit!

Welke vragen over de SEO-audit heb je? Welke tools kun je aanbevelen? Gebruik de commentaarfunctie. Wil je meer tips over WordPress en performance? Volg ons dan op Twitter, Facebook of via onze Nieuwsbrief.

Wat als een passie begon, is Dominiks beroep geworden. Tegenwoordig adviseert hij als zoekmachineoptimalisator bedrijven uit heel Duitsland bij de implementatie van OnPage & OffPage-maatregelen. Of hij voert ze zelf uit. Als "jonge blogger" deelt Dominik zijn kennis over zoekmachineoptimalisatie in zijn SEO-blog.

Gerelateerde artikelen

Commentaar op dit artikel

Schrijf een opmerking

Je e-mail adres wordt niet gepubliceerd. Verplichte velden zijn met * gemarkeerd.