Wat is technische SEO? 8 Technische aspecten die iedereen zou moeten weten

HomeBlogWat is technische SEO? 8 Technische aspecten die iedereen zou moeten weten

Technische SEO is niet voor iedereen even gemakkelijk. Maar toch is het handig om te weten welke aspecten -naast het schrijven van artikelen en link building- nog meer invloed hebben op de ranking van website pagina’s.

Wat is technische SEO

Technische SEO (zoekmachine optimalisatie) is in feite het verbeteren van de technische aspecten van een website om de ranking van website pagina’s in de zoekmachines te verhogen. Hierbij moet men denken aan:

  • Een website sneller maken (laadtijd van de website);
  • Gemakkelijker te doorzoeken website (structuur van de website);
  • Een website die begrijpelijk is voor zoekmachines (eenvoudig leesbaar).

Technische SEO maakt deel uit van on-page SEO, dat zich richt op het verbeteren van elementen op jouw website om hogere rankings te krijgen. Het is het tegenovergestelde van off-page SEO, dat gaat over het genereren van de bekendheid van een website via andere kanalen.

Wat is technische SEO

VRAGEN? BEL: 085-0640425

Waarom zou jij jouw site technisch optimaliseren?

Google en andere zoekmachines willen hun gebruikers de best mogelijke resultaten voor hun zoekopdracht aanbieden. Daarom crawlen en evalueren Google-robots webpagina’s op een groot aantal factoren. Sommige factoren zijn gebaseerd op de ervaring van de gebruiker, zoals hoe snel een pagina wordt geladen. Andere factoren helpen zoekmachines om te begrijpen waar jouw pagina’s over gaan. Dit heeft meer betrekking op de structuur van de website. Dus, door technische aspecten te verbeteren, helpt zoekmachines jouw site te doorzoeken en te begrijpen. Als je dit goed doet, word jij mogelijk beloond met hogere rankings of zelfs voorzien van rich media (extra aanvullingen die gegenereerd worden door zoekmachines).

Het werkt ook andersom: als je ernstige technische fouten maakt op de site, kan dit de ranking negatief beïnvloeden. Technisch kun je robots, zoals Google, blokken. Waardoor de website niet gecrawld kan worden. Jij zou niet de eerste zijn die dit overkomt door per ongeluk een slash op de verkeerde plaats in een robots.txt-bestand te zetten.

Het is in eerste instantie van belang dat een website goed werkt, snel te laden is en duidelijk en gemakkelijk te gebruiken voor gebruikers. Gelukkig komt het creëren van een sterke technische basis vaak samen met een betere ervaring voor zowel gebruikers als zoekmachines.

Wat zijn de kenmerken van een technisch geoptimaliseerde website?

Een technisch goede website is snel voor gebruikers en gemakkelijk te doorzoeken voor robots van zoekmachines. Een goede technische opzet helpt zoekmachines om te begrijpen waar een site over gaat. Een goed doordachte website met veel variatie in de onderwerpen voorkomt verwarring door bijvoorbeeld dubbele inhoud. Bovendien stuurt het bezoekers, noch zoekmachines, niet naar niet-werkende links. Een aantal belangrijke kenmerken van een technisch geoptimaliseerde website staan hieronder.

1. De Laadsnelheid van een website

Tegenwoordig moeten webpagina’s snel worden geladen. Mensen zijn ongeduldig en willen niet wachten tot een pagina wordt geopend. In 2016 toonde onderzoek al aan dat 53% van de bezoekers van mobiele websites zal vertrekken als een webpagina niet binnen drie seconden wordt geopend. Dus als jouw website traag is, raken mensen gefrustreerd en gaan ze naar een andere website en mis jij daardoor al dat verkeer.

Google weet dat trage webpagina’s een minder dan optimale ervaring bieden. Daarom geven zij de voorkeur aan webpagina’s die sneller worden geladen. Dus een trage webpagina eindigt ook verder in de zoekresultaten dan het snellere equivalent, wat resulteert in nog minder verkeer.

website snelheidVraagt jij je af of jouw website snel genoeg is? Dan kan je hier een website snelheidstest doen. Hierop kan je zien of de website snelheid hoger of lager scoort dan de gemiddelde snelheid.

2. Een website is doorzoekbaar voor zoekmachines

Zoekmachines gebruiken robots om de website te crawlen of spideren. De robots volgen links om inhoud op de site te ontdekken. Een geweldige interne koppelingsstructuur zorgt ervoor dat ze begrijpen wat de belangrijkste inhoud van de site is.

Maar er zijn meer manieren om robots te sturen. Jij kan bijvoorbeeld voorkomen dat ze bepaalde inhoud crawlen als je niet wil dat ze daarheen gaan. Ook kan je een pagina laten crawlen, maar hen vertellen deze pagina niet in de zoekresultaten te tonen of de links op die pagina niet te volgen.

Bestand Robots.txt

Men kan robots aanwijzingen geven op de site door het robots.txt-bestand te gebruiken. Het is een krachtig hulpmiddel dat zorgvuldig moet worden behandeld. Zoals in het begin al genoemd is, kan een kleine fout voorkomen dat robots (belangrijke delen van) jouw site doorzoeken. Soms blokkeren mensen de CSS- en JS-bestanden van hun site onbedoeld in het bestand robot.txt. Deze bestanden bevatten codes die browsers vertelt hoe jouw site eruit moet zien en hoe deze werkt. Als deze bestanden worden geblokkeerd, kunnen zoekmachines niet achterhalen of jouw site correct werkt.

Al met al wordt aangeraden om echt in robots.txt te duiken als je wil weten hoe het werkt. Of, misschien nog beter, laat een ontwikkelaar het voor jou regelen!

Meta robots tag

Als je wil dat robots van zoekmachines pagina’s crawlen, maar deze om de een of andere reden buiten de zoekresultaten wilt houden, dan kan je ze dat vertellen met de robots-metatag. Met de robots-metatag kan je ze ook instrueren een pagina te crawlen, maar niet om de links op de pagina te volgen. Met Yoast SEO is het gemakkelijk om een post of pagina te indexeren of te nofollowen.

3. Een website heeft geen ‘dode’ links

Zoals al aangegeven is, is dat trage websites frustrerend zijn. Wat misschien nog vervelender voor bezoekers is, is als ze terecht komen op een pagina die helemaal niet bestaat. Als een link naar een niet-bestaande pagina op de website verwijst, dan zullen mensen een 404-foutpagina tegenkomen. Daar gaat jouw zorgvuldig opgebouwde gebruikerservaring! Bovendien vinden zoekmachines deze foutpagina’s ook niet leuk. En ze hebben de neiging om nog meer dode links te vinden dan bezoekers tegenkomen, omdat ze elke link volgen die ze tegenkomen, zelfs als deze is verborgen.

404 and PAGE NOT FOUND Tape Rolls unrolled across white

Helaas hebben de meeste websites (ten minste) een aantal dode links, omdat een website een continu werk in uitvoering is: mensen maken dingen en breken dingen. Gelukkig zijn er hulpprogramma’s die jou kunnen helpen om dode links op jouw site te achterhalen. Eén van die online hulp tools is bijvoorbeeld: brokenlinkchecker.com

Om onnodige dode links te voorkomen, moet men altijd de URL van een pagina omleiden wanneer je deze verwijdert of verplaatst. Het meest ideale is als een nieuwe gewijzigde pagina de oude pagina vervangt. Zelf gebruiken wij voor de WordPress websites de Yoast SEO Premium versie om redirects te kunnen maken. Hiervoor heb je dan geen ontwikkelaar nodig!

4. Een website met dubbele inhoud (duplicate content)

Als men dezelfde inhoud op meerdere pagina’s van de website heeft staan – of zelfs op andere sites – kunnen zoekmachines in de war raken. Want, als deze pagina’s dezelfde inhoud laten zien, welke pagina’s zouden ze het hoogst moeten rangschikken? Als gevolg hiervan kunnen ze alle pagina’s met dezelfde inhoud lager rangschikken.

dubbele inhoud

Helaas is er mogelijk een probleem met de inhoud zonder dat je het weet. Om technische redenen kunnen verschillende URL’s dezelfde inhoud weergeven. Voor een bezoeker maakt dit geen enkel verschil, maar voor een zoekmachine wel; het ziet dezelfde inhoud op een andere URL.

Gelukkig is er een technische oplossing voor dit probleem. Met het zogeheten, canonieke link-element kan je aangeven wat de originele pagina – of de pagina die je wil rangschikken in de zoekmachines – is. In Yoast SEO kan men eenvoudig een canonieke URL voor een pagina instellen. En, om het jou gemakkelijk te maken, voegt Yoast SEO zelf-verwijzende canonieke links toe aan alle pagina’s. Hiermee voorkom je dubbele inhoudsproblemen waarvan je misschien niet eens op de hoogte was.

5. Het is veilig

Een technisch geoptimaliseerde website is een beveiligde website. Jouw website veilig maken voor gebruikers om hun privacy te garanderen is tegenwoordig een basisvoorwaarde. Er zijn veel dingen die je kan doen om jouw (WordPress) -website te beveiligen, en één van de meest cruciale dingen is het implementeren van HTTPS.

HTTPS zorgt ervoor dat niemand de gegevens kan onderscheppen die tussen de browser en de site worden verzonden. Dus, bijvoorbeeld, als mensen inloggen op jouw site, zijn hun inloggegevens veilig. Je hebt een zogenaamd SSL-certificaat nodig om HTTPS op de site te implementeren. Google erkent het belang van beveiliging en maakte daarom van HTTPS een ranking-signaal: veilige websites staan hoger dan onveilige equivalenten.

Eenvoudig controleren of uw website in de meeste browsers HTTPS is? Aan de linkerkant van de zoekbalk van de browser zie je een vergrendeling als deze veilig is. Als je de woorden ‘niet beveiligd’ ziet, heb jij (of jouw ontwikkelaar) wat werk te doen!

SSL Veiligheidscertificaat

6. Plus: het heeft gestructureerde gegevens

Gestructureerde gegevens helpen zoekmachines de website, inhoud of zelfs een bedrijf beter te begrijpen. Met gestructureerde gegevens kunnen zoekmachines vertellen, welk soort product jij verkoopt of welke recepten jij op de site hebt. Bovendien geeft het je de mogelijkheid om allerlei details over die producten of recepten te geven.

website structuur

Omdat er een vast formaat is (beschreven op Schema.org) waarin je deze informatie moet verstrekken, kunnen zoekmachines het gemakkelijk vinden en begrijpen. Het helpt hen om de inhoud in een groter geheel te plaatsen.

Het implementeren van gestructureerde gegevens kan jou meer brengen dan alleen een beter begrip door zoekmachines. Het maakt jouw inhoud ook geschikt voor rijke resultaten; die glanzende resultaten met sterren of details die opvallen in de zoekresultaten.

7. Plus: het heeft een XML-sitemap

Simpel gezegd, een XML-sitemap is een lijst van alle pagina’s van de site. Het dient als een routekaart voor zoekmachines op de site. Hiermee zorg jij ervoor dat zoekmachines geen belangrijke inhoud op jouw site missen. De XML-sitemap wordt vaak gecategoriseerd in posts, pagina’s, tags of andere aangepaste berichttypen en omvat het aantal afbeeldingen en de datum van de laatste wijziging voor elke pagina.

XML-sitemap

Niet altijd heeft een website een XML-sitemap nodig. Als het een interne koppelingsstructuur heeft die alle inhoud mooi verbindt, hebben robots het niet nodig. Niet alle sites hebben echter een geweldige structuur en het hebben van een XML sitemap kan daarom geen kwaad. Wij adviseren om altijd een ​​XML-sitekaart op de site te hebben.

8. Plus: internationale websites gebruiken hreflang

Als de site meerdere landen of landen waar dezelfde taal wordt gesproken, target, hebben zoekmachines een beetje hulp nodig om te begrijpen welke landen of taal men probeert te bereiken. Als jij de zoekmachines helpt, kunnen deze de mensen de juiste website voor hun gebied laten zien in de zoekresultaten.

Hreflang-tags helpen jou precies dat te doen. Jij kan voor een pagina bepalen voor welk land en taal deze is bedoeld. Hiermee wordt ook een mogelijk dubbel probleem opgelost: zelfs als jouw website in de VS en het Verenigd Koninkrijk dezelfde inhoud weergeeft, weet Google dat het voor een andere regio is geschreven.

Het optimaliseren van internationale websites is nogal een specialisme. Het is daarom verstandig om dit te laten uitvoeren door een Webdeveloper.

Wil jij meer weten over het verbeteren van de technische SEO? Neem dan gerust contact met ons op!

Hulp Nodig bij SEO?

Contactformulier