Wat is technische SEO? 8 Technische aspecten die iedereen zou moeten weten

4 juni 2019

Technische SEO is niet voor iedereen even gemakkelijk. Maar toch is het handig om te weten welke aspecten -naast het schrijven van artikelen en link building- nog meer invloed hebben op de ranking van website pagina's.

Wat is technische SEO

Technische SEO (zoekmachine optimalisatie) is in feite het verbeteren van de technische aspecten van een website om de ranking van website pagina’s in de zoekmachines te verhogen. Hierbij moet u denken aan:

  • Een website sneller maken (laadtijd van de website);
  • Gemakkelijker te doorzoeken website (structuur van de website);
  • Een website die begrijpelijk is voor zoekmachines (eenvoudig leesbaar).

Technische SEO maakt deel uit van on-page SEO, dat zich richt op het verbeteren van elementen op uw website om hogere rankings te krijgen. Het is het tegenovergestelde van off-page SEO, dat gaat over het genereren van de bekendheid van een website via andere kanalen.

Wat is technische SEO

Waarom zou u uw site technisch optimaliseren?

Google en andere zoekmachines willen hun gebruikers de best mogelijke resultaten voor hun zoekopdracht aanbieden. Daarom crawlen en evalueren Google-robots webpagina’s op een groot aantal factoren. Sommige factoren zijn gebaseerd op de ervaring van de gebruiker, zoals hoe snel een pagina wordt geladen. Andere factoren helpen zoekmachines om te begrijpen waar uw pagina’s over gaan. Dit heeft meer betrekking op de structuur van de website. Dus, door technische aspecten te verbeteren, helpt u zoekmachines uw site te doorzoeken en te begrijpen. Als u dit goed doet, wordt u mogelijk beloond met hogere rankings of zelfs voorzien van rich media (extra aanvullingen die gegenereerd worden door zoekmachines).

Het werkt ook andersom: als u ernstige technische fouten maakt op uw site, kan dit uw ranking negatief beïnvloeden. Technisch kunt u robots, zoals Google blokken. Waardoor uw website niet gecrawld kan worden. U zou niet de eerste zijn die dit overkomt door per ongeluk een slash op de verkeerde plaats in een robots.txt-bestand te zetten.

Het is in eerste instantie van belang dat een website goed werkt, snel te laden is en duidelijk en gemakkelijk te gebruiken voor uw gebruikers. Gelukkig komt het creëren van een sterke technische basis vaak samen met een betere ervaring voor zowel gebruikers als zoekmachines.

Wat zijn de kenmerken van een technisch geoptimaliseerde website?

Een technisch goede website is snel voor gebruikers en gemakkelijk te doorzoeken voor robots van zoekmachines. Een goede technische opzet helpt zoekmachines om te begrijpen waar een site over gaat. Een goed doordachte website met veel variatie in de onderwerpen voorkomt verwarring door bijvoorbeeld dubbele inhoud. Bovendien stuurt het bezoekers, noch zoekmachines, niet naar niet-werkende links. Een aantal belangrijke kenmerken van een technisch geoptimaliseerde website heb ik hieronder weergegeven.

1. De Laadsnelheid van een website

Tegenwoordig moeten webpagina’s snel worden geladen. Mensen zijn ongeduldig en willen niet wachten tot een pagina wordt geopend. In 2016 toonde onderzoek al aan dat 53% van de bezoekers van mobiele websites zal vertrekken als een webpagina niet binnen drie seconden wordt geopend. Dus als uw website traag is, raken mensen gefrustreerd en gaan ze naar een andere website en mist u daardoor al dat verkeer.

website snelheid

Google weet dat trage webpagina’s een minder dan optimale ervaring bieden. Daarom geven zij de voorkeur aan webpagina’s die sneller worden geladen. Dus een trage webpagina eindigt ook verder in de zoekresultaten dan het snellere equivalent, wat resulteert in nog minder verkeer.

Vraagt ​​u zich af of uw website snel genoeg is? Dan kunt u hier een website snelheidstest doen. Hierop kunt u zien of de website snelheid hoger of lager scoort dan de gemiddelde snelheid.

2. Een website is doorzoekbaar voor zoekmachines

Zoekmachines gebruiken robots om uw website te crawlen of spideren. De robots volgen links om inhoud op uw site te ontdekken. Een geweldige interne koppelingsstructuur zorgt ervoor dat ze begrijpen wat de belangrijkste inhoud van uw site is.

Maar er zijn meer manieren om robots te sturen. U kunt bijvoorbeeld voorkomen dat ze bepaalde inhoud crawlen als u niet wilt dat ze daarheen gaan. U kunt ze ook een pagina laten crawlen, maar hen vertellen deze pagina niet in de zoekresultaten te tonen of de links op die pagina niet te volgen.

Bestand Robots.txt

U kunt robots aanwijzingen geven op uw site door het robots.txt-bestand te gebruiken. Het is een krachtig hulpmiddel dat zorgvuldig moet worden behandeld. Zoals ik in het begin al noemde, kan een kleine fout voorkomen dat robots (belangrijke delen van) uw site doorzoeken. Soms blokkeren mensen de CSS- en JS-bestanden van hun site onbedoeld in het bestand robot.txt. Deze bestanden bevatten codes die browsers vertelt hoe uw site eruit moet zien en hoe deze werkt. Als deze bestanden worden geblokkeerd, kunnen zoekmachines niet achterhalen of uw site correct werkt.

Al met al wordt aangeraden om echt in robots.txt te duiken als u wilt weten hoe het werkt. Of, misschien nog beter, laat een ontwikkelaar het voor u regelen!

Meta robots tag

Als u wilt dat robots van zoekmachines pagina’s crawlen, maar deze om de een of andere reden buiten de zoekresultaten wilt houden, dan kunt u ze dat vertellen met de robots-metatag. Met de robots-metatag kunt u ze ook instrueren een pagina te crawlen, maar niet om de links op de pagina te volgen. Met Yoast SEO is het gemakkelijk om een post of pagina te indexeren of te nofollowen.

3. Een website heeft geen ‘dode’ links

Ik heb al aangegeven dat trage websites frustrerend zijn. Wat misschien nog vervelender voor bezoekers is, is als ze terecht komen op een pagina die helemaal niet bestaat. Als een link naar een niet-bestaande pagina op uw website verwijst, dan zullen mensen een 404-foutpagina tegenkomen. Daar gaat uw zorgvuldig opgebouwde gebruikerservaring! Bovendien vinden zoekmachines deze foutpagina’s ook niet leuk. En ze hebben de neiging om nog meer dode links te vinden dan bezoekers tegenkomen, omdat ze elke link volgen die ze tegenkomen, zelfs als deze is verborgen.

404 and PAGE NOT FOUND Tape Rolls unrolled across white

Helaas hebben de meeste websites (ten minste) een aantal dode links, omdat een website een continu werk in uitvoering is: mensen maken dingen en breken dingen. Gelukkig zijn er hulpprogramma’s die u kunnen helpen om dode links op uw site te achterhalen. Eén van die online hulp tools is bijvoorbeeld: brokenlinkchecker.com

Om onnodige dode links te voorkomen, moet u altijd de URL van een pagina omleiden wanneer u deze verwijdert of verplaatst. Het meest ideale is als een nieuwe gewijzigde pagina de oude pagina vervangt. Zelf gebruik ik voor de WordPress websites de Yoast SEO Premium versie om redirects te kunnen maken. Hiervoor heeft u dan geen ontwikkelaar nodig!

4. Een website met dubbele inhoud (duplicate content)

Als u dezelfde inhoud op meerdere pagina’s van uw website heeft staan – of zelfs op andere sites – kunnen zoekmachines in de war raken. Want, als deze pagina’s dezelfde inhoud laten zien, welke pagina’s zouden ze het hoogst moeten rangschikken? Als gevolg hiervan kunnen ze alle pagina’s met dezelfde inhoud lager rangschikken.

dubbele inhoud

Helaas is er mogelijk een probleem met de inhoud van de inhoud zonder dat u het weet. Om technische redenen kunnen verschillende URL’s dezelfde inhoud weergeven. Voor een bezoeker maakt dit geen enkel verschil, maar voor een zoekmachine wel; het ziet dezelfde inhoud op een andere URL.

Gelukkig is er een technische oplossing voor dit probleem. Met het zogeheten, canonieke link-element kunt u aangeven wat de originele pagina – of de pagina die u wilt rangschikken in de zoekmachines – is. In Yoast SEO kunt u eenvoudig een canonieke URL voor een pagina instellen. En, om het u gemakkelijk te maken, voegt Yoast SEO zelf-verwijzende canonieke links toe aan al uw pagina’s. Hiermee voorkomt u dubbele inhoudsproblemen waarvan u misschien niet eens op de hoogte was.

5. Het is veilig

Een technisch geoptimaliseerde website is een beveiligde website. Uw website veilig maken voor gebruikers om hun privacy te garanderen is tegenwoordig een basisvoorwaarde. Er zijn veel dingen die u kunt doen om uw (WordPress) -website te beveiligen, en één van de meest cruciale dingen is het implementeren van HTTPS.

SSL Veiligheidscertificaat

 

HTTPS zorgt ervoor dat niemand de gegevens kan onderscheppen die tussen de browser en de site worden verzonden. Dus, bijvoorbeeld, als mensen inloggen op uw site, zijn hun inloggegevens veilig. U hebt een zogenaamd SSL-certificaat nodig om HTTPS op uw site te implementeren. Google erkent het belang van beveiliging en maakte daarom van HTTPS een ranking-signaal: veilige websites staan hoger dan onveilige equivalenten.

U kunt eenvoudig controleren of uw website in de meeste browsers HTTPS is. Aan de linkerkant van de zoekbalk van uw browser ziet u een vergrendeling als deze veilig is. Als u de woorden ‘niet beveiligd’ ziet, heeft u (of uw ontwikkelaar) wat werk te doen!

6. Plus: het heeft gestructureerde gegevens

Gestructureerde gegevens helpen zoekmachines uw website, inhoud of zelfs uw bedrijf beter te begrijpen. Met gestructureerde gegevens kunt u zoekmachines vertellen, welk soort product u verkoopt of welke recepten u op uw site heeft. Bovendien geeft het u de mogelijkheid om allerlei details over die producten of recepten te geven.

website structuur

Omdat er een vast formaat is (beschreven op Schema.org) waarin u deze informatie moet verstrekken, kunnen zoekmachines het gemakkelijk vinden en begrijpen. Het helpt hen om uw inhoud in een groter geheel te plaatsen.

Het implementeren van gestructureerde gegevens kan u meer brengen dan alleen een beter begrip door zoekmachines. Het maakt uw inhoud ook geschikt voor rijke resultaten; die glanzende resultaten met sterren of details die opvallen in de zoekresultaten.

7. Plus: het heeft een XML-sitemap

Simpel gezegd, een XML-sitemap is een lijst van alle pagina’s van uw site. Het dient als een routekaart voor zoekmachines op uw site. Hiermee zorgt u ervoor dat zoekmachines geen belangrijke inhoud op uw site missen. De XML-sitemap wordt vaak gecategoriseerd in posts, pagina’s, tags of andere aangepaste berichttypen en omvat het aantal afbeeldingen en de datum van de laatste wijziging voor elke pagina.

XML-sitemap

Niet altijd heeft een website een XML-sitemap nodig. Als het een interne koppelingsstructuur heeft die alle inhoud mooi verbindt, hebben robots het niet nodig. Niet alle sites hebben echter een geweldige structuur en het hebben van een XML sitemap kan daarom geen kwaad. Ik adviseer u om altijd een ​​XML-sitekaart op uw site te hebben.

8. Plus: internationale websites gebruiken hreflang

Als uw site meerdere landen of landen waar dezelfde taal wordt gesproken, target, hebben zoekmachines een beetje hulp nodig om te begrijpen welke landen of taal u probeert te bereiken. Als u de zoekmachines helpt, kunnen deze de mensen de juiste website voor hun gebied laten zien in de zoekresultaten.

Hreflang-tags helpen u precies dat te doen. U kunt voor een pagina bepalen voor welk land en taal deze is bedoeld. Hiermee wordt ook een mogelijk dubbel probleem opgelost: zelfs als uw website in de VS en het Verenigd Koninkrijk dezelfde inhoud weergeeft, weet Google dat het voor een andere regio is geschreven.

Het optimaliseren van internationale websites is nogal een specialisme. Het is daarom verstandig om dit te laten uitvoeren door een Webdeveloper.

Wilt u meer weten over het verbeteren van de technische SEO? Neemt u dan gerust contact met mij op!

Terug naar overzicht