De nabije toekomst van SEO

Zelf ben ik erg geïnteresseerd in het onderwerp SEO en ik merk om mij heen dat er steeds meer (kleine) bedrijven zijn die doorkrijgen hoe belangrijk het is en gemakkelijk €2000,- per maand besteden aan SEO. Dit geeft aan dat het belang van SEO door bedrijven gezien wordt en nu ben ik heel benieuwd wat er ons te wachten staat de komende tijd. Matt Cutts vertelt in onderstaande video waar je de komende maanden op moet letten. Ik zal de inhoud hieronder ook behandelen.

Allereerst is er sinds 22 mei de nieuwe update, Penguin 2.0. Het voornaamste doel van deze update is het nog harder aanpakken van blackhat-webspam. Wat is blackhat-webspam hoor ik je zeggen. Ook wel Black Hat SEO, Unethical SEO of simpel weg spamdexing genoemd is het inzetten van de aggressieve SEO strategieën, technieken en tactieken die zich alleen focussen op de zoekmachine zelf en niet op bezoekers. Dit zijn dus geen gebruiksvriendelijke websites, maar zijn puur gericht op het zo hoog mogelijk in de zoekresultaten komen. Dit is volledig in strijd met hetgeen Google wilt bereiken en daarom gaan zij dit nog harder aanpakken.

Advertorials moeten de quality guidelines van Google volgen. Het is dus niet toegestaan om een als advertorial vermomde advertentie inclusief links te gebruiken. Als deze advertorials worden misbruikt voor het doorgeven van PageRank is het al helemaal fout. Je kan deze links wel blijven gebruiken, maar laat dan duidelijk zien dat het om een betaalde advertentie gaat.

In het verlengde van het voorgaande ligt de hardere aanpak op paid-link netwerken. Als je links verkoopt om de PageRank te verhogen zal je flink worden aangepakt. Matt Cutts legt in een andere video heel simpel uit wat je te wachten staat wanneer je dit toch doet:


Het komt op het volgende neer: wanneer een site die ook naar jouw site linkt, wordt aangepakt voor het kopen van links dan wordt je eigen site niet gestraft maar ontvang je niet de bijdrage voor je PageRank (de zogenaamde linkjuice) die je eerst wel van deze link ontving. De site die de links koopt echter zal zo’n 30% tot 50% dalen in PageRank.

De niche spammers gaan ze aanpakken door de algoritmisch aan te passen en tegelijkertijd willen ze ook linkspammers aanpakken door de waarde van deze links te devalueren.

Ze blijven werken aan het onderwerp gehackte sites. Allereest proberen ze deze beter te detecteren. Daarnaast willen ze het beter communiceren naar webmasters toe. Ze willen dit gemakkelijker en beter inzichtbaar maken binnen de WMT (webmaster tools) zodat het voor hen gemakkelijker is om er vanaf te komen.

Er ligt nu meer focus op Autoriteiten. Wanneer jij door Google wordt gezien als een autoriteit binnen een bepaalde sector, is het mogelijk dat je content als nog relevanter wordt beschouwd en dus hoger in zoekresultaten zal komen te staan.

Sites die in de zogenaamde ‘’grey zone’’ beland zijn wat betreft de Panda Criteria en daardoor negatieve gevolgen hebben ondervonden, worden opnieuw bekeken. Google gaat, wat Matt noemt, ‘’kwaliteit-signalen’’ gebruiken om een beperkte boost te geven aan deze sites op het gebied van de ranking en zichtbaarheid.
Wat zijn in de Panda Criteria? Dat zijn de criteria die met de Panda update van Google in 2011 zijn meegekomen en die de content beoordelen op relevantie.

Wat ik zelf ook veel gemerkt heb tijdens het uitvoeren van de SEO analyse voor de MRO shop is dat het vaak voorkomt dat op verdere pagina’s in Google er zogenaamde geclusterde resultaten te zien zijn. Dit is een blok van resultaten die allemaal van dezelfde website komen. Ze willen gaan veranderen dat wanneer zo’n blok voorkomt, er op de pagina’s erna minder resultaten van deze website voor zullen komen. Op dit onderwerp kom ik zo nog terug.

Naast de webmaster te helpen wanneer de site gehackt is, willen ze ook de webmaster van meer details en informatie gaan voorzien, zoals (probleem veroorzakende) voorbeeld URL’s, om het gemakkelijker te maken erachter te komen waar problemen zitten.

In wezen verandert er dus niet heel veel; het blijft belangrijk dat je relevant bent voor je doelgroep en je een gebruiksvriendelijk site hebt met kwalitatief sterke content die mensen dan ook willen gaan delen.

Matt zei in de video dat de geclusterde resultaten gebruikelijk vanaf pagina 4,5 en 6 plaatsvinden, maar dit is lang niet altijd het geval. Wat is nu eigenlijk het nut van de geclusterde resultaten, is het niet genoeg om 1 resultaat weer te geven? Matt behandelt dit in 1 van zijn video’s en ik zal dat hieronder ook toelichten.


In het begin van het bestaan van Google was er helemaal geen restrictie en kwam het voor dat met gemak een SERP (Search Engine Result Page) van 1 website was. Toen bedachten ze host clustering waarbij er maar twee zoekresultaten per subdomain beschikbaar werden. Gevolg was echter dat er talloze subdomains werden aangemaakt om toch een grote hoeveelheid resultaten in Google te krijgen. Toen veranderde ze het dat ieder opvolgend domein steeds moelijker werd om te ‘’ranken’’. Vervolgens vonden ze bij Google dat wanneer een site zeer goed bij een zoekopdracht past, deze toch meer zoekresultaten moet tonen. Hierdoor ontstond weer een gebrek aan diversiteit en daar was niet iedereen even blij mee. Als reactie hierop hebben ze er voor gezorgd dat op de eerste pagina meer diversiteit te zien is. Voor de andere pagina’s maakte dit niet veel uit. Dit heeft simpel weg te maken met het feit dat veel minder mensen deze pagina’s zien en Google zich hier dus niet zo druk om maakt. Om het toch aan te pakken hebben ze gedaan wat ik hiervoor heb behandeld, waarbij de site niet meer voorkomt (of veel minder) wanneer een geclusterd zoekresultaat naar voren is gekomen.

Als laatst wil ik nog graag een interessant aspect behandelen dat Matt behandelt.

Zijn er zaken die SEO analysten over hoofd zien, niet begrijpen of juist teveel tijd in steken? Wat Matt noemt wat mensen verkeerd aanpakken is linkbuilding. Veel mensen denken alleen aan hoe ze meer links kunnen krijgen in plaats van het grote plaatje te zien: hoe maak ik iets aantrekkelijk en zorg ik dat ik dat goed vermarkt? Mensen raken teveel gefocust op de zoekmachines en missen daoordoor bijvoorbeeld social media en social media marketing. Het is veel belangrijker dat het design goed is en de user experience optimaal is. Ook dit zijn eigenschappen waar Google rekening mee houdt en bovendien levert het ook simpelweg een goede website op.

Overige bronnen

http://www.traffic-builders.com/tblog/zoekmachine-optimalisatie/google-seo-2013-volgens-matt-cutts.html

http://www.traffic-builders.com/tblog/linkpopulariteit-pagerank/google-geen-backlinks-verkopen-kopen.html

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s