Waarom het Google Search API lek niet gaat veranderen hoe ik m’n SEO doe

Op 27 mei liet Rand Fishkin van SparkToro een spreekwoordelijk bom vallen: hij publiceerde een artikel een gigantische Google data lek van meer dan 2.500 pagina’s met 14.014 API attributen.

Dit lek dient zich aan tijdens de meest tumultueuze periode sinds jaren voor zowel Google als (kleine) publishers. Een tijd waar AI dreigend aan de deur staat om de regels van het informatie zoekspel grondig te veranderen en onafhankelijke website eigenaars hard om hun oren zijn geslagen met de meest rigoureuze Google updates sinds meer dan een decennium.   

Deze documentatie doet niet de precieze werking van Google’s search algoritme uit de doeken. Het laat niet zien hoe zwaar bepaalde elementen wegen binnen Google’s search algoritme. Wel laat het in groot detail zien welke data allemaal verzamelt en geeft het een redelijk idee uit welke componenten Google’s zorgvuldig beschermde algoritme bestaat.

Even belangrijk: de gelekte documentatie zou laten zien dat Google webmasters en SEO’s jarenlang voorgelogen heeft betreft hetgeen je moet doen om je zichtbaarheid via Google te vergroten.

De afgelopen 10 dagen is deze lek uitgebreid gecoverd door nieuws publicaties (niet alleen binnen SEO, maar ook mainstream media zoals The Verge) en is het eindeloos bediscussieerd binnen fora zoals Reddit en Facebook groepen.

Ik ben een tikkeltje laat maar wilde alsnog graag mijn duit in het zakje doen. Ga ik mijn SEO-aanpak veranderen in het licht van deze lek? De titel van dit stuk verraadt al dat dat dit niet het geval is.

Google’s data lek: wat zijn de meest in het oog springende punten?

Navboost, CTR, goede kliks en slechte kliks

Volgens Google worden kliks op de SERPs niet direct gebruik als ranking factor. Navboost echter, wat 84 keer wordt genoemd in de documentatie, heeft een specifieke module voor klik signalen.

De bottom line is dat Google kliks gebruikt en gedrag na deze kliks als onderdeel van hun ranking algoritme. Ze meten “goede kliks” en “slechte kliks” – evenals de datum van de laatste goede klik naar een pagina.

Een van de dingen die dit suggereert is dat het verliezen van verkeer naar een pagina veroorzaakt kan worden doordat de pagina te weinig kliks relatief tot de positie in de SERPs die de pagina heeft.

Daarbij is een “pogo-sticking” (een gebruiker landt op je pagina, keer terug naar de SERPs, en kies een ander zoekresultaat) een negatieve factor.

Google lijkt hierin op social media waarbij engagement de voornaamste metric is in het bepalen wat voor content hun algoritme serveert.

Er werd behoorlijk wat stennis geschopt over deze openbaring, maar mij leek het al jaren nogal evident dat Google op dergelijke data leunde. Los van het feit dat ze er een beetje vaag en soms ontkennend over praatten, waarom zouden ze dit soort UX-signalen niet gebruiken?

Dan de impact van deze openbaring op m’n SEO-aanpak. Ik probeer al sinds jaar en dag m’n pagina’s zo goed, boeiend en compleet mogelijk te maken zodat bezoekers wel twee keer nadenken voordat ze de moeite nemen naar een andere site binnen de SERPs te navigeren.

Mij leek dit in de kern altijd waar SEO over ging: troef je tegenstanders af met betere content. En ja, ik ben me er terdege van bewust dat Google grove fouten maakt en talloze keren meuk boven kwaliteit verkiest. Maar kwaliteit van je content is in elk geval een variabele die intellectueel gezien interessant is om aan te werken en de grootste kans biedt om je site algoritme-bestendig te krijgen als kleine publisher.

Google heeft een “site authority” score

Ja, Google heeft altijd ontkend een site autoriteit score aan websites te hangen.

Maar iedereen die wel eens een versie van een artikel van z’n eigen site op een grotere site heeft geplaatst en dit binnen een dag boven het eigen artikel uit zag torenen, weet dat dit volstrekte onzin is.

En wederom is deze “openbaring” niet iets waar ik echt iets mee kan of wat in m’n SEO-tactieken ga laten doorvloeien.

Google gebruikt Chrome data

Heb ik hier iets gemist?

Mij leek het voor de hand liggend dat het hele punt van Chrome en Android voor Google was om meer data over hun gebruikers te verzamelen en aan hun Google algoritme te voeren.

Ik heb Google dit nooit horen ontkennen, maar uit wat tweets die Authority Hacker over dit onderwerp liet zien bleek dat ik ernaast zat.

Wederom, ik heb er moeite mee me voor te stellen dat dit voor iemand als een verrassing kwam. En zelfs als dit wel zo was, hoe ga je je SEO aanpak erop aanpassen?

Google auteurschap bestaat

In de lek komen de functies “isAuthor” en “authorName” naar bovendrijven. Dit suggereert dat de auteur van een artikel een ranking factor is.

Klopt dit, dan is het hele EEAT verhaal toch niet uit Google’s duim gezogen.

Voor mij zal ik blijven doen wat ik altijd al deed: de entiteit “Joost Boer” blijven linken aan onderwerpen die voor Start24 interessant zijn zoals business software en ondernemen.  

Kleine, persoonlijke sites worden gemarkeerd

Kijk, dit is noemenswaardig omdat het afgelopen jaar talloze kleine sites de nek zijn omgedraaid ten faveure van Reddit, Forbes en het kliekje van 16 mediabedrijven wat Google domineert.

(En waren het niet een van deze websites, dan waren het waren het wel webshops.)

Ik zag hier nogal wat stof over opwaaien maar feit is dat noch wat een kleine site inhoudt precies wordt gedefinieerd, noch of het hier om een negatieve qualifier gaat.

Echte actiepunten zijn er hoe dan ook niet aan te koppelen: ik heb helaas niet de middelen om het nogal bescheiden blogje Start24 te transformeren in een Forbes-achtig monster.  

Negatieve ranking factoren

Even over op wat Engelse terminologie voor het gemak: toxic backlinks, anchor tekst mismatch, exact match domain demotion… Allemaal zaken die als negatieve ranking factoren kunnen werken.

Het enige wat ik hier opvallend vond was de “exact match domain demotion.” Dat gezegd hebbende werk ik niet met EMD’s dus voor mij persoonlijke relevantie is er  hier niet.

Wat betekent deze API-documentatie nou echt voor bloggers en kleine publishers?

Verdomd weinig als je het mij vraagt.

Als je het nog niet deed loont het waarschijnlijk om content op het internet op het internet te zetten waar je trots op bent. Content die je zonder blikken of blozen zou delen met vrienden en familie.

Content die up-to-date is, summier doch compleet is, iets toevoegt aan het internet en als het even kan ook een beetje vermaakt (blogs anno 2024 zijn, laten we eerlijk zijn, dodelijk saai – vooral als het vergelijkt met de content die een paar decennia terug op het internet te vinden was).

Daarbij is het waarschijnlijk slim om je afhankelijkheid van Google search zo snel mogelijk zo klein mogelijk te krijgen. Aan de hand van de documentatie zou je verwachten dat Google probeert de beste content aan haar bezoekers voor te schotelen.

Dat ze hier zo vaak op miserabele wijze in falen, betekent dat het voor je gemoedsrust waarschijnlijk een stuk beter is jezelf minder te zien als een “SEO,” en meer als een online ondernemer die een brede variëteit aan kanalen aanboort om bezoekers te bereiken (emaillijst, YouTube, Facebook, Pinterest, paid search etc.).  

Links zijn belangrijk maar vooral links van legitieme sites, in content die vers is en bezoekers ontvangt. Van een link plaatsing in een 10 jaar oud stuk hoef je weinig te verwachten. Digitale PR is dus de weg voorwaarts als het gaat om het bouwen van links.

Talloze SEO guru’s staan erop na deze lek dat Google’s algoritme testen belangrijker dan ooit is. Mijn probleem hiermee is dat 1) deze tests praktisch onmogelijk wetenschappelijk in te steken zijn (bijv. d.m.v. een statistisch relevante sample size, controleren voor alle variabelen etc.), 2) Google’s algoritme constant aan verandering onderhevig is en 3) er domweg lucratievere manieren zijn als online ondernemer (tenzij je een SEO guru bent misschien…) om je tijd te besteden.

Dus, nu alle stof een beetje is gedaald na deze SEO-lek is gewoon business as usual mijner zijde.  

Hoe sta jij erin?

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *