Data is meer waard dan goud, maar je kan er niet direct in beleggen. Het is niet verhandelbaar. Sterker nog, de regels omtrend data en privacy worden met de dag strenger. SEO en Data Science zijn prachtige vakgebieden waar bij grote bedrijven dan ook veel geld in omgaat. Wat houdt dit eigenlijk in voor jouw project of organisatie en hoe kan jij als marketingpartij die 'data-driven approach' integreren?

Tegenwoordig zeggen veel marketingpartijen dat ze data driven werken terwijl ze dat in werkelijkheid niet doen. Ze weten vaak ook niet wat het inhoud. Na het lezen van dit artikel zal je begrijpen waarom seo en data science sterk zijn samen, maar ook een valkuil kunnen zijn voor je werkwijze.

Wat houden SEO en Data Science in

SEO is een Engelse afkorting dat staat voor 'search engine optimalisation' - ofwel zoekmachine optimalisatie. Het is een vakgebied waarbij jij je bezighoud om websites hoger te laten scoren in Google en meer bezoekers krijgt op je website. Het doel van een SEO expert is om ervoor te zorgen dat jij meer uit je website kan halen halen.

Jamie op de typemachine voor SEO teksten schrijven

Net als SEO is Data Science een prachtig vakgebied. Het combineert statistiek, wiskunde en domeinkennis. Het is dus 'interdisciplinair'. Met Data Science probeer je kennis en informatie te halen uit gestructureerde en ongestructureerde gegevens (data sets). Dit kan bijdragen bij het nemen van beslissingen of om toekomstige trends te kunnen voorspellen. Voor Data Science zijn er bepaalde frameworks die je kunnen helpen bij het proces. Zo is er is er onder andere ook SEMMA, KDP, TIDM, ASUM-DM en CRISP-DM (2).

Data Driven werken als marketing bureau

Het is belangrijk om te weten dat 'data driven' niet volledig als uitgangspunt moet worden genomen. Dit zeg ik uit ervaring als online marketeer. Vanuit een logica perspectief draai je een reeks varianten en expirimenten in je advertentie, leer je van deze statistieken en verbeter je deze. Vaak wordt dan het menselijke aspect. Ik ken marketeers die beter resultaat boekten voor hun klanten die alle advertenties op 'gevoel' draaiden dan marketeers die alle beslissingen nemen op basis van data en statistieken.

Een praktische aanpak

Nu zeg ik niet dat het één beter is dan het ander; je moet seo en data science combineren. En daar zijn mensen met verschillende skillsets voor nodig. Zo is de één beter in het creatieve aspect en de ander weer in het logische stukje.

  1. Relevante data verzamelen (doelgroep, prestaties, klantgedrag en interacties)
  2. Data analyseren (patronen in kaart brengen en visualiseren)
  3. Klanten segmenteren (demografisch, gedrag, voorkeuren)
  4. Personaliseren (bijschaven v/d de boodschap, gerichte advertenties)
  5. Optimaliseren (A/B testen, meten, bijsturen)
  6. Data Driven (beslissingen o.b.v. data i.p.v. onderbuikgevoel)

Als je data-driven werkt zul je als marketingpartij in staat zijn om je doelgroep beter te begrijpen. Je zal zien wat hun interesses zijn, waarom ze ergens naartoe navigeren en op welke manier. Zo zal je niet alleen in staat zijn om je conversie te optimaliseren, maar ook om de gebruikerservaring te verbeteren. Zo maak je de ervaring voor je bezoeker en potentiële klant een stuk aangenamer.

CRISP-DM 2

Tijdens mijn verrijking semester Data Science op Windesheim in 2022 hebben we dit model veel toe moeten passen. Het is een krachtig model die fijn aansluit op het proces. Niet alleen het uitvoeren, maar ook het documenteren. Zo analyseerden wij datasets effectief te analyseren met als einddoel om daar een uitgeprogrammeerd machine learning algoritme aan te knopen. Zo waren wij in staat om voorspellingen te doen die aardig nauwkeurig zijn. Dat was nog voor de tijd dat Chat-GPT een ding was.

CRISP-DM: snap het bedrijf, prepareer de data en visualiseer deze

Een Data Science framework

CRISP-DM is een Data Science framework. Hoewel het niet direct slaat op seo en data science is het wel een krachtige methode van data mining. Het is een Engelse afkorting dat staat voor: 'Cross-Industry Standard Process for Data Mining'. Het is een manier voor data-wetenschappers en data-analisten te helpen om datamining projecten (succesvol) uit te voeren. Het model kent 6 verschillende fases die hieronder staan uitgewerkt. Ik heb er expres voor gekozen om de Engelse termen terug te laten komen, omdat dit wat meer de lading dekt van de betekenis.

1: Business understanding

Een goed project start met het begrijpen van de klant en van het bedrijf. Zo ga je vaststellen wat de klant eigenlijk wil bereiken en welke data daarvoor nodig is. Veel mensen rushen dit proces, maar het is één van de belangrijkste fases. Anders ga je misschien de focus leggen op iets wat helemaal niet relevant is.

Bedrijfsverzamelpand Nr96 te Hoogeveen

2: Data understanding

In deze fase ga je kijken of je de data begrijpt. Dit draagt weer bij aan het fundament van het begrijpen van de business. Dit kan op bedrijfsniveau, zoals vakjargon. Het kan ook op technisch niveau. In welk datatype is het opgeslagen, zoals integer of een pointerlist.

3: Data preparation

In deze fase ga je de data gereedmaken voor gebruik. Zo kan het zijn dat je nulwaardes moet vullen, je nieuwe waardes moet creëren en data moet samenvoegen van verschillende bronnen. Het vervelendste is werken met 'vervuilde' data. Je werkt immers met mensen. Soms staat er 'jamie van achteren' in voornaam en is achternaam leeg - voorbeeldje. Dan weet je niet wie vervelender is; Jamie of de programmeur.

4: Modeling

Modeleren is een van de leukere fases. Hierbij ga je naar de data kijken en analyseer je welk algoritme hier het beste op aansluit. Ga je clusteren of juist regressief beredeneren? Zo genereer je wat statistieken, zoals een spreidingsdiagram - om je data beter te leren begrijpen. Vaak zie je dan ook gelijk welk model hier het beste op aansluit. Hoewel CRISP-DM geloofd in het itereren totdat je het allerbeste model hebt gevonden, zie je in de praktijk vaak dat er wordt gekozen voor een model dat 'goed genoeg' is. Tijd is net als data geld.

Data modeling en presenting in de vergaderruimte van Streverz

5: Evaluation

Dan ga je evalueren. Zo achterhaal je welk model het beste aansluit bij de business requirements. En is er wellicht iets waar je geen rekening mee hebt gehouden met de kennis die je nu hebt? Zo ga je je resultaten samenvatten, documenteren en voorleggen. Ook kijk je hoe zuiver je bevindingen zijn en stel je een plan op om het allemaal uit te rollen (deployen).

6: Deployment

In deze fase ga je je bevindingen toepassen en stel je een plan op hoe je controleert of het de juiste oplossing is. Voor advertenties kan dit bijvoorbeeld een experiment zijn, maar voor je bedrijfsuitvoering is het weer een stukje complexer. Je gaat na wat belangrijk is en hoe je deze bevindingen in de toekomst zou kunnen verbeteren.

Agile vs CRISP-DM

Als je bekent bent met verschillende werkmethoden vind je dit wellicht ook wel interessesant. Het verschil tussen Agile en CRISP-DM is dat de focus bij Agile ligt op het eindproduct en CRISP-DM op de ontdekkingen gedurende het proces. Het nadeel van CRISP-DM is dat het niet per se een projectmanagement framework is.

Regelgeving omtrend data

Hoewel data natuurlijk prachtig is en geld waard is kan je niet zomaar alles in je database pleuren en daar algoritmen op loslaten. Dan zoek je al snel etische grenzen op. Om dit op een nette manier te doen zijn er 'Data Compliances'. Er zijn vijf grote in de wereld die belangrijk zijn als je daarin opereert:

Zelf heb ik alleen niet met Canada te maken gehad, maar de rest wel. Het komt grotendeels op hetzelfde neer en er staat niet per se iets geks in. Als iemand verzoekt haar data te verwijderen binnen jouw domein, dan moet je daar gehoor aan geven. Ook mag je data niet te lang bewaren en mag je niet alles opslaan van je bezoekers. Zo kan je niet om een BSN nummer vragen tijdens een afrekenproces - niet meer dan logisch toch?

Matomo Analytics als alternatief

Als je wilt dat je data niet bij een 'random' partij staat raad ik Matomo Analytics aan - deze gebruik ik voor mijn hobby websites, zoals ThaMusicMix. Dan staat de data niet bij Google, Microsoft of Amazon, maar op je eigen server.

Voorbeeld van Matomo Analytics

Al is het wel wat ingewikkelder om op te zetten. Voor klanten gebruiken wij gewoon Google Analytics, omdat deze het beste werkt. Ook wanneer een klant wil overstappen, dan kan hij of zij de website data zonder gedoe meenemen naar een andere partij. Al komt dat gelukkig niet vaak voor.

Begin met het vergaren van data

Je staat natuurlijk te popelen om te beginnen als je hier bent aangekomen en alles hebt gelezen. Hoe moet je nou beginnen? Het is belangrijk dat je begint met sturen op Key Events (wat vroeger conversie heette binnen Google Analytics heet nu 'key events'). Hieronder staan een aantal voorbeelden van events die je kan instellen als je een websites of webshop hebt:

  • Product toegevoegd aan winkelwagen
  • Navigeren naar afrekenpagina
  • Bestelling afgerekend
  • Contactformulier inzendingen
  • Magazine of brochure downloads
  • Klik op affiliate link

Looker Studio is ook prachtige software. Hierin kan je een overzicht maken van je statistieken. Bijvoorbeeld hoeveel bezoekers je hebt, welke zoekwoorden je hoog scoort in zoekmachines, hoeveel Google Ads budget je uitgeeft en aan welke zoekwoorden je budget wordt gespendeerd of hoe je Meta advertenties presteren. Als je een webwinkel hebt is het interessant om een GAP-analyse uit te voeren op 'add_to_cart', 'navigate_checkout' en 'purchase'. Als veel mensen afhaken bij de checkout - endus er een groot gat (gap) plaatsvind - kan je concluderen dat daar wat mis is. Zo creëer je duidelijke metrics.

Vrouw met laptop bij een serverrack in een datacentrum (stockfoto)

Je kan zelf een eigen API programmeren die data vergaart van je systemen om deze vervolgens de integreren met Looker Studio. Verder kan je gebruikers opnemen met Microsoft Clarity en je doelgroepen opstellen met Google Audiences. Als je je data goed hebt gestroomlijnt kan je beginnen met kennis vergaren en deze toe te passen.