Blog:Hoe een data platform en een federatief data & analytics model jou kan helpen de Tour de France pool te winnen.
Ik houd van data, ik houd van sport, ik speel graag spelletjes en ik heb doorgaans een hekel aan verliezen. Deze cocktail maakt het invullen van de jaarlijkse Tour de France pool voor mij dan ook een serieuze aangelegenheid.
Wie dacht dat ik me bij het samenstellen van mijn team van wielrenners beperk tot het lezen van wat sportnieuws aangevuld met het vertrouwen op mijn intuïtie: think again.
Het begint met een gedegen analyse van het parcours: hoe zien de 21 dagritten eruit? Hoeveel tijdrit kilometers, vlakke aankomsten, bergetappes, hoogtemeters, en aankomsten bergop zijn er? Vervolgens, van essentieel belang: welke wielrenners hebben de juiste vorm te pakken? Wat waren de resultaten van de voorjaarsklassiekers? Wie rijdt welke voorbereidingskoers, hoe zwaar is de competitie en welke resultaten worden hierin behaald? Uiteraard kunnen ook de uitslagen van voorgaande edities van grote rondes niet ontbreken, inclusief die van de Giro en de Vuelta. Zitten hier positieve trends in verborgen die mijn concurrenten over het hoofd zien, waarmee ik ze te slim af kan zijn? Zitten er aanwijzingen in de ploegenpresentaties? Welke ploegen ogen het sterkst? Wat wordt er gezegd in de diverse interviews? Wie gaat voor het klassement, wie moet knechten en wie gaat vooral voor dagsucces?
Mocht je nou denken dat de data binnen jouw bedrijf verborgen zit in silo’s, probeert u zich dan eens te verplaatsen in mijn jaarlijkse dataverzameling als voorbereiding op mijn Tour de France pool. Maar er gloort hoop aan de horizon. De populariteit van de Tour de France pool heeft een vlucht genomen. Zo ontdekte ik enkele jaren geleden een heus wielren-data-paradijs. Een website waar nagenoeg alles centraal werd bijgehouden en in ruwe vorm beschikbaar gesteld. Je kon je eigen query’s en analyses loslaten op die data om tot eigen inzichten en keuzes te komen. Er waren zelfs mensen die complexe voorspellende algoritmes ontwikkelden en de resultaten hiervan weer als dataverrijking beschikbaar stelden.
Zie daar het bruggetje van wielren-pool-fetisjisme naar een actueel onderwerp uit het data vakgebied: Het samenspel van een (cloud) data platform en het federatieve data & analytics organisatiemodel. Hierbij worden decentrale analytics teams door middel van een centraal data platform en op basis van gezamenlijke governance afspraken gefaciliteerd om autonoom aan eigen data producten te werken. Deze data producten kunnen vervolgens weer met andere decentrale analytics teams worden uitgewisseld.
Ook voor zorgverzekeraar CZ is data, net zoals bij de meeste andere bedrijven, van essentieel belang. Data helpt ons bijvoorbeeld met het verbeteren van onze klantervaring, in de samenwerking met zorgverleners en toezichthouders en met het opsporen van fraude. Ons cloud data platform, gebaseerd op het innovatieve concept van een Lakehouse biedt hierbij de perfecte oplossing. Dit platform dient als enabler voor federatieve data analytics teams, zodat waardecreatie uit data binnen onze business domeinen plaats kan vinden. Wat maakt dit samenspel nou zo krachtig voor ons?
- Geïntegreerde Data Lake en Data Warehouse functionaliteiten
Een Lakehouse combineert de kracht van een Data Lake en een Data Warehouse in één platform, terwijl brondata slechts één keer wordt ontsloten en verwerkt. Federatieve analytics teams hebben vervolgens toegang tot zowel ongestructureerde als gestructureerde data, en hebben daarbij de flexibiliteit om de gegevens te verkennen, te transformeren en te analyseren op een uniforme en gestroomlijnde manier. Dit stelt teams in staat om snel inzichten te genereren en te profiteren van de rijke informatie die in het Data Lake aanwezig is.
- Real-time data-ontsluiting en verwerking
Het data platform biedt ons de mogelijkheid om data hoog-actueel, indien nodig real-time, te kunnen ontsluiten, verwerken en analyseren. Dit maakt het mogelijk om proactief te kunnen handelen binnen een omgeving met veranderende omstandigheden.
- Veerkrachtig gegevensbeheer en Data Governance
Het Lakehouse-concept legt een sterke nadruk op gegevensbeheer en data governance. Zo kunnen federatieve analytics teams bijvoorbeeld gebruikmaken van geautomatiseerde processen voor gegevensbeheer, gegevenskwaliteit en gegevensbeveiliging. Dit zorgt voor efficiënte en betrouwbare data pipelines die voldoen aan de hoogste normen voor gegevensbescherming en compliance. Analytics teams kunnen zich hierdoor met vertrouwen richten op analyse en waardecreatie.
- Schaalbaarheid en flexibiliteit voor toekomstige groei
Een Lakehouse op een cloud data platform biedt schaalbaarheid en flexibiliteit voor toekomstige groei. Analytics-teams kunnen gemakkelijk schalen naar grotere datasets en complexere analyses zoals Machine Learning en Artificial Intelligence, zonder zich zorgen te hoeven maken over infrastructuurbeperkingen.
Samengevat, biedt het samenspel tussen een cloud data platform en het innovatieve Lakehouse concept een krachtige omgeving voor federatieve analytics teams om autonoom met data te werken. Met de Tour de France voor de boeg ben ook ik inmiddels als federatief analytics team druk in de weer met het analyseren van de laatste updates over de koers. Sinds ik me in wielren-data-paradijs begeef, verloopt die voorbereiding steeds gestroomlijnder en kruip ik gestaag richting de top van het Tour de France pool klassement. Gelukkig blijft ook onvoorspelbaarheid een rol spelen. En gelukkig schrijft ChatGPT nog geen wedstrijdverslag als voorbeschouwing. Met die geruststellende gedachte voorzie ik een mooie Tour de France pool toekomst. Mét data platform…!
Wil je meer te weten komen over de federatieve data organisatie en -platform, de oplossing voor centraal vs. decentraal? Meld je dan aan voor de CEG Data op 5 september bij CZ (i.s.m. PostNL) in Tilburg. We delen kennis en ervaringen op o.a. de techniek, de organisatie van governance, competenties, capaciteit en eigenaarschap. Zie jullie daar!
Dave van den Hurck
Product Owner Datalake Platform, CZ Zorgverzekeringen
Deel dit bericht