De noodzaak voor organisaties om digitaal te transformeren is enorm toegenomen. Volgens een BCG-enquête is deze urgentie bijna verdubbeld. Het gevoel van deze noodzaak is merkbaar en groeit. Lees meer over een cloud native mentaliteit én hoe dit helpt bij een digitale transformatie.

Veel organisaties worstelen met digitale transformaties, maar het gevoel van de noodzaak blijft groeien. Verouderde systemen en manieren van denken over de data-architectuur zijn vaak de boosdoener. Deze uitdagingen kunnen worden overwonnen door een cloud native manier van denken (dit is niet hetzelfde als naar de cloud gaan) en door data op een natuurlijke manier door de organisatie te laten stromen, zodat deze voor iedereen binnen de organisatie beschikbaar is.

Deze twee oplossingen zijn beiden te breed om in één artikel te behandelen, maar voor we beginnen over data democratie, is het belangrijk om eerst te begrijpen wat de effecten zijn van een overstap naar Cloud Native werken.

Ten eerste gaat datagedreven werken niet over de data zelf. Data is de brandstof om de rate of learning te verhogen, evenals de snelheid en schaal van besluitvorming. Als een organisatie datagedreven aan de slag gaat, wordt de kans op succes vergroot. McKinsey stelt dat het 23x zo waarschijnlijk is dat je met actief gebruik van data nieuwe klanten werft, je 6x meer kans hebt dat je deze klanten behoudt en dat het 19x zo waarschijnlijk is dat je in dit proces winstgevend zult zijn. Deze cijfers worden ook ondersteund door een Forrester-rapport dat stelt dat datagedreven organisaties met 30% per jaar groeien.

Het is niet de vraag ‘of’ maar ‘wanneer’ je moet veranderen.

Erwin SchoonderbeekSales at Incentro

Dit klinkt allemaal veelbelovend, maar waarom faalt nog steeds 80% van de organisaties hierin?

Zoals vaak het geval is, zijn de belangrijkste factoren de strategie en het begrip van dataconcepten bij het senior management (link). Als een van de eerste vragen is: "Wat is de ROI van data?”, dan weet je zeker dat ze het punt en de urgentie om hun organisatie daadwerkelijk te veranderen hebben gemist. Het gaat er niet om of je moet veranderen, het gaat erom wanneer. Jouw organisatie kan niet achterblijven, terwijl de:

  • Concurrentie zich verder ontwikkelt

  • Verwachtingen van de klant constant veranderen

  • Vraag zich aanpast

Technologische innovaties binnen jouw primaire bedrijfsprocessen dwingen je om te veranderen, en wel nú. Centralization is altijd de kettingreactie, wanneer een organisatie gefocust is op operational excellence.

Veel organisaties hebben al veel data beschikbaar, maar hebben er nauwelijks toegang toe. De belangrijke vraag is dan: hanteer je de juiste data-architectuur om data vrij door de organisatie te laten stromen, zodat deze beschikbaar is voor iedereen? De huidige, meest voorkomende architecturen zijn gebaseerd op centralisatie van de data uit de kernsystemen, beheerd en gecontroleerd door een centrale organisatie. Kortom: niet iedereen heeft toegang tot de juiste inzichten om van te leren of om voorspellingen op te doen. Vanuit het perspectief van operational excellence is dit een goede strategie, aangezien consistentie en voorspelbaarheid dan van belang zijn. Dit is de ‘veilige’ aanpak. Met oog op leren, snelheid en schaalbaarheid is dit niet de beste aanpak, omdat de centrale organisatie dan de bottleneck vormt voor innovatie. De oplossing? Die ligt in het midden, tussen chaos en controle.

Het oplossen van symptomen helpt alleen op de korte termijn, door het grotere probleem te negeren, tot het moment waarop het écht misgaat.

IT-oplossingen zijn meestal zo gebouwd, dat ze op zichzelf kunnen functioneren. Een goede strategie vanuit het leveranciersperspectief, hoewel dit ook een probleem introduceert: de data zit in silo's. Dit komt doordat alle oplossingen los van elkaar de data opslaan die ze nodig hebben. Vaak worden deze gegevens ook opgeslagen in andere IT-oplossingen.

Een mogelijke manier om dit probleem op te lossen is door centralisatie, namelijk door een nog grotere silo (datawarehouse) toe te voegen. Op korte termijn lijkt dit de beste oplossing, maar uiteindelijk zal dit niet helpen om het hoofddoel te bereiken. Om ervoor te zorgen dat data vrij door de organisatie kan stromen, moet je de core-IT-systems en data van elkaar scheiden. De trend die als gevolg hiervan ontstaat binnen softwareontwikkeling, is het bouwen van een microservices-architectuur.

Met een microservices-architectuur ben je in staat om individuele stukjes met een eigen functionaliteit te bouwen, die onafhankelijk kunnen worden ontwikkeld, geïmplementeerd en beheerd. Functionaliteiten, zoals een inlogservice, een service voor het aanmaken van een account en een betalingsservice, kunnen eenvoudig worden hergebruikt en gecombineerd om vervolgens nieuwe oplossingen te creëren.

Om de datastroom écht te verbeteren, is het opzetten van nieuwe patronen van data en dataverbruik cruciaal. In een ideale situatie omvat de service alle data in een producent-consumentrelatie en zijn de afdelingen in de organisatie eigenaar van de services die zij het beste kennen. Iedere data product valt onder de verantwoordelijkheid van het team dat de meeste kennis heeft over deze specifieke data. De dataproductie wordt gedistribueerd en gedecentraliseerd, waardoor gesloten silo's worden voorkomen. Dit noemen we ook wel ‘datademocratisering’. De vraag blijft echter: waar moet je beginnen? Onze collega Hayo van Loon legt in een blog uit hoe je dit kunt realiseert.

Door te zorgen dat de service een zogeheten “publisher-subscriber relationship”, kan bieden, zorg je dat iedereen die toegang heeft tot de service ook direct toegang heeft tot de data die van belang is. Zonder tussenkomst van een centraal datateam. Dit stelt de gebruiker in staat de data te gebruiken bij iedere innovatiedoelstelling.

Deze aanpak levert volgens BCG 2x meer waarde op, 2x snellere time-to-value en is 50% goedkoper. Sorry als we dit ter sprake brengen, als je net 8 miljoen in een “data lake” hebt geïnvesteerd, maar geloof ons… Er is een betere manier ;)