Onze Inzichten

Blogs

Waarom je een ‘Data Operations Center’ nodig hebt

Mark van Leest
Mark van Leest
15 nov 2021 - 3 min read

Data zijn de brandstof geworden waar al je bedrijfsprocessen op lopen. Het tijdperk van hyperpersonalisatie is aangebroken en het Internet of Things zorgt dat businessmodellen onherkenbaar veranderen. Het beheer van al die data en de data-infrastructuur waar je ze op verwerkt is inmiddels net zo bedrijfskritisch als je fysieke infrastructuur. Tijd om na te denken over een nieuw operationeel model voor databeheer.

Hier bij Triple bouwen we niet alleen cloud-infrastructuren voor multinationals en andere grote bedrijven, we hebben ze ook in onderhoud. Onze klanten vertrouwen op hun cloud-infrastructuren voor bedrijfskritische processen, dus onze TechOps-helden houden ze 24/7 in de gaten. Bovendien verzamelen we voortdurend performancedata. Want je hebt continu real-time inzicht nodig in de prestaties van je infrastructuur.

Hetzelfde geldt voor beveiliging. Beveiliging van de cloud-infrastructuur is zo'n complexe kwestie geworden, dat zelfs de grootste ondernemingen gecentraliseerde teams van hoogopgeleide specialisten nodig hebben om hun gegevens en systemen veilig te houden. Vanuit zo’n Security Operations Center, kortweg SOC, worden alle systemen bewaakt en beveiligd. Het SOC heeft de middelen en het mandaat om proactief op bedreigingen te reageren.

Op weg naar een Data Operations Center?

Nu data steeds meer bedrijfskritisch zijn geworden, zou het een goed idee zijn om hetzelfde te doen voor data. Laten we dat een Data Operations Center noemen: DOC. En laten we eens nadenken over hoe zo'n DOC er uit zou moeten zien.

Als eerste zou je de mogelijkheid moeten hebben om je data-omgevingen voortdurend te bewaken, ongeveer zoals we omgevingen nu monitoren op beveiligingsproblemen, performance en technische issues. Het verzamelen, inladen, transformeren, beschikbaar maken en analyseren van data is een complex proces waarbij veel verschillende applicaties en systemen betrokken zijn. Op elk punt in het proces kan een stored procedure in een oneindige lus raken. Of een integratietoepassing zoals Azure Data Factory kan meer processorkracht gebruiken dan je wilt. Een andere veel voorkomende storing die we zien is dat databases hun maximale capaciteit bereiken, waardoor het proces vastloopt.

Automatische opsporing van dit soort fouten en storingen, met een goede rapportage op een centraal dashboard. Dat zou een krachtige manier zijn om de gezondheid van je data in de gaten te houden.

WHITEPAPER CLOUD DATA STRATEGIES

Datakwaliteit garanderen

In een modern bedrijf is datakwaliteit essentieel. Want je besluitvorming gebeurt steeds meer op basis van data. Bij personalisatie of yield management, is dat zelfs geautomatiseerd. Het adagium is dus: 'garbage in, garbage out'. Met andere woorden: slechte data maken slechte beslissingen. En je kunt je in concurrerende markten geen slechte beslissingen veroorloven. Daarom moet je de kwaliteit van je data bewaken en ervoor zorgen dat alle gegevens actueel, consistent, nauwkeurig en volledig zijn. Gelukkig kun je veel hiervan automatiseren.

Kosten beheersen

Het beheersen van de kosten van cloud-infrastructuur kan een lastige kwestie zijn. Doe het verkeerd en vergeet je bijvoorbeeld een ongebruikte database uit te zetten, dan valt je maandelijkse Azure-rekening hoger uit dan je had voorzien. Een DOC met real-time inzicht in je gebruik van cloudresources geeft je de felbegeerde grip op je cloudkosten en het vertrouwen dat je nodig hebt om de laatste weerstand te overwinnen tegen het beheren van data in de cloud.

De tools die je nodig hebt

Als je je DOC gaat opzetten, kun je constateren dat je cloudomgeving niet over de juiste tools beschikt. Je Data Operations Center wordt de thuisbasis van alle data en kennis over de prestaties van je data-infrastructuur. Een centraal thuis voor zowel de competenties als de hulpmiddelen die zorgen dat data door je organisatie stromen en voor goede beslissingen zorgen. De specialisten die dit zenuwcentrum bemannen kunnen alle andere afdelingen adviseren over datakwaliteit, performance en kosten, terwijl ze tegelijk beleid en best practices afdwingen.

Maar specialisten hebben gespecialiseerd gereedschap nodig. Bij het werken met Azure Monitor, de Microsoft-tool voor het monitoren van Azure-infra, zien we een paar ernstige tekortkomingen. Zo laat Azure Monitor alleen data zien van de voorgaande 14 dagen, tot een maximum van drie maanden, afhankelijk van het soort data. Dit maakt historische analyse, benchmarking en het signaleren van langetermijntrends moeilijk. Het is ook moeilijk om precies te traceren wanneer storingen en fouten optraden. We hebben daarom zelf tools gebouwd die ons wel de informatie geven die we nodig hebben om data-problemen goed te diagnosticeren.

Bovendien rapporteert Azure Monitor capaciteitsproblemen niet. Als een database zijn maximale capaciteit bereikt, stopt hij gewoon zonder aankondiging met het opslaan van data. Ook hiervoor moesten we dus zelf functionaliteit bouwen.

WHITEPAPER CLOUD DATA STRATEGIES

Controle, controle, controle

Er bestaat nog steeds nogal wat aarzeling om over te stappen op data-opslag en -verwerking in de cloud. Datamensen zijn nu eenmaal control freaks. En terecht. Als je met data werkt, wil je kunnen controleren wat wanneer en op welke manier verwerkt wordt. En je wilt er zeker van zijn dat de gegevens die je front-ends zien juist zijn. Er is daarnaast een enorme druk om de veiligheid en privacy van gegevens te garanderen en de kosten te beheersen. Het centraliseren van het beheer van de cloud data-infrastructuur in een competence center of Data Operations Center, is een goede manier om controle te krijgen over al deze aspecten van de data-infrastructuur.

Wil je weten hoe we klanten helpen met hun data-infrastructuur? Kijk dan eens op onze pagina's over data en analytics en cloud managed services.