Waarom duurt het zo lang? De NSC Fee & de dappere data engineer en Microstrategy.

Dat waren de onderwerpen van onze maandelijkse Nippur Night.

Regelmatig merken we dat onze eindgebruikers van mening zijn dat het opleveren van nieuwe data helemaal niet zo lang hoeft te duren. Dat is natuurlijk maar deels waar. Even snel iets in elkaar klikken kan tegenwoordig in bijna elke BI-tool wel. Maar dat betekent niet dat je ook iets hebt wat elke dag automatisch wordt bijgeladen en wat geïntegreerd is (en dus vergeleken kan worden) met andere rapportages en bronnen. We hebben een leuke discussie gevoerd over hoe je toch snel waarde kan leveren aan businessgebruikers en tegelijk ook ruimte moet nemen (en krijgen) voor een geïntegreerde oplossing als dat nodig is. De oplossing ligt voornamelijk in het vinden van de juiste combinatie tussen prototyping en het ontwikkelproces, en natuurlijk goed stakeholdermanagement.

Een geautomatiseerde en stabiele ontsluiting van brondata is een belangrijk onderdeel van ons dataplatform NAIA. Maarten Manders heeft ons meegenomen in hoe de dappere data engineer met behulp van de NSC (NAIA Source Connect)-Fee dit op een metadata-gedreven manier kan neerzetten. Door slim gebruik te maken van bestaande functionaliteit van Azure Data Factory in combinatie met de NAIA meta data engine wordt het beste van twee werelden bij elkaar gebracht. Met deze functionaliteit wordt dataontsluiting vanuit metadata gegenereerd en ben je in staat veel voorkomende load errors (zoals nieuwe bronkolommen, verwijderde of hernoemde bronkolommen) tijdig te detecteren en op te vangen zodat errors in het laden van brondata kunnen worden voorkomen.

Wat is de visie van Microstrategy op het gebruik van generative AI in haar producten en welke functionaliteit biedt het ONE platform van Microstrategy? Niels Koops en Sharon Waizman hebben ons uitgebreid laten zien wat de mogelijkheden zijn. Vooral de HyperIntelligence functionaliteit werd als iets unieks en sterk waarde toevoegend gezien. Daarnaast is het gaaf om te zien hoe BI tools worden uitgebreid met language models. We zijn erg benieuwd naar hoe dit wordt geadopteerd door de markt en of dit echt betekent dat we meerdere soorten eindgebruikers zullen gaan zien op het BI-platform. Ook waren er vragen over hoe het semantische model nu precies werkt en wat je allemaal moet doen om dit goed in te richten. Hierover gaan we een vervolg(pizza)sessie inplannen zodat we eens goed de diepte in kunnen gaan over dit onderwerp.

En zoals gebruikelijk hebben we de middag afgesloten met een heerlijk buffet en veel gezelligheid.