Conclusie
Al vele jaren maken Nippur consultants gebruik van datawarehouse generatie-software (vaak Quipu). Die software ondersteunt bij reverse-engineering van bron-databases en het genereren van de datamodellen die onderdeel uitmaken van de datalogistieke keten van een datawarehouse. Naast de datamodellen wordt ook code gegenereerd om de datamodellen fysiek te implementeren en om data door de datalogistieke keten te kunnen transporteren. Hiervoor gebruikt Quipu een uitgebreide metadata repository.
Wanneer we vervolgens additionele oplossingen of specifieke dataverzamelingen in datamarts opbouwen zijn we vaak geneigd om dit “hardcoded” in SSIS, Powercenter of SQL Stored Procedures te bouwen. Gegevens worden rechtstreeks, vanuit de ter beschikking staande datawarehouse structuren, getransformeerd naar een gewenste targetstructuur in de datamart inclusief filtering en/of aggregatie. Voor iedere nieuwe targetstructuur wordt daarmee als het ware een maatwerkoplossing voor een specifiek doel gerealiseerd.
Door ook bij het realiseren van datamarts of rapportageoplossingen meer gebruik te maken van metadata, wordt de oplossing eenvoudiger onderhoudbaar. Zodoende kan de business minder afhankelijk gemaakt worden van de beschikbaarheid van schaarse
ICT- en/of BI-resources voor het onderhoud van die structuren.
Ook kan een meer metadata gestuurde oplossing ervoor zorgen dat database objecten niet door een ontwikkelstraat (OTAP) hoeven waardoor de business veel sneller in staat is (binnen een uur of enkele uren) om aanpassingen in een KPI-rapportage door te voeren.
Ik heb tijdens mijn consultancy-opdrachten releasekalenders meegemaakt met doorlooptijden van enkele dagen tot en met 2 maanden.
Tenslotte heb ik het als een extra uitdaging ervaren (leuker werk) om de oplossing meer metadata-gestuurd te maken. Het nadenken over hoe een deel van de oplossing metadata gestuurd gemaakt kan worden levert een verbeterd inzicht in de kern van de problematiek die je probeert te adresseren.