Dossier BI: Complex over heel de lijn

In de sector van de Business Intelligence blijven nog heel wat uitdagingen overeind staan, zowel op het vlak van de integratie en de validatie van gegevens, als het gebruiksgemak door een grote groep gebruikers. BI-projecten moeten nog veel klippen omzeilen.

Volgens Patrick Xhonneux, Strategy and Marketing Director bij SAS Institute, betekent de term Business Intelligence in ruime zin ?ieder gebruik van meetinstrumenten om te beslissen, te beheren, de prestaties te optimaliseren en de effici?ntie te verhogen?. Bepaalde aspecten van BI zijn, nog steeds volgens P. Xhonneux, dan weer gemakkelijk te gebruiken. Met name alle systemen waarmee a posteriori een beeld kan worden gevormd over de prestaties uit het verleden. Dit deel van BI is vandaag al tamelijk verzadigd. Maar het toepassen van BI op problemen in de markt met een voorspellende en meer analytische dimensie, waarmee ook nog eens de bedrijfsprocessen kunnen worden verbeterd, heeft nog een mooie toekomst voor zich. Van extractie tot exploitatie Maar voor we zover zijn, moeten nog heel wat obstakels worden overwonnen. BI behelst immers een heel complex proces. Om te beginnen is een ETL-proces nodig extract, transform and load-. Met andere woorden: binnen het bedrijf moeten gegevens verzameld worden uit diverse en aparte systemen. Dit kunnen intern ontwikkelde toepassingen zijn, of ERP-pakketten, CRM-oplossingen, enz. Vervolgens ondergaan de gegevens een behandeling om hun voorstellingsformaat uniform te maken en om ze in een datawarehouse te integreren tegenwoordig spreekt men ook over een BI-platform, wat dan vaak deel uitmaakt van een groter geheel van de SOA ? service-oriented architecture-. Pas dan zijn deze data bruikbaar voor BI-toepassingen. Na hun behandeling worden de gegevens verdeeld naar de gebruikers, die ze zullen hanteren om bijvoorbeeld vragenlijsten op te stellen of rapporten te publiceren. Uiteraard is het bovenstaande slechts de theoretische uitleg. In de praktijk duiken op ieder niveau obstakels op. Een eerste omvangrijk probleem vormt de integratie van uiteenlopende gegevensbronnen, die al heel lang binnen de infrastructuur van een bedrijf bestaan. Volgens een zeer recente studie van Aexis, de Belgische Business Intelligence specialist, is dit niet onopgemerkt gebleven bij onze bedrijven. Aexis ondervroeg de Belgische Top 500-ondernemingen met een omzet van meer dan honderd miljoen-. 120 onder hen leverden ook een antwoord in. Een overweldigende meerderheid blijkt al projecten in die zin te hebben ondernomen, omdat 93% op ??n of andere manier gegevens verzamelt geautomatiseerd, manueel of via een combinatie van beide-. Die integratie komt trouwens vaak eerder toevallig tot stand, omdat IT-systemen enigszins op levende organismen lijken: ze veranderen herhaaldelijk, vaak omdat ook de organisaties waarop ze steunen zelf voortdurend van gedaante verwisselen, meer bepaald door fusies en overnames. Naast de jaren geleden intern ontwikkelde toepassingen de legacy systemen-, vinden we tegenwoordig in de meeste bedrijven niet alleen ERP-systemen, maar ook steeds vaker CRM en SCM supply chain management- pakketten, specifieke human resources oplossingen, enz. E?n en hetzelfde bedrijf gebruikt soms zelfs tegelijkertijd meerdere toepassingen voor gelijkaardige taken. Carl Moons, General Manager bij Aexis, vertelt het verhaal van een klant waar niet minder dan vier verschillende toepassingen draaien voor het human resources beleid. Aexis waarschuwt dat een dergelijke context vaak tot chaos kan leiden. Datawarehouse: de flop? Een onvermijdelijk probleem: BI-toepassingen leveren uiteraard analyse- en rapporteringsoplossingen, maar wanneer die niet gevoed worden door alle databanken van de onderneming of wanneer de gegevens niet helemaal betrouwbaar zijn bijvoorbeeld omdat die gegevens niet meer zo recent zijn-, is de kans zeer groot dat ook de resultaten niet zullen beantwoorden aan de verwachtingen. Bij Hyperion meldt een gesprekspartner die liever anoniem wil blijven, dat ?zeer weinig datawarehouse projecten tot een succes zijn uitgegroeid?. Een belangrijke reden voor de talrijke mislukkingen zou erin bestaan dat datawarehouses lang niet alle informatie over het bedrijf verzamelen. Meer bepaald niet enkel wat al gerealiseerd werd, maar ook de gegevens over de budgetten of de geschatte resultaten. Het datawarehouse is een infrastructuur die statische gegevens verzamelt. In de IT-sector leeft een dogma dat bepaalt dat er niet wordt geschreven in een datawarehouse. Maar hoe kunnen BI-tools dan rekening houden met gegevens die gebruikers uit productieomgevingen aanleveren? Gegevens die overigens niet alleen uit verschillende toepassingen, maar zelfs uit verschillende sites worden verzameld? Daartegenover stelt onze gesprekspartner van Hyperion toch dat het datawarehouse voor andere problemen ? bijvoorbeeld wanneer men meer gedetailleerde analyses wil ? vaak wel de geschikte oplossing is. Christophe Sintubin, Marketing Manager bij Aexis, stelt: ?Toen we in 1997 onze eerste studie uitvoerden bij de bedrijven uit de Top 500, wist nog geen 40% waarover we het hadden toen we het woord ?datawarehouse? uitspraken. In 2002 was hun aantal al gestegen tot 55%. Sterker nog, enkele bedrijven hadden op dat ogenblik zelfs al datawarehouse managers in hun rangen. En vandaag kent 97% het principe?. Kan men nog zonder een datawarehouse wanneer men over BI spreekt? Volgens Carl Moons Aexis- niet: ?In principe kan je wel een systeem bedenken dat voor 100% gebaseerd is op het verzamelen van gescheiden gegevens, zodat je dan met een virtueel datawarehouse werkt. Maar er zijn duidelijke technische redenen om dit niet te doen. Transactionele systemen zijn niet geoptimaliseerd voor BI, de behoeften zijn totaal anders, en dat blokkeert de performantie van de beheerssystemen.? Tussen haakjes, dit aspect van de integratie van productiedata is Teradata, de grote specialist van datawarehouses, niet ontgaan. Een verantwoordelijke van het Franse filiaal, die door ?Le Monde Informatique? werd geciteerd, vertelt het succesverhaal van een implementatie voor de warenhuisketen Monoprix. In iedere winkel kunnen de kassagegevens rechtstreeks worden overgeheveld, bijvoorbeeld om de verkoop van specifieke producten op te volgen. En wanneer het om tijdsgebonden beperkingen gaat, is de uitdaging vaak nog veel kritischer. Neem bijvoorbeeld de financi?le sector, waar de elektronische afhandeling van een transactie slechts enkele seconden in beslag neemt. Het ?real time? aspect is dus van kapitaal belang. In geval van een fraudepoging, moeten de systemen dit bijna onmiddellijk kunnen herkennen en tot blokkering overgaan. En de kwaliteit in dit verhaal? Naast het integratieaspect moet men ook het kwaliteitsaspect van de gegevens in overweging nemen. P. Xhonneux meent dat ?wat we hebben vastgesteld, is dat de kwaliteit van de gegevens niet tot de exclusieve verantwoordelijkheid behoort van de informatica-afdeling, in tegenstelling tot wat lang werd gedacht?. Een identiek geluid horen we bij Hyperion waar onze gesprekspartner vertelt ?dat er een eigendomsoverdracht van de gegevens heeft plaatsgevonden. Tien jaar geleden was dit het exclusieve terrein van de IT. Maar wie anders dan de financi?le afdeling kan financi?le gegevens valideren? Vandaag circuleren nog altijd veel Excel-bestanden, maar voor de buitenwereld moet de financi?le rapportering worden gegroepeerd?. Deze verveelvoudiging van Excel-bestanden is zo pijnlijk dat onze collega?s van ?Network World? in hun nummer van 13 november een forum gaven aan James Kobelius, een consultant van het bedrijf Current Analysis. Het thema: ?Spreadsheet governance is a must?. Kobelius klaagt in het artikel over de te- vele gebruikers die de controles in verband met het beheer van datawarehouses ontkennen of minimaliseren. De veelvoud aan gegevensbronnen, gemaakt door specifieke afdelingen voor specifieke taken, die het noodzakelijk maken om gegevens vanuit diverse perspectieven te onderzoeken voor eenzelfde klant, eenzelfde contract of eenzelfde product, doet de behoefte groeien aan wat we als een uniek bedrijfsreferentiesysteem kunnen omschrijven. In BI-jargon spreekt men dan van ?Master Data Management?, waar begrippen als klant, product, leverancier, distributiekanaal, enz. op een eenduidige manier worden gedefinieerd voor alle toepassingen die er gebruik van zullen maken. Zo eenvoudig als Google! Ook andere elementen spelen mee. Zo wordt nog al te vaak gedacht dat BI-tools instrumenten zijn die slechts door een handvol superanalisten kunnen worden gehanteerd. Leveranciers spelen vandaag dan ook met de ambitie om het gebruik van hun oplossingen uit te breiden tot zoveel mogelijk werknemers binnen een bedrijf met diverse slogans, zoals BI for the masses, BI for everyone, pervasive BI, enz.-. Slogans die uiteraard doen vermoeden dat de ge?nstalleerde systemen een groot aantal gebruikers tot meerdere duizenden- kunnen ondersteunen, maar dat is niet altijd even evident. Want daarvoor moeten deze tools uitgerust zijn met degelijke autorisatiefuncties: niet iedereen mag immers het recht hebben om toegang te krijgen tot alle informatie. Overigens heeft niet iedereen dezelfde informatie nodig. Omwille van redenen van effici?ntie heeft het trouwens ook geen zin om de werknemers met tonnen gegevens te overstelpen. Die wil om uitsluitend relevante informatie te leveren, verklaart ook waarom de grote uitgevers van BI-software Business Objects, Information Builders, Cognos, SAS Institute, Hyperion, ?- recent een partnership hebben afgesloten met de specialisten van zoekmotoren, in het bijzonder Google dat goed op weg lijkt om het met zijn Onebox-console bij de bedrijven te gaan maken. Toch zijn enkele analisten niet overtuigd dat je niet om de firma uit Mountain View heen kunt. Specialisten voor documentbeheer, zoals EMC bijvoorbeeld dat Documentum heeft overgenomen- brachten onlangs oplossingen op de markt waarmee zowel niet-gestructureerde gegevens van opslaginfrastructuren kunnen worden ge?ndexeerd, als ?full text? opzoekingen uitgevoerd op al deze documenten. Een IDC-persbericht van september bevestigt deze trend waarin organisaties grote tekortkomingen hebben vastgesteld aan hun BI-systemen. Zij eisen steeds vaker een uniforme toegang tot al hun informatie. Volgens IDC heeft die recente verhoging in de vraag naar ??n enkele toegang geleid tot het cre?ren van nieuwe en vernieuwende softwaretoepassingen die gegevens en inhoud van diverse bronnen combineren. De studie onthult dat BI-leveranciers typische content management technologie?n aan hun toepassingen zullen toevoegen, zoals de indeling in categorie?n, ?fuzzy matching? en tekstanalyse. En dat zal ofwel via overnames, ofwel via partnerships met in dit domein gespecialiseerde leveranciers gebeuren. Nog volgens deze studie hebben content beheerders een duidelijk voordeel op het vlak van de functionaliteit, maar de BI-leveranciers hebben een veel groter marktaandeel. Tegelijk voert de studie aan dat de leveranciers van databanken er veel langer over gedaan hebben om te beseffen dat ze niet over de nodige elementen beschikten om een uniforme toegang tot de informatie te verschaffen. Xhonneux meent dat ?men pas geslaagd zal zijn op het ogenblik dat de interface om in de informatie te navigeren even eenvoudig zal zijn als Google. Wanneer men het heeft over BI for the masses , is niets zo gemakkelijk als een sleutelwoord intikken in een zoekmotor?. Bron: www.digimedia.be

Deel dit artikel

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn