4 items tagged "agile BI"

  • ‘Vooruitgang in BI, maar let op ROI’

    5601405Business intelligence (bi) werd door Gartner al benoemd tot hoogste prioriteit voor de cio in 2016. Ook de Computable-experts voorspellen dat er veel en grote stappen genomen gaan worden binnen de bi. Tegelijkertijd moeten managers ook terug kijken en nadenken over hun businessmodel bij de inzet van big data: hoe rechtvaardig je de investeringen in big data?

    Kurt de Koning, oprichter van Dutch Offshore ICT Management
    Business intelligence/analytics is door Gartner op nummer één gezet voor 2016 op de prioriteitenlijst voor de cio. Gebruikers zullen in 2016 hun beslissingen steeds meer laten afhangen van stuurinformatie die uit meerdere bronnen komt. Deze bronnen zullen deels bestaan uit ongestructureerde data. De bi-tools zullen dus niet alleen visueel de informatie aantrekkelijk moeten opmaken en een goede gebruikersinterface moeten bieden. Bij het ontsluiten van de data zullen die tools zich onderscheiden , die in staat zijn om orde en overzicht te scheppen uit de vele verschijningsvormen van data.

    Laurent Koelink, senior interim BI professional bij Insight BI
    Big data-oplossingen naast traditionele bi
    Door de groei van het aantal smart devices hebben organisaties steeds meer data te verwerken. Omdat inzicht (in de breedste zin) een van de belangrijkste succesfactoren van de toekomst gaat zijn voor veel organisaties die flexibel in willen kunnen spelen op de vraag van de markt, zullen zijn ook al deze nieuwe (vormen) van informatie moeten kunnen analyseren. Ik zie big data niet als vervangen van traditionele bi-oplossingen, maar eerder als aanvulling waar het gaat om analytische verwerking van grote hoeveelheden (vooral ongestructureerde) data.

    In-memory-oplossingen
    Organisaties lopen steeds vaker aan tegen de performance-beperkingen van traditionele database systemen als het gaat om grote hoeveelheden data die ad hoc moeten kunnen worden geanalyseerd. Specifieke hybride database/hardware-oplossingen zoals die van IBM, SAP en TeraData hebben hier altijd oplossingen voor geboden. Daar komen nu steeds vaker ook in-memory-oplossingen bij. Enerzijds omdat deze steeds betaalbaarder en dus toegankelijker worden, anderzijds doordat dit soort oplossingen in de cloud beschikbaar komen, waardoor de kosten hiervan goed in de hand te houden zijn.

    Virtual data integration
    Daar waar data nu nog vaak fysiek wordt samengevoegd in aparte databases (data warehouses) zal dit, waar mogelijk, worden vervangen door slimme metadata-oplossingen, die (al dan niet met tijdelijke physieke , soms in memory opslag) tijdrovende data extractie en integratie processen overbodig maken.

    Agile BI development
    Organisaties worden meer en meer genoodzaakt om flexibel mee te bewegen in en met de keten waar ze zich in begeven. Dit betekent dat ook de inzichten om de bedrijfsvoering aan te sturen (de bi-oplossingen) flexibel moeten mee bewegen. Dit vergt een andere manier van ontwikkelen van de bi-ontwikkelteams. Meer en meer zie je dan ook dat methoden als Scrum ook voor bi-ontwikkeling worden toegepast.

    Bi voor de iedereen
    Daar waar bi toch vooral altijd het domein van organisaties is geweest zie je dat ook consumenten steeds meer en vaker gebruik maken van bi-oplossingen. Bekende voorbeelden zijn inzicht in financiën en energieverbruik. De analyse van inkomsten en uitgaven op de webportal of in de app van je bank, maar ook de analyse van de gegevens van slimme energiemeters zijn hierbij sprekende voorbeelden. Dit zal in de komende jaren alleen maar toenemen en geïntegreerd worden.

    Rein Mertens, head of analytical platform bij SAS
    Een belangrijke trend die ik tot volwassenheid zie komen in 2016 is ‘streaming analytics’. Vandaag de dag is big data niet meer weg te denken uit onze dagelijkse praktijk. De hoeveelheid data welke per seconde wordt gegenereerd blijft maar toenemen. Zowel in de persoonlijke als zakelijke sfeer. Kijk maar eens naar je dagelijkse gebruik van het internet, e-mails, tweets, blog posts, en overige sociale netwerken. En vanuit de zakelijke kant: klantinteracties, aankopen, customer service calls, promotie via sms/sociale netwerken et cetera.

    Een toename van volume, variatie en snelheid van vijf Exabytes per twee dagen wereldwijd. Dit getal is zelfs exclusief data vanuit sensoren, en overige IoT-devices. Er zit vast interessante informatie verstopt in het analyseren van al deze data, maar hoe doe je dat? Een manier is om deze data toegankelijk te maken en op te slaan in een kosteneffectief big data-platform. Onvermijdelijk komt een technologie als Hadoop dan aan de orde, om vervolgens met data visualisatie en geavanceerde analytics aan de gang te gaan om verbanden en inzichten uit die data berg te halen. Je stuurt als het ware de complexe logica naar de data toe. Zonder de data allemaal uit het Hadoop cluster te hoeven halen uiteraard.

    Maar wat nu, als je op basis van deze grote hoeveelheden data ‘real-time’ slimme beslissingen zou willen nemen? Je hebt dan geen tijd om de data eerst op te slaan, en vervolgens te gaan analyseren. Nee, je wilt de data in-stream direct kunnen beoordelen, aggregeren, bijhouden, en analyseren, zoals vreemde transactie patronen te detecteren, sentiment in teksten te analyseren en hierop direct actie te ondernemen. Eigenlijk stuur je de data langs de logica! Logica, die in-memory staat en ontwikkeld is om dat heel snel en heel slim te doen. En uiteindelijke resultaten op te slaan. Voorbeelden van meer dan honderdduizend transacties zijn geen uitzondering hier. Per seconde, welteverstaan. Stream it, score it, store it. Dat is streaming analytics!

    Minne Sluis, oprichter van Sluis Results
    Van IoT (internet of things) naar IoE (internet of everything)
    Alles wordt digitaal en connected. Meer nog dan dat we ons zelfs korte tijd geleden konden voorstellen. De toepassing van big data-methodieken en -technieken zal derhalve een nog grotere vlucht nemen.

    Roep om adequate Data Governance zal toenemen
    Hoewel het in de nieuwe wereld draait om loslaten, vertrouwen/vrijheid geven en co-creatie, zal de roep om beheersbaarheid toch toenemen. Mits vooral aangevlogen vanuit een faciliterende rol en zorgdragend voor meer eenduidigheid en betrouwbaarheid, bepaald geen slechte zaak.

    De business impact van big data & data science neemt toe
    De impact van big data & data science om business processen, diensten en producten her-uit te vinden, verregaand te digitaliseren (en intelligenter te maken), of in sommige gevallen te elimineren, zal doorzetten.

    Consumentisering van analytics zet door
    Sterk verbeterde en echt intuïtieve visualisaties, geschraagd door goede meta-modellen, dus data governance, drijft deze ontwikkeling. Democratisering en onafhankelijkheid van derden (anders dan zelfgekozen afgenomen uit de cloud) wordt daarmee steeds meer werkelijkheid.

    Big data & data science gaan helemaal doorbreken in de non-profit
    De subtiele doelstellingen van de non-profit, zoals verbetering van kwaliteit, (patiënt/cliënt/burger) veiligheid, punctualiteit en toegankelijkheid, vragen om big data toepassingen. Immers, voor die subtiliteit heb je meer goede informatie en dus data, sneller, met meer detail en schakering nodig, dan wat er nu veelal nog uit de traditionelere bi-omgevingen komt. Als de non-profit de broodnodige focus van de profit sector, op ‘winst’ en ‘omzetverbetering’, weet te vertalen naar haar eigen situatie, dan staan succesvolle big data initiatieven om de hoek! Mind you, deze voorspelling geldt uiteraard ook onverkort voor de zorg.

    Hans Geurtsen, business intelligence architect data solutions bij Info Support
    Van big data naar polyglot persistence
    In 2016 hebben we het niet meer over big, maar gewoon over data. Data van allerlei soorten en in allerlei volumes die om verschillende soorten opslag vragen: polyglot persistence. Programmeurs kennen de term polyglot al lang. Een applicatie anno 2015 wordt vaak al in meerdere talen geschreven. Maar ook aan de opslag kant van een applicatie is het niet meer alleen relationeel wat de klok zal slaan. We zullen steeds meer andere soorten databases toepassen in onze data oplossingen, zoals graph databases, document databases, etc. Naast specialisten die alles van één soort database afweten, heb je dan ook generalisten nodig die precies weten welke database zich waarvoor leent.

    De doorbraak van het moderne datawarehouse
    ‘Een polyglot is iemand met een hoge graad van taalbeheersing in verschillende talen’, aldus Wikipedia. Het gaat dan om spreektalen, maar ook in het it-vakgebied, kom je de term steeds vaker tegen. Een applicatie die in meerdere programmeertalen wordt gecodeerd en data in meerdere soorten databases opslaat. Maar ook aan de business intelligence-kant volstaat één taal, één omgeving niet meer. De dagen van het traditionele datawarehouse met een etl-straatje, een centraal datawarehouse en één of twee bi-tools zijn geteld. We zullen nieuwe soorten data-platformen gaan zien waarin allerlei gegevens uit allerlei bronnen toegankelijk worden voor informatiewerkers en data scientists die allerlei tools gebruiken.

    Business intelligence in de cloud
    Waar vooral Nederlandse bedrijven nog steeds terughoudend zijn waar het de cloud betreft, zie je langzaam maar zeker dat de beweging richting cloud ingezet wordt. Steeds meer bedrijven realiseren zich dat met name security in de cloud vaak beter geregeld is dan dat ze zelf kunnen regelen. Ook cloud leveranciers doen steeds meer om Europese bedrijven naar hun cloud te krijgen. De nieuwe data centra van Microsoft in Duitsland waarbij niet Microsoft maar Deutsche Telekom de controle en toegang tot klantgegevens regelt, is daar een voorbeeld van. 2016 kan wel eens hét jaar worden waarin de cloud écht doorbreekt en waarin we ook in Nederland steeds meer complete BI oplossingen in de cloud zullen gaan zien.

    Huub Hillege, principal data(base) management consultant bij Info-Shunt
    Big data
    De big data-hype zal zich nog zeker voortzetten in 2016 alleen het succes bij de bedrijven is op voorhand niet gegarandeerd. Bedrijven en pas afgestudeerden blijven elkaar gek maken over de toepassing. Het is onbegrijpelijk dat iedereen maar Facebook, Twitter en dergelijke data wil gaan ontsluiten terwijl de data in deze systemen hoogst onbetrouwbaar is. Op elke conferentie vraag ik waar de business case, inclusief baten en lasten is, die alle investeringen rondom big data rechtvaardigen. Zelfs bi-managers van bedrijven moedigen aan om gewoon te beginnen. Dus eigenlijk: achterom kijken naar de data die je hebt of kunt krijgen en onderzoeken of je iets vindt waar je iets aan zou kunnen hebben. Voor mij is dit de grootste valkuil, zoals het ook was met de start van Datawarehouses in 1992. Bedrijven hebben in de huidige omstandigheden beperkt geld. Zuinigheid is geboden.

    De analyse van big data moet op de toekomst zijn gericht vanuit een duidelijke business-strategie en een kosten/baten-analyse: welke data heb ik nodig om de toekomst te ondersteunen? Bepaal daarbij:

    • Waar wil ik naar toe?
    • Welke klantensegmenten wil ik erbij krijgen?
    • Gaan we met de huidige klanten meer 'Cross selling' (meer producten) uitvoeren?
    • Gaan we stappen ondernemen om onze klanten te behouden (Churn)?

    Als deze vragen met prioriteiten zijn vastgelegd moet er een analyse worden gedaan:

    • Welke data/sources hebben we hierbij nodig?
    • Hebben we zelf de data, zijn er 'gaten' of moeten we externe data inkopen?

    Databasemanagementsysteem
    Steeds meer databasemanagementsysteem (dbms)-leveranciers gaan ondersteuning geven voor big data-oplossingen zoals bijvoorbeeld Oracle/Sun Big Data Appliance, Teradata/Teradata Aster met ondersteuning voor Hadoop. De dbms-oplossingen zullen op de lange termijn het veld domineren. big data-software-oplossingen zonder dbms zullen het uiteindelijk verliezen.

    Steeds minder mensen, ook huidige dbma's, begrijpen niet meer hoe het technisch diep binnen een database/DBMS in elkaar zit. Steeds meer zie je dat fysieke databases uit logische data modelleer-tools worden gegeneerd. Formele fysieke database-stappen/-rapporten blijven achterwege. Ook ontwikkelaars die gebruik maken van etl-tools zoals Informatica, AbInitio, Infosphere, Pentaho et cetera, genereren uiteindelijk sgl-scripts die data van sources naar operationele datastores en/of datawarehouse brengen.

    Ook de bi-tools zoals Microstrategy, Business Objects, Tableau et cetera genereren sql-statements.
    Meestal zijn dergelijke tools initieel ontwikkeld voor een zeker dbms en al gauw denkt men dat het dan voor alle dbms'en toepasbaar is. Er wordt dan te weinig gebruik gemaakt van specifieke fysieke dbms-kenmerken.

    De afwezigheid van de echte kennis veroorzaakt dan performance problemen die in een te laat stadium worden ontdekt. De laatste jaren heb ik door verandering van databaseontwerp/indexen en het herstructureren van complexe/gegenereerde sql-scripts, etl-processen van zes tot acht uur naar één minuut kunnen krijgen en queries die 45 tot 48 uur liepen uiteindelijk naar 35 tot veertig minuten kunnen krijgen.

    Advies
    De benodigde data zal steeds meer groeien. Vergeet de aanschaf van allerlei hype software pakketten. Zorg dat je zeer grote, goede, technische, Database-/dbms-expertise in huis haalt om de basis van onderen goed in te richten in de kracht van je aanwezige dbms. Dan komt er tijd en geld vrij (je kan met kleinere systemen uit de voeten omdat de basis goed in elkaar zit) om, na een goede business case en ‘proof of concepts’, de juiste tools te selecteren.

  • Adapting businesses are always ahead of their competition

    Adapting businesses are always ahead of their competition

    Firms need a new formula for success to stay competitive in the age of the customer, agility alone is not enough. We see many CIOs and their teams doubling down on agility as a means to cope with the accelerating pace of business. This is a result of people and technology evolving in complex upward spirals.

    While being agile is a good delivery strategy within a set business model, research finds that to stay ahead of technology-human loops, businesses must proactively rethink themselves and adapt or risk getting left behind.

    These firms, which we call 'adaptive businesses', will likely dominate firms that only deliver with agility. Adaptive businesses will win by identifying future opportunities and proactively reconfiguring themselves. Forrester’s 2019 North American Online Innovation Survey shows that advanced adaptive companies have 3.2 times greater revenue growth compared to industry averages, while beginning firms are not growing at all.

    Agility is a foundation, but to achieve this level of growth and future market leadership, adaptive businesses firms must become more adaptive by doing several things better. Here are three main ones:

    • Acting on insights. An adaptive business alters its business concept based on insights that improve the company’s odds of fulfilling future customer demand. For example, CVS understood the customer trend toward self-service and clinic-based healthcare far ahead of its competitors in its pivot from beauty supplies to prescriptions and through its acquisition of MinuteClinic. It is carrying that conviction forward by transforming itself into a healthcare powerhouse through further acquisitions such as Aetna.
    • Leveraging platforms to deliver new value. Technological advancements lower the barriers to change, so companies that are more technologically sophisticated will more easily transition to new business models. Mastercard was far ahead of its competition in building a big data analytics platform. Today, it has leveraged its technology platform to extend its core business with fraud solutions, B2B payments, and business optimization services like Mastercard Track.
    • Building a culture that embraces change. Adaptive businesses adopt new business models more quickly and thus require employees to have more mental flexibility and less fear of change. While the industry has overused Netflix as a platform example, we think is culture as expressed by its now famous “five rules” established a culture of adaptability. By inspiring employees, the company has evolved from an antiquated mailing service to streaming pioneers, to original content production.

    The idea of business adaptiveness is a core theme of research that draws together two research streams: technology-driven innovation and the future of work, as well as many other of the most important research ideas on insights, digital platforms, and agile delivery. It is an advanced concept that we are holding up as the bar for future business excellence.

    Is your bsuiness becoming 'adaptive'? We hope so.

    Author: Brian Hopkins

    Source: Inofrmation-management

  • Drie componenten van Agile BI bij Alliander

    agile bi

    Het nutsbedrijf Alliander beheert energienetwerken die gas en elektriciteit distribueren in een groot deel van Nederland en heeft ongeveer 3,3 miljoen klanten. Alliander wil inspelen op de onvoorspelbaarheid van zowel de energiemarkt als de technologie ontwikkelingen en 

    een 'datagedreven' netbeheerder zijn.

    De beschikking hebben over state-of-the-art BI & Analytics oplossingen en toch datadumps moeten aanleveren voor Excel rapportages? Dit is niet iets wat een organisatie wenst, maar is vaak  wel de realiteit en eerlijk zijn: ook in uw organisatie. Men ervaart dat BI-trajecten te lang duren waardoor ‘Excelerados’ in elkaar gezet worden. Ook bij Alliander hebben we hiermee te maken en dit handmatige alternatief is uiteraard ongewenst. De aanwezigheid binnen Alliander van dure BI-oplossingen in een vastgeroeste, inflexibele architectuur met lange ontwikkeltijden is ook niet wenselijk. Daarom hebben we drie componenten toegepast bij het ontwikkelen van BI-projecten om meer agility te krijgen. Deze componenten zijn Scrum, een data provisioning layer gelijkwaardig het logische datawarehouse, en data profiling.

    Binnen Alliander onderkennen we minimaal vier probleemgebieden in de manier van werken met een verouderde architectuur: ‘Exelerados’, dure BI-oplossingen, inflexibiliteit en lange ontwikkeltijden. Daarom is een Agile productontwerp voor Alliander essentieel gebleken om onze ambitie te verwezenlijken en de onderkende uitdagingen aan te gaan. Het Agile product is tot stand gekomen met drie technieken: Alliander’s Data Provisioning Layer (DPL) als Logisch Datawarehouse; flexibel inspelen op veranderende informatiebehoeften met Agile Data Modeling (het zogenaamde account-based model); directe feedback van de eindgebruiker met behulp van Data Profiling en Scrum. We willen dit toelichten in een drietal blogs. Dit is de eerste.

    Data Provisioning Layer als Logisch Datawarehouse
    Het hart van agile productontwikkeling is de architectuur waarmee je werkt. De wendbaarheid van de architectuur is bij Alliander vormgegeven als een Logisch Datawarehouse. De Data Provisioning Layer (DPL) is het onderdeel van de architectuur dat als Logisch Datawarehouse ingezet wordt.

    De Data Provisioning Layer maakt data beschikbaar van verschillende traditionele bronnen (en bijvoorbeeld ook bestaande datawarehouses) die we kennen binnen Alliander, maar ook data van buiten Alliander, bijvoorbeeld data uit het Centrale Aansluit Register (CAR) of van de Kamer van Koophandel (KvK). En verder maakt de DPL ook real-time data beschikbaar, bijvoorbeeld uit het elektriciteits- of gasnet, om deze te kunnen combineren met andere data, zoals meetgegevens uit een onderstation (telemetrie).

    Door met views te werken in de DPL met daaronder virtuele informatiemodellen, maakt het voor de gebruikers van data geen verschil waar de data vandaan komt. Dit stelt ons in staat om bijvoorbeeld heel snel transactiegegevens uit ons ERP-systeem te combineren met geografische gegevens uit onze GIS-systemen, of met real-time data uit de netten.

    Een dashboard of andere toepassing is gebaseerd op een view uit de DPL, waarbij de data bijvoorbeeld direct uit een operational datastore of uit het bronsysteem komt. Als bijvoorbeeld wegens redenen van performance een dimensioneel datamodel nodig is, dan blijft het bestaande informatiemodel intact en daarmee ook de ontwikkelde toepassing voor een gebruiker.

    Conclusies
    Door de gevirtualiseerde DPL in te zetten volgens het concept van het Logisch Datawarehouse, zijn we in staat geweest om de volgende voordelen te behalen:

    • korte levertijden voor rapportages, door ontkoppeling van gegevensbron met gegevensgebruikers;
    • combinatie van externe met interne bronnen;
    • altijd beschikking over actuele gegevens;
    • benaderen van Big Data-bronnen.

    sam geurts

    De  gevirtualiseerde laag, aangeduid met DPL in bovenstaand schema, zorgt ervoor dat snellere integratie van de verschillende bronnen mogelijk is, wat tot betere resultaten leidt.

    In het tweede deel van deze blog gaan we in op de volgende toegepaste techniek: Agile Data Modeling.


    Hüseyin Kara is Senior BI Consultant bij Alliander.
    Sam Geurts is Scrum Master Data & Inzicht bij Alliander.

  • How to manage your next project? Waterfall or agile?

    How to manage your next project? Waterfall or agile?

    What is waterfall?

    Waterfall methodology, also known as the linear sequential lifecycle model, is defined by its linear, structured approach to project management. It is made up of a series of steps that are completed in sequential order within the software development life cycle (SDLC). These steps are typically tracked through Gantt chart visualizations. Dr. Winston W. Royce is credited with developing this approach, which he documented in his 1970 paper, “Managing the Development of Large Software Systems.”

    Since its publication, variations of waterfall have emerged, but there is general consensus around the following steps within the process:

    1. Gathering of requirements: This stage demands upfront documentation between the development team and the client or end user. During this phase, the product features within the project plan are documented in great detail, enabling the team to determine a clear cost and timeline. After both parties align on the requirements, there is limited to no correspondence between the development team and client until the project is completed.
    2. Design: The design phase is comprised of two steps: logical design and physical design. In logical design, the team brainstorms possible ways to tackle the client problem. When the development team agrees on a solution, these ideas are translated into specific technical tasks, which are then distributed across the team to construct the physical design. 
    3. Implementation: In next phase, developers start coding based on specifications that were developed in the prior steps. 
    4. Verification: This stage tests ensures that the code functions as intended and that the requirements in the scoping document have been met. The development team checks for bugs in the code and a final validation is conducted by the client to ensure that functionality met expectations.  
    5. Maintenance: As users onboard and use the end product, there will be a need for ongoing support as new issues arise.

    Key benefits of the waterfall method

    • Detailed product requirements and documentation enable new programmers to onboard quickly and easily.
    • Documentation provides a clear scope to the project, enabling project managers to communicate budgets, timelines, and key milestones to interested parties.

    Key challenges of the waterfall method

    • Clients can find it difficult to outline all of their requirements at the beginning of the project, leading to gaps in documentation.
    • Minimal customer collaboration during the development process can lead to costly changes if the product does not meet expectations.
    • Testers report issues and bugs later in the process, which could have informed an alternative program architecture.

    What is agile?

    In contrast to waterfall development, agile is defined by its iterative approach to project management. Instead of drafting lengthy project requirements at the onset, an agile team breaks out the product into specific features, and they tackle each one under a specific time constraint, known as a sprint.

    Agile project management requires a cross-functional, self-organizing team that typically consists of five to nine members. Together, they develop a workable piece of software during each sprint, which combines with other functional code from previous iterations. By the end of the sprint timebox, the team demos their work to stakeholders for feedback, allowing them to be flexible in their approach to software development. Since the team has access to frequent feedback, they can adapt the product roadmap during the development lifecycle to ensure that functionality truly meets user expectations. In a waterfall approach, customer involvement typically coincides with the delivery of the final product, which can be costly when requirements are misinterpreted or documented incorrectly.

    There were 17 individuals who found the waterfall project management system to be a highly ineffective, and in 2001, their ideas around the software development process culminated in a piece of work known as the “Agile Manifesto.” This document highlights specific values and principles to prioritize within software development workstreams, and it has yielded a number of popular agile frameworks, such as Scrum, Kanban, Feature Driven Development (FDD), and Extreme Programming. Since then, agile software development has increased in popularity, especially when compared to the waterfall model. 

    Agile scrum framework

    Inspired by the game of rugby, agile scrum emphasizes teamwork to meet deliverables, similar to the way that forwards need to work together in a scrum to gain possession of a rugby ball. The skillset of the agile scrum team varies, but they usually include the following roles:

    • Product owner: This team member represents the needs of both the customer and the business. By crafting user stories, the team can understand how a feature request can help resolve a specific problem, and these stories formulate the backlog of tasks for the team to tackle. This person also prioritizes the stories by their value to the customer, which should, in theory, translate into value for the business. While the product owner leads the team in this way, they do not set deadlines or instruct the team on how work should be delivered.
    • Scrum master: This team member facilitates the overall agile development process. Similar to a project manager, this person keeps the team on task, ensuring that the team remains focused during the project. They can also act as a neutral party to mediate disagreements among team members. For example, team members may disagree on how much to take on in a given sprint. Product owners, in particular, may pressure teams to commit to more than they can deliver within a given timeframe. In these cases, scrum masters can remind team members the scope of their role on the team.

    Other team members of an agile team can vary, but they typically include users from a variety of disciplines, such as design, analytics, QA, and development. These individuals collaborate together to decide on how much work to take on and how they will complete it.

    Agile methodologies are also defined by the ways in which the team comes together. There are specific meetings which help facilitate the workflow across the team. Some of them include the following:

    • Sprint planning: During this meeting, the team comes together to determine which stories will be part of the current sprint. The product owner will prioritize the user stories, but the rest of the team will need to agree on how many and which user stories they can complete during that set time period.
    • Daily standup: These brief meetings are also known as daily scrums. During these check-ins, each team member communicates their individual progress, such as completed tasks, upcoming ones, and any blockers or dependencies which may result in delays.
    • Demo: This meeting showcases the working software that the team completed over the course of the sprint, which can range between two- to four-week increments. The product owner will determine if a user story has met the definition of “done.” If not, the product backlog may be groomed to account for anything missing. This is also an opportunity for the team to present to stakeholders for feedback.
    • Retrospective: This time is reserved for team introspection, where the team identifies how they could improve upon their workflow to achieve better results in the future.

    Key benefits of the agile method

    • Team design facilitates more collaboration.
    • Product development takes an adaptive design approach.
    • Since code is tested with each iteration in the development phase, code defects can inform future design of the software.
    • Tends to yield higher customer satisfaction since frequent feedback leads to increased prioritization of customer needs.
    • Enables continuous integration as each feature is its own workable piece of software.
    • This lean type of software development can lead to lower costs as there is less risk of customer and product misalignment.

    Key challenges of the agile method

    • An agile approach can lack comprehensive documentation. This makes it difficult to onboard new developers, project timelines to stakeholders, and provide accurate cost estimates.
    • Can be difficult to scale.

    Manage your project with agile

    While development teams have been successful under either project management approach, there is certainly more momentum around agile processes. It’s not hard to see why when we observe the benefits that it can offer companies today. 

    Author: Eda Kavlakoglu

    Source: IBM

EasyTagCloud v2.8