11 items tagged "analytics"

  • Better analytics must address cloud computing's remaining challenges

     

    Without proper analytics in place, many cloud services customers are wasting resources, struggling with compliance and suffering from outages and unexpected costs, according to a new study from Forrester Research.

    The study, sponsored by enterprise cloud hosting provider iLand, shows that all of the 275 IT decision makers and senior business executives surveyed in the United States, United Kingdom and Singapore said they’ve experienced at least one negative financial or operational impact due to missing or hidden metadata. These negative business impacts include outages, wasted resources, unexpected costs and challenges reporting to management.

    “Companies aren’t just using the cloud—they depend on it,” the report says. “Nevertheless, cloud providers fail to keep cloud users happy. As companies expand their use of cloud services, they need to be confident that their cloud providers aren’t holding anything back, and are committed to their success.”

    Other findings of the report are that overall, cloud customer satisfaction is low, with a strong sentiment that providers don’t respond to customers’ needs. More than half of the respondents said their provider does not understand their company’s needs or care about their success.

    Forrester recommends that companies considering cloud services evaluate the native tools delivered by the cloud platform to ensure they deliver visibility, alerting and analytics; demand clarity about compliance data, on-call experts and straightforward processes from your cloud provider; and look for a cloud with onboarding and support teams staffed by experts

    Auteur: Bob Violino

    Bron: Information Management

  • Competenties en mogelijkheden voor succes met (big) data analytics

    success-with-big-data-analytics-competencies-and-capabilities-for-the-journey691x200

    Voor bedrijven uit alle industrieën is big data analytics van grote waarde. Deze waarde ontstaat onder andere door een betere focus op de klant en het verbeteren van processen. Toch is het niet gemakkelijk om deze waarde er meteen uit te halen. Veel organisaties onderschatten de kosten, complexiteit en competenties om op dat punt te komen.

    Big data analytics

    Big data analytics helpt bij het analyseren van datasets die over het algemeen een stuk groter en gevarieerder zijn dan de data types uit traditionele business intelligence of datawarehouse omgevingen. Het doel van big data analytics is het herkennen van verborgen patronen, onbekende correlaties, markttrends, voorkeuren van de klant en andere informatieve bedrijfsinformatie.

    Waarom is succes behalen met big data lastig?

    Succes behalen met big data is niet vanzelfsprekend. Veel organisaties worstelen op verschillende aspecten met het inzetten van big data. De volgende aspecten kunnen worden onderscheiden:

    • Big data analytics wordt gezien als een technologie project en niet als een transformatie dat op verschillende fronten binnen de organisatie plaatsvindt.
    • Het ecosysteem van aanbieders is gefragmenteerd en veranderd snel.
    • Nieuwe technologieën en architecturen vragen om nieuwe vaardigheden van gebruikers.
  • Embedded Analytics facilitates strategic choices

    The adoption rate of embedded analytics among business users is twice that of traditional business intelligence (BI) tools, according to the fourth annual State of Embedded Analytics report by Logi Analytics.

    The report, which studied how organizations embed business intelligence and analytics inside their software applications, indicates that embedded analytics continues to improve user satisfaction and increase end-user adoption of analytic tools.

    “The report shows that demand for self-service analytics is expanding beyond data analysts to everyday users, who need to monitor and measure key performance indicators,” said Brian Brinkmann, vice president at Logi Analytics. “If organizations want to see these users be successful, they need to offer analytics within the business applications they are using every day.”

    When users are forced to leave their preferred business applications to conduct analysis, they are less likely to use that analytics tool. The report found that 43% of application users leverage embedded analytics regularly, which is double the user adoption rate of traditional BI tools reported in the 2015 State of Self-Service Report.

    Application providers say they expect the adoption rate of embedded analytics to increase to 52% within two years.

    The report notes that for the first time, embedded analytics has become a top priority for executive management. More than one third (36%) of application providers say the CEO or executive management team is the primary driver of their decision to embed.

    Author: Bob Violino

    Source: Information Management

     

  • Hoe de slimme stad een dom idee kan worden

    smartcitynieuwDigitale volgsystemen De ‘smart city’ is een belofte om leefbaarheid te verbeteren, ook in Nederlandse steden. Maar uit recent onderzoek blijken grote valkuilen. Bepaalt straks een algoritme welke wijkbewoners een gevaar zijn?

     

    Hudson Yards is nu nog de grootste bouwput van Manhattan. De eerste skeletten van de wolkenkrabbers zien er op het eerste gezicht niet anders uit dan alle andere in New York. Maar hier wordt geen gewone wijk gebouwd.

    „We gaan met sensoren op elke hoek de luchtkwaliteit meten”, zegt Constantine Kontokosta, een van de directeuren van het project. „We gaan ook temperatuur, lichtniveaus en lawaai constant in kaart brengen.” Hij doet er bij CUSP, een instituut van New York University ook onderzoek naar; de gegevens wil hij combineren met data van gemeentelijke klachtenlijnen, de sociale dienst, mogelijk ook energiebedrijven.

    „We gaan berichten op sociale media van bewoners bijhouden zodat we hun sentiment kunnen meten, en locatiedata van mobiele telefoons bijhouden via wifinetwerken zodat we zien hoe ze door de buurt bewegen.”

    Vanaf volgend jaar, als de eerste bewoners er intrekken, moet Hudson Yards de eerstequantified community van de wereld worden: een wijk waarin alles en iedereen op elk moment van de dag gemeten wordt. „Voor het eerst kunnen we danin real time een wijk analyseren.” Met de data kan het gemeentebestuur bijvoorbeeld snel ingrijpen bij geluidsoverlast.

    Op termijn wil hij ook gegevens over lichaamsbeweging, gezondheid en gewicht van de wijkbewoners verzamelen, bijvoorbeeld met data uit wearables zoals polsbandjes. „Geheel vrijwillig natuurlijk.” En alle data worden geanonimiseerd opgeslagen, zo bezweert hij. Hudson Yards wordt een van de duurste buurten van de stad; de ontwikkelaars verwachten dat er veel vraag is naar zo’n gekwantificeerd leven.

    Zover als in New York gaat het vrijwel nergens, maar overal ter wereld worden burgers digitaal in kaart gebracht, vaak onder de naam ‘smart city’. Rotterdam komt dit najaar met een ‘smart city-aanpak’. Amsterdam heeft sinds vorig jaar een chief technology officer (CTO) – technologisch directeur zeg maar – die allerlei experimenten doet; van het plaatsen van sensoren voor druktemetingen in fietsenstallingen tot het geautomatiseerd in de gaten houden van mensenmassa’s tijdens evenementen. Ook de gemeente Midden-Drenthe heeft een eigen smart city-app.

    „De beloftes zijn groot: de smart city kan erg veel opleveren”, zegt Jorrit de Jong, academisch directeur van het overheidsinnovatieprogramma van Harvard University. Er komt veel meer informatie beschikbaar waarop gemeenten hun beleid kunnen afstemmen. „Maar er zijn ook potentiële problemen. Daar wordt nog niet altijd even goed over nagedacht.”

    MEGABOUWPUT MOET NIEUWE SLIMME WIJK WORDEN

    Volgens de bouwbedrijven Related en Oxford Properties, is de nieuwe wijk Hudson Yards het grootste bouwproject ooit op het New Yorkse eiland Manhattan. Er hangt een totaal prijskaartje aan van ruim 20 miljard dollar (ruim 17 miljard euro), en er verrijzen 16 torens met woon-, winkel- en kantoorruimte.

    De bouwers werken samen met de New York University om er de eerste quantified community van te maken: een wijk waarin op allerlei manieren informatie wordt verzameld en geanalyseerd worden. De inzichten die daaruit komen kunnen worden gebruikt door het stadsbestuur, en door de projectontwikkelaars.

    Dit zijn de vier potentiële problemen:

    1 De slimme stad wordt gehackt

    Onderdelen van slimme steden worden al regelmatig gehackt: er zijn volop voorbeelden van ‘slimme’ straatverlichting die op afstand werd uitgeschakeld door onbevoegden en van stoplichten die werden gemanipuleerd door hackers. Ook in de systemen van energiecentrales en zelfs sluisdeuren is al vaker ingebroken. Hoe meer sensoren, infrastructuur en besturingssystemen een internetverbinding krijgen, hoe meer er kwetsbaar worden. „Niet alle kleine gemeenten hebben de capaciteit om de beveiliging even goed te regelen”, aldus De Jong.

    En behalve de fysieke systemen moeten ook de gegevens goed zijn beschermd. Aan data uitslimme energiemeters is bijvoorbeeld af te leiden wanneer iemand thuis is. Handig voor inbrekers. Gezondheidsgegevens zijn een extra gevoelig onderwerp, bijvoorbeeld omdat die veel waard kunnen zijn voor verzekeraars. „De beveiliging en de privacybescherming van die data is van absoluut belang”, zegt Kontokosta. Maar ook hij erkent dat geen enkel systeem 100 procent waterdicht is.

    Wat naast de beveiliging belangrijk is: wie is de eigenaar van de data? Een oplossing daarvoor komt uit Estland, dat op veel gebieden geldt als voorloper in digitalisering van de overheid. Daar blijven data over een burger van die burger zelf. „Dat kan transparanter maken wat er met gegevens gebeurt”, zegt Kontokosta. Maar het is technisch ingewikkeld om data over verschillende personen van elkaar te scheiden. Voorlopig zijn het de gemeentes of de uitbaters van de sensoren die de data in bezit krijgen.

    2 De algoritmes worden oncontroleerbaar

    Om patronen te ontdekken in de berg gegevens, zijn algoritmes nodig. Die doorzoeken de data op basis van een vaste set instructies. De instructies die in zo’n algoritme zijn ingeprogrammeerd, bepalen de uitkomst. Maar wat als die instructies ethisch niet door de beugel kunnen? Daarvan zijn nu al veel voorbeelden.

    De Jong is behalve onderzoeker ook directeur van een Harvard-project in drie Amerikaanse steden. Daar lost zijn team met behulp van data problemen op met panden waar veel criminaliteit is. Wat blijkt? Door data over die panden te vergelijken met panden die in het verleden zijn ontspoord, is vaak te voorspellen dat er problemen ontstaan. „Een van de voorspellende factoren is bijvoorbeeld dat een bewoner zijn belastingen niet betaalt.”

    Andere gegevens die een voorspellende waarde hebben zijn bijvoorbeeld data over het geluidsniveau in de buurt, gegevens van de politie, van de uitkeringsinstantie en andere persoonlijke informatie over de bewoners. Aan de hand van dat soort gegevens en de afweging die het algoritme maakt, kunnen politieagenten, maatschappelijk werkers en ambtenaren sneller ingrijpen als het dreigt mis te gaan.

    Het algoritme stuurt dus beslissingen die grote impact kunnen hebben op de bewoners. De Jong: „Het is heel belangrijk dat zo’n algoritme deugdelijk is.” Vooral omdat potentieel ook factoren als etniciteit, leeftijd of inkomensniveau van de bewoners een rol kan spelen. „Dan kom je bijvoorbeeld al snel bij etnische profilering en andere ongrondwettige zaken.”

    Ger Baron, de CTO van Amsterdam, herkent dit. Hij ontwikkelt een systeem dat hulpverleners op basis van grote hoeveelheden data helpt inschatten hoe veilig bepaalde buurten zijn. Dat wil de gemeente omdat brandweerlieden en ambulancemedewerkers wel eens worden belaagd. Het systeem werkt met kleurencodes: als in een huis of buurt mensen wonen die in het patroon passen van mensen met gewelddadig gedrag, springt de code op rood en gaat er bijvoorbeeld extra beveiligingspersoneel mee.

    Hoe bepaal je dat het algoritme dat die codering bepaalt neutraal blijft en dus bijvoorbeeld niet onterecht rood wordt bij huizen alleen omdat er allochtonen wonen? „Het zou zomaar kunnen dat de kleurcode vaker negatief is in wijken met een laag inkomen bijvoorbeeld,” zegt Baron. Het hangt er maar net vanaf op basis van welke criteria het algoritme beslist.

    „Politici en ambtenaren moeten vaker uitzoeken: waar is dat algoritme op gebaseerd?”, aldus De Jong. Politici lezen ook wetsontwerpen voordat ze ermee instemmen; ze moeten nu ook vaker het functioneel ontwerp van softwaretoepassingen snappen en de algoritmes begrijpen. Bestuurders hebben vaak niet de technische kennis om de techniek goed te beoordelen, volgens De Jong. „Dat hoeft niet erg te zijn, als ze maar doorvragen en grondig informatie inwinnen zoals ze dat ook bij wetsontwerpen doen.”

    3 Bedrijven krijgen te veel invloed

    Amsterdam en Eindhoven afficheren zich allebei als urban living lab: een stedelijk laboratorium voor nieuwe technologieën. Dat klinkt als de taal van technologiebedrijven. En dat is het ook. In Eindhoven betaalt het Franse bedrijf Atos grootschalige experimenten. Ger Baron van Amsterdam wordt naar eigen zeggen „dagelijks” benaderd door bedrijven die nieuwe technologieën willen uitproberen op Amsterdammers. Veruit de meeste wijst hij af.

    Techbedrijven als Samsung, Microsoft, IBM en Alphabet (het voormalige Google) hebben de slimme stad ontdekt en zijn nauw betrokken bij veel projecten, ook in Nederland. Op zich is het niet raar dat ze mogen meedoen, want uit die bedrijven komen ook de vernieuwingen.

    „Maar de belangen van bedrijven zijn zeker niet altijd de belangen van burgers”, zegt Baron. Ze hebben soms andere opvattingen over het eigendom van de data, of de transparantie van projecten. Voor de gemeenteraden is openheid en controleerbaarheid van belang, maar bedrijven willen soms meer geslotenheid om concurrenten niet wijzer te maken.

    Hoe meer gemeenten smart city-projecten gaan doen, hoe groter het risico wordt dat ondeskundige ambtenaren zich te veel laten verleiden door technologiebedrijven. 

     

    4 De overheid verprutst de IT

    Smart city-projecten zijn in de kern gewoon IT-projecten. IT en de overheid zijn niet altijd een even fijne combinatie; vaak mislukken miljoenen kostende projecten. Als dat bij een smart city gebeurt, verzamelen gemeentes bovendien allemaal gevoelige informatie waar ze vervolgens niets mee kunnen.

    De Jong van Harvard deed onderzoek naar wat bepaalt of een smart city-project een succes wordt of niet. Daaruit blijkt dat drie factoren cruciaal zijn. De eerste factor is het vermogen van gemeenten om zowel intern als extern samen te werken. Het draait bij smart city’s vaak om samenwerkingen met technologiebedrijven en samenwerking tussen gemeentediensten. Dat blijkt vaak lastig.

    Herkenbaar, vindt Kontokosta. „Vooral gedeelde toegang tot data kan problemen opleveren: je ziet bijvoorbeeld zelden dat het bureau voor waterbeleid goed praat met het bureau dat energiedata verzamelt. En ook de combinatie van ambtelijke bureaucratie met snelle technologiebedrijven loopt niet altijd even goed.” Baron loopt in Amsterdam tegen dezelfde dingen op: „Dat moeten we echt nog veel beter regelen.”

    De tweede factor die uit het onderzoek blijkt, is het vermogen van gemeentes om heldere doelen te stellen en daar meetbare criteria aan te koppelen. Nu wordt vaak vanuit de techniek gedacht: we hebben Twitter en allerlei sensoren, wat moeten we daarmee? Denken vanuit het oplossen van problemen van burgers is productiever, blijkt: we hebben een probleem met verlaten panden, welke technologie kunnen we gebruiken om dat op te lossen? .

    Ten derde moet een gemeente in staat zijn om alle data te analyseren. Daar is expertise voor nodig die gemeenten niet altijd hebben, beamen Kontokosta als Baron. Een oplossing is meer datawetenschappers inhuren, maar die zijn nu overal in trek – ook bij bedrijven die diepere zakken hebben dan gemeenten. „Gemeenten zullen harder moeten concurreren om die mensen,” zegt De Jong.

    Ondertussen gaan de experimenten snel verder. Telecombedrijf KPN lanceert dit najaar een speciaal netwerk in Den Haag en Rotterdam dat bedoeld is om allerlei sensoren met elkaar te verbinden. KPN hoopt dat dat de definitieve doorbraak betekent voor smart city-toepassingen in Nederland – daar verzorgt KPN graag het dataverkeer voor.

    Ook Ger Baron heeft veel meer smart city-plannen met Amsterdam op korte termijn, en Kontokosta is niet van plan te stoppen bij Hudson Yards. Hij is met zijn team al bezig met andere quantified community-projecten: in een armere buurt van Brooklyn en in het financiële district van Manhattan. Daar kun je weer heel andere dingen meten dan in Hudson Yards.

     

    Source: NRC, 17 oktober 2015

     

  • How Big Data is changing the business landscape

    jpgBig Data is increasingly being used by prominent companies to outpace the competition. Be it established companies or start-ups, they are embracing data-focussed strategies to outpace the competition.

    In healthcare, clinical data can be reviewed treatment decisions based on big data algorithms that work on aggregate individual data sets to detect nuances in subpopulations that are so rare that they are not readily apparent in small samples.

    Banking and retail have been early adopters of Big Data-based strategies. Increasingly, other industries are utilizing Big Data like that from sensors embedded in their products to determine how they are actually used in the real world.

    Big Data is useful not just for its scale but also for its real-time and high-frequency nature that enables real-time testing of business strategies. While creating new growth opportunities for existing companies, it is also creating entirely new categories of companies that capture and analyse industry data about products and services, buyers and suppliers, consumer preferences and intent.

     

    What can Big Data analytics do for you?

    *Optimise Operations

    The advent of advanced analytics, coupled with high-end computing hardware, has made it possible for organizations to analyse data more comprehensively and frequently.

    Analytics can help organisations answer new questions about business operations and advance decision-making, mitigate risks and uncover insights that may prove to be valuable to the organisation. Most organisations are sitting upon heaps of transactional data. Increasingly, they are discovering and developing the capability to collect and utilise this mass of data to conduct controlled experiments to make better management decisions.

    * React faster

    Big Data analytics allows organisations to make and execute better business decisions in very little time. Big Data and analytics tools allow users to work with data without going through complicated technical steps. This kind of abstraction allows data to be mined for specific purposes.

    * Improve the quality of services

    Big Data analytics leads to generation of real business value by combining analysis, data and processing. The ability to include more data, run deeper analysis on it and deliver faster answers has the potential to improve services. Big Data allows ever-narrower segmentation of customers and, therefore, much more precisely tailored products or services. Big Data analytics helps organizations capitalize on a wider array of new data sources, capture data in flight, analyse all the data instead of sample subsets, apply more sophisticated analytics to it and get answers in minutes that formerly took hours or days.

    * Deliver relevant, focussed customer communications

    Mobile technologies tracks can now track where customers are at any point of time, if they're surfing mobile websites and what they're looking at or buying. Marketers can now serve customised messaging to their customers. They can also inform just a sample of people who responded to an ad in the past or run test strategies on a small sample.

    Where is the gap?

    Data is more than merely figures in a database. Data in the form of text, audio and video files can deliver valuable insights when analysed with the right tools. Much of this happens using natural language processing tools, which are vital to text mining, sentiment analysis, clinical language and name entity recognition efforts. As Big Data analytics tools continue to mature, more and more organisations are realizing the competitive advantage of being a data-driven enterprise.

    Social media sites have identified opportunities to generate revenue from the data they collect by selling ads based on an individual user's interests. This lets companies target specific sets of individuals that fit an ideal client or prospect profile. The breakthrough technology of our time is undeniably Big Data and building a data science and analytics capability is imperative for every enterprise.

    A successful Big Data initiative, then, can require a significant cultural transformation in an organisation. In addition to building the right infrastructure, recruiting the right talent ranks among the most important investments an organization can make in its Big Data initiative. Having the right people in place will ensure that the right questions are asked - and that the right insights are extracted from the data that's available. Data professionals are in short supply and are being quickly snapped up by top firms.

    Source: The Economic Times

  • How to Optimize Analytics for Growing Data Stores

    Every minute of every day, mind-blowing amounts of data are generated. Twitter users send 347,222 tweets, YouTube users upload 300 hours of video, and Google receives more than four million search queries. And in a single hour, Walmart processes more than a million customer transactions. With the Internet of Things accelerating at lightning speed – to the tune of 6.4 billion connected devices in 2016 (up 30 percent from 2015) – this already staggering amount of data is about to explode. By 2020, IDC estimates there will be 40 zettabytes of data. That’s 5,200 GB for every person on the planet.

    This data is a gold mine for businesses. Or, at least, it can be. On its own, data has zero value. To turn it into a valuable asset, one that delivers the actionable intelligence needed to transform business, you need to know how to apply analytics to that treasure trove. To set yourself up for success, start out by answering these questions:

    What Is the Size, Volume, Type and Velocity of your Data?

    The answers to this will help you determine the best kind of database to store your data and fuel your analysis. For instance, some databases handle structured data, and others are focused on semi-structured or unstructured data. Some are better with high-velocity and high-volume data.

      RDMS Adaptive NoSQL Specialty In-Memory NewSQL Distributed
    Example DB2, Oracle, MySQL Deep Information Sciences Cloudera, MonoDB, Cassandra Graphing, Column Store, time-series MemSQL, VoltDB NuoDB Hadoop
    Data Type Structured Structured Un/semi-structured Multiple Structured Structured Structured
    Qualities Rich features, ACID compliant, scale issues Fast read/ write, strong scale, ACID, flexible Fast ingest, not ACID compliant Good reading, no writing, ETL delays Fast speed, less scale, ETL delays for analytics Good scale and replication, high overhead Distributed, document-based database, slow batch-based queries

     Which Analytics Use Cases will You Be Supporting?

    The type of use cases will drive the business intelligence capabilities you’ll require (Figure 1).

    • Analyst-driven BI. Operator seeking insights across a range of business data to find cross-group efficiencies, profit leakage, cost challenges, etc.
    • Workgroup-driven BI. Small teams focused on a sub-section of the overall strategy and reporting on KPIs for specific tasks.
    • Strategy-driven BI. Insights mapped against a particular strategy with the dashboard becoming the “single source of truth” for business performance.
    • Process-driven BI. Business automation and workflow built as an autonomic process based on outside events.

    Figure-1-1024x449

    Where Do You Want your Data and Analytics to Live?

    The main choices are on-premises or in the cloud. Until recently, for many companies – particularly those concerned about security – on-prem won out. However, that’s changing significantly as cloud-based solutions have proven to be solidly secure. In fact, a recent survey found that 40 percent of big data practitioners use cloud services for analytics and that number is growing.

    The cloud is attractive for many reasons. The biggest is fast time-to-impact. With cloud-based services you can get up and running immediately. This means you can accelerate insights, actions, and business outcomes. There’s no waiting three to four months for deployment and no risk of development issues.

    There’s also no need to purchase and install infrastructure. This is particularly critical for companies that don’t have the financial resources or skills to set up and maintain database and analytics environments on-premises. Without cloud, these companies would be unable to do the kind of analyses required to thrive in our on-demand economy. However, even companies that do have the resources benefit by freeing up people and budget for more strategic projects.

    With data and analytics in the cloud, collaboration also becomes much easier. Your employees, partners, and customers can instantly access business intelligence and performance management.

    Cloud Options

    There are a number of cloud options you can employ. Here’s a quick look at them:

    Infrastructure as a Service (IaaS) for generalized compute, network, and storage clusters. IaaS is great for flexibility and scale, and will support any software. You will be required to install and manage the software.

    Database as a Service (DBaaS), where multi-tenant or dedicated database instances are hosted by the service provider. DBaaS also is great for flexibility and scale, and it offloads backups and data management to the provider. Your data is locked into the provider’s database solution.

    Analytics as a Service (AaaS) provides complex analytics engines that are ready for use and scale as needed, with pre-canned reports.

    Platform as a Service (PaaS) is similar to DBaaS in that it scales easily and that application backups and data management are handled by the provider. Data solutions themselves are often add-ons.

    Software as a Service (SaaS) is when back office software is abstracted through a hosted application with data made available through APIs. Remote analytics are performed “over the wire” and can be limiting.

    How you leverage data can make or break your business. If you decide to go the cloud route, make sure your service provider’s database and analytics applications fit your current and evolving needs. Make sure the provider has the expertise, infrastructure, and proven ability to handle data ebbs and flows in a way that’s cost-effective for you and, equally important, ensures that your performance won’t be compromised when the data tsunami hits. Your business depends on it.

     Source: DataInformed

  • How to Sell Your C-suite on Advanced Analytics

    Advanced AnalyticsBut just because businesses are more open to exploring analytics and executives are dropping data science buzzwords in meetings doesn’t mean you don’t still have to sell your C-suite on investing in such technology. Analytics done right with the best tools and a skilled staff can get extremely expensive, and your C-suite isn’t just going to write you a blank check, especially if you can’t communicate how this investment will positively impact the bottom line.

    As the co-founder of Soothsayer Analytics, which applies artificial intelligence to build analytics tools for companies, Christopher Dole has experienced firsthand how difficult it can be to sell senior leadership on the ROI of advanced analytics.

    Since the founding of his company two years ago, he has continued to hone his pitch on prescriptive analytics, and he’s learned what information C-suite executives look for both before and after the launch of an analytics platform. He listed four pieces of advice for how to not only pitch an analytics program, but also ensure its continued success after its launch.

    Do your homework

    Prior to even scheduling a meeting with senior leadership, you must first arm yourself with the answers to every question that might get thrown your way.

    “I would definitely plan on meeting with any relevant colleagues, peers, or other internal stakeholders about issues and opportunities that they’d like to address,” said Dole. “And once you have some ideas you should also, in advance, meet with your data team and identify any relevant data — preferably data that’s clean and comprehensive — so then when you’re actually in front of the C-suite or board you can start by clearly defining where you’re currently at in the analytics journey, whether it’s the descriptive, diagnostic, predictive, or prescriptive level. If leadership says that your company is already doing analytics, yet they can’t predict what will happen or what can be done to perturb it, then they aren’t really doing analytics, and you should clearly articulate that.”

    It’s also important during your research to find examples of other companies’ experience with analytics solutions similar to the ones you’re proposing.

    “Talk about the value it created for them,” said Dole. “So, for example, if you’re starting on an analytics initiative and you’re a telecom provider, talk about how a competitor tapped into their stream of customer data to reduce churn and provide millions of dollars per year of savings.” When generating a list of examples, he said, try to focus more on instances that generated revenue or prevented losses as opposed to reduced waste. “Making money is often seen as sexier than saving money.”

    Start with the low hanging fruit

    If you’re just starting out in the analytics game, it may be tempting to ramp up a state-of-the-art program. But it’s actually more important to get some early wins by capturing the low-hanging fruit.

    “If possible, start with a larger problem that can be easily split into sub projects,” said Dole. “For instance, if you decide to focus on customer understanding, start with scientific customer segmentation. That way, once you know who your customers are, you can start to solve other problems that would require that understanding as a foundation anyway, whether it’s identifying opportunities for cross-sell and upsell, predicting and preventing churn, or forecasting customer lifetime value. These quick wins can typically be achieved within 12 weeks.”

    Set the proper expectations

    It can be incredibly tempting to hype the potential payoff of analytics, but overselling it can result in the C-suite viewing outcomes as failures when they would otherwise be considered wins.

    “It may be a few month or two before any snippets of insight can be garnered, so it’s important that they are patient during the process,” said Dole. “A lot of what a data scientist is doing is identifying, collecting and compiling clean data into usable formats, and this can often take up to 60 percent of their time. Make sure they understand that a properly structured analytics project typically provides as much as a 13x ROI. There are many steps to achieving this, and everyone needs to be aligned on the ultimate goal.”


    Above all, you should keep it simple stupid. It’s all too easy for a data scientist to get bogged down into technical jargon and respond to questions with arcane answers.

    “Use rich visualizations when possible because it’s much easier to understand a graphic than an equation or complex model,” said Dole. “Remove as much of the math and science as possible and just focus on the insights and the value that it’s going to create as well as all of the potential to expand upon it.”

    Information Management, 2016, Simon Owens

  • Intelligente organisaties en BI van de toekomst: Hoe?

    virtualbiSteeds meer beslissingen binnen het bedrijfsleven worden genomen aan de hand van data. De moeilijkheid is dat dit ook snel moet gebeuren. Als de klant de bedrijfswebsite bezoekt, aan de telefoon is of bij de klantendesk staat, moet het systeem direct de passende  informatie opleveren. Het mag duidelijk zijn: er is meer nodig dan een digitale kaartenbak. In deze whitepaper bespreken we een van de eisen aan de nieuwe generatie analytics-oplossingen: ze zijn cognitief .

    Wat zijn cognitieve systemen?

    Cognitieve systemen begrijpen mensen, gaan met ze in discussie en leren van ze. Naast hun kennis van natuurlijke talen hebben deze systemen deep learning en machineleren als basis. Ze verwerken vliegensvlug enorme hoeveelheden gestructureerde en ongestructureerde data om hypotheses te vormen en adviezen te geven. Doordat ze van elke interactie leren, worden ze in de loop van de tijd steeds effectiever.

    Meer dan een spelletje

    Een bekend voorbeeld van een cognitief systeem is Watson, de supercomputer van IBM. Werd Watson vooral bekend als deelnemer aan het Amerikaanse spelprogramma Jeopardy!, andere cognitieve systemen hebben het bedrijfsleven veel te bieden. Dit is allemaal mogelijk met een cognitieve analytics-oplossing:

    • Inzichten en patronen worden ontdekt die anders verborgen waren gebleven.
    • Data en informatie gebruiken om nieuwe ontdekkingen mee te doen.
    • Deze inzichten gebruiken om betere beslissingen te nemen en daardoor weer betere resultaten te behalen.
    • Steeds dieper graven, op zoek naar antwoorden, en op die manier innoveren binnen de organisatie.

    Whitepaper: The next wave of business intelligence for the data-driven enterprise

    Deze whitepaper gaat dieper in op de hedendaagse eisen aan analytics-oplossingen. Daarbij wordt dieper ingegaan op één product, IBM Cognos Analytics. Download deze whitepaper op www.analyticstoday.nl en u zult zich verbazen over wat er tegenwoordig allemaal mogelijk is op het gebied van BI-tools.

    Bron: www.analyticstoday.nl

  • Qlik voor zesde jaar op rij in leiderskwadrant van Gartner’s Business Intelligence en Analytics Platforms Magic Quadrant

    Qlik Product SmallQLIK, leider in visual analytics, is door Gartner, Inc. in het leiderskwadrant van het Business Intelligence en Analytics Platform Magic Quadrant Report 2016* geplaatst. Het is het zesde opeenvolgende jaar dat Qlik deze positie in het leiderskwadrant inneemt op basis van een complete visie en deskundige uitvoering. Het Gartner Magic Quadrant is een momentopname hoe leveranciers presteren binnen een marktsegment. Dit met als doel eindgebruikers te ondersteunen bij hun keuze van bedrijven waarmee ze kunnen samenwerken of waarvan ze producten of diensten kunnen afnemen. Het volledige rapport is te downloaden via www.qlik.com/mq2016.

    Gartner stelt in het rapport: “Leiders zijn leveranciers die een goed begrip hebben van de mogelijkheden van een product en zich inzetten om bij te dragen aan het succes van hun klant in de huidige markt. Deze leiders weten dit te combineren met een begrijpelijk en aantrekkelijk prijsmodel dat de proof of value ondersteunt en incrementeel is aan te kopen. In een moderne BI- en analytics-markt worden aankoopbeslissingen voornamelijk beïnvloed en gemaakt door de business. Zij eisen gebruiksvriendelijke en makkelijk af te nemen producten die duidelijk zorgen voor toegevoegde waarde. Deze producten maken krachtige analytics mogelijk, zonder dat daar technische expertise voor nodig is of dat vooraf betrokkenheid van IT vereist is. In een markt die zich snel ontwikkelt, moet een leider ook laten zien dat hij zich niet enkel richt op de huidige activiteiten. Een leider moet een gedegen plan hebben dat ook de toekomstige positie van een marktleider onderstreept. Daarmee wordt immers de investering van de kopers van vandaag ook in de toekomst veilig gesteld.” Gartner stelt verder dat de netto nieuwe aankopen in de markt worden gedomineerd door vendoren die zich richten op flexibiliteit en gebruiksgemak voor zakelijke gebruikers. Dit wordt gecombineerd met de mogelijkheid om zelf controle te houden over implementaties en het bevorderen van het op een verantwoorde wijze creëren, distribueren en gebruiken van analytische content binnen het platform.

    Lars Björk, CEO van Qlik: “Wij zijn altijd een disruptieve kracht binnen de BI-markt geweest. In het verleden was ons Data Discovery-aanbod nog een visionair concept dat andere spelers in de markt graag wilden toevoegen aan hun bestaande oplossingen. Nu is Data Discovery simpelweg de standaard voor Business Intelligence en hebben we ons visionair leiderschap gehandhaafd. Qlik zal als pionier in de markt continu gedurfde stappen blijven zetten om een modern platform te bouwen dat niet alleen mooie visualisaties oplevert, maar een platform vormt voor enterprise-class governance en beheersbaarheid dat kan meegroeien met klanten in hun visual analytics reis.”

    Aangezien de BI-markt steeds volwassener wordt, richt Qlik zich op de volgende transformatie van de BI-markt om zo aan de evoluerende vraag van de gebruikers te blijven voldoen. Recent heeft Qlik dan ook Qlik Sense Enterprise 2.0 aangekondigd, een modern platformgebaseerde benadering van Business Intelligence. Het aanbod is geschikt voor een grote hoeveelheid aan use cases binnen de hele organisatie, variërend van self-service data visualisatie, rapportage en dashboards tot en met guided analytics en embedded analytics. Dit is allemaal gebaseerd op de gepatenteerde QIX Associative Indexing Engine. Het bedrijf heeft ook het Qlik® Analytics Platform geïntroduceerd, speciaal ontworpen om developers te helpen om eenvoudig alle denkbare data-driven apps te bouwen. Met Qlik® Cloud kunnen zij deze applicaties gratis delen, de samenwerking verbeteren en interactieve charts eenvoudig publiekelijk delen via Qlik Sense Charts. Met de overname van DataMarket is het nu ook mogelijk om naadloos toegang te krijgen tot on-demand externe databronnen.

    Aangezien Qlik vastberaden is om ook voorop te blijven lopen op het gebied van customer service en support, heeft het bedrijf Qlik Proactive Support geïntroduceerd – de eerste proactieve monitoring-as-a-service oplossing voor BI. Hiermee kunnen problemen voorkomen en opgelost worden. Qlik Proactive Support biedt real-time anomaliedetectie, live diagnostiek en regelmatige health-check reports. Qlik Support voorziet daarbij proactief van aanbevelingen om optimaal te blijven presteren en risico’s te beperken.

    Na jaren van voortdurende innovatie en het veranderen van BI, handhaaft Qlik haar overtuiging dat alle mensen analyses moeten kunnen maken van iedere databron – on premise of in de cloud, intern of extern – zonder beperkingen of grenzen. Met de associatieve ervaring van Qlik kunnen gebruikers, individueel en in groepen, vragen stellen en beantwoorden waar en wanneer ze maar willen. Hierdoor kunnen gebruikers onbeperkt met informatie aan de slag en ontdekkingen doen, zonder beperkt te worden tot een vooraf gedefinieerd pad aan vragen. Inzicht komt immers voort uit het daadwerkelijk begrijpen van data vanuit alle verschillende invalshoeken.

    Over Qlik
    Qlik (NASDAQ: QLIK) is een leider in visual analytics. Het product portfolio voldoet aan de groeiende behoefte van klanten naar rapportage en visuele self-service analyses voor guided, embedded en op maatgemaakte analytics. Ruim 37.000 klanten vertrouwen op Qlik oplossingen om betekenis te geven aan informatie van verschillende bronnen. Zo kunnen zij verborgen verbindingen binnen de data ontdekken die leiden tot inzichten die goede ideeën tot stand brengen. Het hoofdkantoor van Qlik is gevestigd in Radnor, Pennsylvania. Qlik heeft wereldwijd vestigingen die samen met ruim 1.700 partners meer dan 100 landen bedienen.

    Over het Magic Quadrant
    Over het Magic Quadrant Gartner beveelt geen van de leveranciers, producten of services aan die zijn opgenomen in de onderzoekspublicaties. Ook adviseert Gartner technologiegebruikers niet alleen die leveranciers te kiezen met de hoogste ratings. De onderzoekspublicaties van Gartner bevatten de mening van het onderzoeksinstituut en zijn geen statement. Gartner geeft geen garanties, expliciet of impliciet, betreffende deze research, ook niet over de handelskwaliteiten of geschiktheid voor een bepaald doel.

    Source: Emerce

  • Terugblik Business Analytics congres

    Het Business Analytics congres 2016 zit er weer op! Dit jaar stond het thema “Hoe advanced zijn jouw analytics?” centraal. Een dag na het event kunnen we terugkijken op een zeer geslaagde editie.

    Met meer dan 135 deelnemers, interessante praktijkcases van o.a. De Nederlandse Bank, DHL, Amazon en een overvol netwerkplein, werd volop ingegaan op wat predictive analytics voor toegevoegde waarde biedt aan uw organisatie.

    Wij kijken terug op een fantastische dag met inspirerende sprekers en deelnemers die naar huis gaan met veel tips & tricks, zodat ze gelijk aan de slag kunnen binnen hun organisatie.

    Dit congres gemist? Over 4 maanden staat het volgende Business Intelligence congres alweer op de planning.

    360º BI: Hét business intelligence congres 2017

    Het Business Intelligence vakgebied bevindt zich op vele vlakken in een transformatie. De technische mogelijkheden nemen toe met Big Data en Analytics maar ook de vaardigheden die mensen nodig hebben om van informatie consument te veranderen in een informatie producent. De vraag naar self-service opties binnen het bedrijf is zo goed als standaard geworden in een situatie waarbij het aantal informatie bronnen alleen maar toeneemt. De klassieke BI omgeving dient zich hier op aan te passen. Uitdagingen genoeg!

    Hoog tijd om opnieuw te kijken waar Business Intelligence zich in uw organisatie bevindt.

    • Past de huidige inrichting nog bij de ambities?
    • Welke stappen moeten ondernomen worden om beter in staat te zijn voordelen met data te behalen?
    • Hoe hou je het product van business intelligence betrouwbaar?

    Op dit congres staat Business Intelligence Maturity centraal. Diverse business intelligence onderwerpen op het gebied van mens, organisatie en techniek worden besproken en praktijkcases laten zien hoe succes bereikt kan worden.

    Wilt u op de hoogte blijven van de ontwikkelingen in het vakgebied, u laten inspireren door andere organisaties en kennis delen? Meld u dan nu aan voor deelname aan dit congres op 7 februari 2017 in Supernova, Jaarbeurs. Ga naar http://www.analyticstoday.nl/events/het-business-intelligence-congres-2017/ voor meer informatie en aanmelden.

     

  • The vision of IBM on Analytics


    IBM’s Vision user conference brings together customers who use its software for financial and sales performance management (FPM and SPM, respectively) as well as governance, risk management and compliance (GRC). Analytics is a technology that can enhance each of these activities. The recent conference and many of its sessions highlighted IBM’s growing emphasis on making more sophisticated analytics eaBi-kring sier to use by – and therefore more useful to – general business users and their organizations. The shift is important because the IT industry has spent a quarter of a century trying to make enterprise reporting (that is, descriptive analytics) suitable for an average individual to use with limited training. Today the market for reporting, dashboards and performance management software is saturated and largely a commodity, so the software industry – and IBM in particular – is turning its attention to the next frontier: predictive and prescriptive analytics. Prescriptive analytics holds particular promise for IBM’s analytics portfolio.

    The three basic types of analytics – descriptive, predictive and prescriptive – often are portrayed as a hierarchy, with descriptive analytics at the bottom and predictive and prescriptive (often referred to as “advanced analytics”) on the next two rungs. Descriptive analytics is like a rear-view mirror on an organization’s performance. This category includes variance and ratio analyses, dashboards and scorecards, among others. Continual refinement has enabled the software industry to largely succeed in making descriptive analytics an easy-to-use mainstream product (even though desktop spreadsheets remain the tool of choice). Today, companies in general and finance departments in particular handle basic analyses well, although they are not as effective as they could be. Our research on next-generation finance analytics shows, for example, that most financial analysts (68%) spend the largest amount of their time in the data preparation phases while a relatively small percentage (28%) use the bulk of their time to do what they are supposed to be doing: analysis. We find that this problem is mainly the result of issues with data, process and training.

    The upward shift in focus to the next levels of business analytics was a common theme throughout the Vision conference. This emphasis reflects a key element of IBM’s product strategy: to achieve a competitive advantage by making it easy for most individuals to use advanced analytics with limited training and without an advanced degree in statistics or a related discipline.

    VR2 June 2015

    The objective in using predictive analytics is to improve an organization’s ability to determine what’s likely to happen under certain circumstances with greater accuracy. It is used for four main functions:

    • Forecasting – enabling more nuanced projections by using multiple factors (such as weather and movable holidays for retail sales)
    • Alerting – when results differ materially from forecast values
    • Simulation – understanding the range of possible outcomes under different circumstances
    • Modeling – understanding the range of impacts of a single factor.

    Our research on next-generation business planning finds that despite its potential to improve the business value of planning,  only one in five companies use predictive analytics extensively in their planning processes.

    Predictive analytics can be useful for every facet of a business and especially for finance, sales and risk management. It can help these functions achieve greater accuracy in sales or operational plans, financial budgets and forecasts. The process of using it can identify the most important drivers of outcomes from historical data, which can support more effective modeling. Because plans and forecasts are rarely 100 percent accurate, a predictive model can support timely alerts when outcomes are significantly different from what was projected, enabling organizations to better understand the reasons for a disparity and to react to issues or opportunities sooner. When used for simulations, predictive models can give executives and managers deeper understanding of the range of potential outcomes and their most important drivers.

    Prescriptive analytics, the highest level, help guide decision-makers to make the best choice to achieve strategic or tactical objectives under a specified set of circumstances. The term is most widely applied to two areas:

    • Optimization – determining the best choice by taking into account the often conflicting business objectives or other forms of trade-offs while factoring in business constraints – for example, determining the best price to offer customers based on their characteristics. This helps businesses achieve the best balance of potential revenue and profitability or farmers to find the least costly mix of animal feeds to achieve weight objectives.
    • Stochastic Optimization – determining the best option as above but with random variables such as a commodity price, an interest rate or sales uplift. Financial institutions often use this form of prescriptive analytics to understand how to structure fixed income portfolios to achieve an optimal trade-off between return and risk.

    General purpose software packages for predictive and prescriptive analytics have existed for decades, but they were designed for expert users, not the trained rank-and-file. However, some applications that employ optimization for a specific purpose have been developed for nonexpert business users. For example, price and revenue optimization software, which I have written about is used in multiple industries.  Over the past few years, IBM has been making progress in improving ease of use of general purpose predictive and prescriptive analytics. These improvements were on display at Vision. One of the company’s major initiatives in this area is Watson Analytics. It is designed to simplify the process of gathering a set of data, exploring it for meaning and importance and generating graphics and storyboards to convey the discoveries. Along the way, the system can evaluate the overall suitability of the data the user has assembled for creating useful analyses and assisting general business users in exploring its meaning. IBM offers a free version that individuals can use on relatively small data sets as a test drive. Watson is a cognitive analytics system, which means it is by nature a work in progress. Through experience and feedback it learns various things including terminologies, analytical methods and the nuances of data structures. As such it will become more powerful as more people use it for a wider range of uses because of the system’s ability to “learn” rather than rely on a specific set of rules and logic.

    Broader use of optimization is the next frontier for business software vendors. Created and used appropriately, optimization models can deliver deep insights into the best available options and strategies more easily, accurately, consistently and effectively than conventional alternatives. Optimization eliminates individual biases, flawed conventional wisdom and the need to run ongoing iterations to arrive at the seemingly best solution. Optimization is at the heart of a network management and price and revenue optimization, to name two common application categories. Dozens of optimization applications (including ILOG, which IBM acquired) are available, but they are aimed at expert users.

    IBM’s objective is to make such prescriptive analytics useful to a wider audience. It plans to infuse optimization capabilities it into all of its analytical applications. Optimization can be used on a scale from large to small. Large-scale optimization supports strategic breakthroughs or major shifts in business models. Yet there also are many more ways that the use of optimization techniques embedded in a business application – micro-optimization – can be applied to business. In sales, for example, it can be applied to territory assignments taking into account multiple factors. In addition to making a fair distribution of total revenue potential, it can factor in other characteristics such as the size or profitability of the accounts, a maximum or minimum number of buying units and travel requirements for the sales representative. For operations, optimization can juggle maintenance downtime schedules. It can be applied to long-range planning to allocate R&D investments or capital outlays. In strategic finance it can be used to determine an optimal capital structure where future interest rates, tax rates and the cost of equity capital are uncertain.

    Along the way IBM also is trying to make optimization more accessible to expert users. Not every company or department needs or can afford a full suite of software and hardware to create applications that employ optimization. For them, IBM recently announced Decision Optimization on Cloud (DOcloud), which provides this capability as a cloud-based service; it also broadens the usability ofIBM ILOG CPLEX Optimizer. This service can be especially useful to operations research professionals and other expert users. Developers can create custom applications that embed optimization to prescribe the best solution without having to install any software. They can use it to create and compare multiple plans and understand the impacts of various trade-offs between plans. The DOcloud service also provides data analysis and visualization, scenario management and collaborative planning capabilities. One example given by IBM is a hospital that uses it to manage its operating room (OR) scheduling. ORs are capital-intensive facilities with high opportunity costs; that is, they handle procedures that utilize specific individuals and different combinations of classes of specialists. Procedures also have different degrees of time flexibility. Without using an optimization engine to take account of all the variables and constraints, crafting a schedule is time-consuming. And since “optimal” solutions to business problems are fleeting, an embedded optimization engine enables an organization to replan and reschedule quickly to speed up decision cycles.

    Businesses are on the threshold of a new era in their use of analytics for planning and decision support. However, numerous barriers still exist that will slow widespread adoption of more effective business practices that take full advantage of the potential that technology offers. Data issues and a lack of awareness of the potential to use more advanced analytics are two important ones. Companies that want to lead in the use of advanced analytics need leadership that focuses on exploiting technology to achieve a competitive advantage.

    Author: Robert Kugel

EasyTagCloud v2.8