9 items tagged "intelligente organisatie"

  • BC - Business & Competitive - Intelligence

    BC (Business & Competitive) Intelligence

    Business Intelligence is zo´n begrip dat zich nauwelijks letterlijk laat vertalen. Bedrijfsintelligentie zou in de buurt kunnen komen, maar valt net als andere vormen van intelligentie moeilijk precies te duiden. Bedrijfsinzicht of -begrip komen wellicht nader in de buurt. Andere benaderingen (van andere auteurs) voegen daar bedrijfs- of omgevingsverkenningen als alternatieve vertaling aan toe.

    Om Business en Competive Intelligence goed te begrijpen maken we hier gebruik van een analytisch schema (tabel 1.1). Daarmee wordt het mogelijk de verschillende verschijningsvormen van BI te onderscheiden en daarmee de juiste variant bij het juiste probleem toe te passen. Belangrijk is dat het hierbij gaat om stereotypen! In de praktijk komen mengvormen voor.

    Het uitgangspunt is dat BI wordt gezien als een informatieproces waarbij met behulp van data, kennis of inzicht wordt geproduceerd.

     

    Data over de interne bedrijfsvoering

    Data over de bedrijfsomgeving

    Bedrijfskundige

    benadering

    A

    B

    Technologische

    benadering

    C

    D

    Tabel 1.1

    In de tabel is een bedrijfskundige van een technologische benadering te onderscheiden. BC Intelligence behandeld BI vanuit de bedrijfskundige processen die dienen te worden ondersteund. Er bestaat ook een technologisch perspectief op BI. Het uitgangspunt van deze benadering is veeleer te profiteren van de mogelijkheden die informatietechnologie biedt om bedrijfsinzicht te verkrijgen.. Op de andere as in het schema worden data over de interne bedrijfsvoering (interne data) van data over de bedrijfsomgeving (externe data) onderscheiden. We spreken met nadruk over onderscheiden in plaats van gescheiden categorieën. In de gebruikspraktijk blijken de categorieën namelijk wel te onderscheiden maar nauwelijks te scheiden. Ze kunnen niet zonder elkaar en zijn vaak ondersteunend of complementair.

    Business Intelligence

     

    Data over de interne bedrijfsvoering

    Data over de bedrijfsomgeving

    Bedrijfskundige

    benadering

    A

    B

    Technologische

    benadering

    C

    D

    Hoewel het onderscheid arbitrair is en de term BI net zo goed voor het totale quadrant gereserveerd zou kunnen worden (met CI als deelverzameling) hebben veel BI projecten betrekking op de cellen A en C.

    BI gaat dus vaak op het optimaliseren van bedrijfsprocessen waarbij het accent ligt op het verwerwen van bedrijfsinzicht uit data over de onderneming zelf. Deze data genereren doorgaans kennis over de huidige situatie van de onderneming. Kennis die voor strategievorming en optimalisatie van bedrijfsresultaten (denk aan Performance Management) onontbeerlijk is.

    De technoloische component van BI wordt  door cel C gerepresenteerd. Helaas heeft deze invalshoek bij veel dienstverleners de overhand. Het accent ligt daarbij op de inrichting van een technologische infrastructuur die adequate kennis over de onderneming en haar prestaties mogelijk maakt. In cel C kunnen daarom zowel ETL-tools, datawarehouses als ook analytische applicaties worden gedacht.

    Redactioneel BI-kring:

    In de cel A hebben wij eigenlijk nauwelijks een categorie gedefinieerd.  Wat mij betreft zou daarPerformance Management thuis horen. Die term zou ik dus willen toevoegen. Als Key words kun je denken aan: Key Performance Indicators, Performance Process Management, Organizational Performance,  PDCA (Plan Do Check Act) Cycle, Performance Planning.

    Voor wat betreft C kunnen we verwijzen naar bovenstaande tekst:Datawarehousingen OLAPzijn daar de centrale elementen.Key words zijn dat databases, ETL (Extraction, Transformation and Load), , architecture, data dictionary, metadata, data marts.

    Met betrekking tot OLAP zijn key words:analytische applicaties, reporting, queries, multidimensionale schema’s, spreadsheet, Kubus, data mining.

    Competitive Intelligence

     

    Data over de interne bedrijfsvoering

    Data over de bedrijfsomgeving

    Bedrijfskundige

    benadering

    A

    B

    Technologische

    benadering

    C

    D

    CI is het proces waarin data over de omgeving van de onderneming in een informatieproces worden getransformeerd in ´strategisch bedrijfsinzicht´. Hoewel de term Competitor en Competitive Intelligence vanaf de tachtiger jaren wordt gebruikt heeft deze benadering ook in de jaren zeventig al aandacht gehad onder de noemer 'environmental scanning'.

    CI speelt een belangrijke rol in strategische maar ook andere bedrijfskundige processen. Prestaties van de onderneming, concurrentiepositie, mogelijke toekomstige posities als ook innovatievermogen kunnen slechts worden bepaald met behulp van kennis over de bedrijfsomgeving.

    Redactioneel BI-kring:

    Competitive Intellience heeft dus te maken met alle informatievoorziening die wordt georganiseerd om de concurrentiepositie van ondernemingen te kunnen bepalen, beoordelen en veranderen. Het raakt dus direct aan strategie, strategische intelligence, concurrentie-analyse, concurrentiepositie, en alle intelligence die nodig is om de positie van de onderneming in de omgeving goed te kunnen beoordelen.

    Het organiseren van CI is in organisaties nog steeds zwaar onderbelicht. Het blijkt moeilijk structuur aan te brengen in de noodzakelijke informatieprocessen als ook om ze uit te voeren. De inrichting van een ´systeem´ dat dit proces zou moeten realiseren staat in het middelpunt van de aandacht maar is voor veel organisaties ook nog een brug te ver. Een verantwoorde ontwikkelbenadering vergroot de succeskansen echter aanzienlijk.

    Data over de bedrijfsomgeving zijn vaak ongestructureerd van aard en in de organisatie voorhanden. De kunst is deze data beschikbaar te maken voor de besluitvorming. Wanneer de data niet in de onderneming beschikbaar is verschillen de technieken en instrumenten die moeten worden ingezet om deze data te ontsluiten van de bij BI gebruikte technieken. De technieken varieren vandocumentmanagementsystemen tot information agents die zelfstandig het internet afzoeken naar interessante bouwstenen (data!). Bij het structureren en analyseren van de ongestructureerde documenten wordt text mining gebruikt (in geval van www; web-content-mining).

    Redactioneel BI-kring

    Om competitive Intelligence adequaat te ondersteunen en met name ook primaire data beschikbaar te maken ten behoeve van het proces zijn Collaboration tools populair. Het gaat hier over kennismanagement achtige systemen en shareware toepassingen die de data-, informatie- en kennisdeling faciliteren. Key words: kennismanagagement, shareware, sharepoint, knowledge management.

    Overzicht data categorieen BI-kring

    Cel A format

    • Performance Management

    Key words:Key Performance Indicators, Performance Process Management, Organizational Performance,  PDCA (Plan Do Check Act) Cycle, Performance Planning

    Cel C format

    • Datawarehousing

    Key words:databases, ETL (Extraction, Transformation and Load), , architecture, data dictionary, metadata, data marts., Big Data

    • Online Analytical Processing

    Key words:analytische applicaties, reporting, queries, multidimensionale

     schema’s, spreadsheet, Kubus, data mining, dashboarding.

    Cel B format

    • Competitive Intelligence

    Key words:strategie, strategische intelligence, concurrentie-analyse, concurrentiepositie, competitor intelligence, technological intelligence, environmental scanning, environmental intelligence.

    • Content (Competitive Intelligence als product)

         Key words:

    Cel D format

    • Collaboration

    Key words:kennismanagagement, shareware, sharepoint, knowledge management.

    • Search methodologies

                     Key words:documentmanagement systemen, spider technologie,

    ongestructureerde informatie, information agents, text mining, content mining. Search technologies.

    Integraal tav hele schema (intelligente organisaties hebben het hele model integraal geimplementeerd)

    • Intelligente organisatie

    Key words:Management informatie, Intelligente organisatie, lerende organisatie, organisationeel leren, leren, Intelligence change management.

     

    Bron: Egbert Philips

     

  • Data science en de groei naar volwassenheid

    Data strategyIn 2015 ben ik samen met de Radboud Management Academy en Business & Decision gestart met de leergang Business Data Scientist. In deze blog ga ik in op één van de belangrijke doelstellingen van de leergang: bedrijven helpen een passend groeipad in big data gebruik te ontwikkelen en doorlopen.

    Data Science is een beetje als de buurman die je zijn nieuwe auto met het allernieuwste snufje laat zien. Bijna onmiddellijk bekruipt je het gevoel dat je dat ook nodig hebt. Veel ondernemingen ervaren hetzelfde gevoel wanneer het om data science gaat.

    Data is door talrijke technische en sociale ontwikkelingen (Connected economy, mobility, internet of things, willingness to share data) in overvloed aanwezig. Bedrijven herkennen ook dat data meer is dan een bijproduct van operationele processen. Ze zoeken daarom, meer of minder gedreven door de successen van de buurman, naar mogelijkheden om hun eigen bedrijfsvoering te verbeteren. Daarbij gebruikmakend van data als een primaire bron of asset.

    Veel ondernemingen vragen zich echter af: (Waar) moet ik beginnen? Wat moet ik ambiëren? Wie heb ik nodig om dit te organiseren? Is het voldoende als ik een stel hard core data scientists in dienst neem? Vanzelfsprekend is er geen ‘one fits all’ antwoord op deze vragen. Deze vragen zijn uitsluitend te beantwoorden wanneer de onderneming een helder beeld heeft op een haar passende data science strategie en bijbehorend groeipad. Wanneer deze ontbreken dreigt mislukking. En frustratie! Niet in de laatste plaats bij de aangenomen data scientists die de oplossing voor bijna alles zouden zijn. Het is immers moeilijk te voldoen aan onbepaalde en oneindige verwachtingen.

    Bedrijven kunnen verschillende keuzes maken in hun data science strategie. Deze zijn afhankelijk van hun eigen positie en bedrijfsstrategie. De uitgangspunten voor het laten aansluiten van de data science strategie op de bedrijfsstrategie kunnen verschillen. In de ene groep data-science strategieën (‘executie-strategie’, ‘transformatie-strategie’ en ‘service-strategie’) staat de bedrijfsstrategie niet ter discussie en is het doel van data science de bedrijfsvoering te ondersteunen en optimaliseren. In de andere data-science strategie is het doel juist de ondernemingsstrategie te veranderen. Data is dan een enabler voor fundamentele verandering van de business.

    De ene data science strategie is niet beter dan de andere. Bovendien zijn er mengvormen mogelijk en kan de ene strategie de andere in een later stadium volgen. Belangrijker is dat organisaties een expliciete keuze maken en een passende roadmap naar volwassenheid opstellen. De ontwikkeling van de data science afdeling wordt daar vervolgens op afgestemd. De ene data science competentie is namelijk de andere niet. Voor een executie strategie heb je bijvoorbeeld andere mensen en technologieën nodig dan voor een enabler strategie.

    Zo kiezen organisaties bewust een eigen data science strategie en groeipad naar volwassenheid. Vanuit dat kader kunnen technologische competenties en tools worden beoordeeld op hun noodzaak en bruikbaarheid. En maakt het gevoel ‘het nieuwste snufje van de buurman ook te moeten hebben’ plaats voor een bewust afweging op basis van ‘behoefte , bruikbaarheid en ontwikkelstadium’.

    Op zoek naar meer informatie? Indien je geinteresseerd bent kun je hier een nieuwe brochure aanvragen.

    Egbert Philips, https://www.linkedin.com/in/egbert-philips-9548bb2?trk=nav_responsive_tab_profile

  • Een datagedreven organisatiecultuur: waar te beginnen?

    3jzi1jporwq1besspdljn34iuj7oxblBedrijven met een datagedreven organisatiecultuur plukken daar de vruchten van. De voordelen van data inzet zijn bij de meeste bedrijven wel bekend, echter blijft de implementatie vaak achter. Op zich niet verrassend: de overgang op verschillende organisatieniveaus is een hele uitdaging en cultuurverandering kost tijd.

    Begrippen als big data, business intelligence, analytics en data science zijn voor veel organisaties nog behoorlijk abstract. Met alle beschikbare data heb je feitelijk goud in handen, maar hoe ga je slim om met data, hoeveel waarde zit er in en welke aanpak is de sleutel tot succes? Organisaties met veel data in hun bezit behalen namelijk lang niet altijd direct concurrentievoordeel. Het zijn organisaties die data gebruiken als basis voor het nemen van beslissingen die het meest profiteren.


    Mindset
    Voor bedrijven die (big) data effectief willen inzetten, is het van belang dat er een cultuur aanwezig is waarin de besluitvorming wordt gebaseerd op data. Zonder een datagedreven cultuur worden medewerkers namelijk niet gestimuleerd om de technologieën ook daadwerkelijk te gebruiken. Verandering van de mindset is hierbij dus cruciaal. Maar hoe kom je tot een cultuuromslag? En hoe zorg je ervoor dat uiteindelijk iedereen binnen je organisatie data gedreven beslissingen omarmt? Hieronder vind je een aantal direct toepasbare tips om zelf invloed uit te oefen op je organisatiecultuur.


    Start met het bepalen en meten van KPI's
    Wat je niet meet, kun je ook niet optimaliseren. De juiste KPI's zijn het fundament van data gedreven beslissingen. Zorg dat je helder in kaart hebt welke data gerelateerd zijn aan het succes van je organisatie. Welke datapunten zijn belangrijk en hoe verhouden deze zich tot je business doelstellingen? Meet wat gekwantificeerd kan worden. Is kwantificeren niet mogelijk? Zorg dan voor kwalitatieve data. Wanneer je de KPI's scherp hebt, kun je goede en gegronde beslissingen/aanbevelingen maken. Hier zal ook je omgeving de meerwaarde van zien.


    Wees zelf ambassadeur
    Maak je eigen beslissingen datagedreven en zet anderen aan om dit ook te doen. Het is van belang dat je zoveel mogelijk data van je organisatie inzet om datagedreven beslissingen te nemen. Wanneer data namelijk onderbuikgevoelens versterkt, of nog beter, deze tegenspreekt, zal het belang van een datagedreven aanpak vanzelf op de voorgrond treden.


    Start vandaag
    De weg naar een datagedreven organisatie is lang, maar je kunt wel vandaag de eerste stappen zetten. Begin bijvoorbeeld met het zoeken en uitvoeren van een aantal datahefbomen waarmee je datagedreven resultaten kunt boeken en groei van daaruit door. Maak de boodschap duidelijk naar je collega’s, toon hun het belang van datagedreven beslissingen aan. Faciliteer het gebruik van data. En laat zien dat het werkt.

    Source: Twinkle

  • Finance gedwongen te moderniseren door digitalisering

    Finance-Data1

    Gedreven door technologie en toenemende transparantie-eisen groeit finance uit tot het dataknooppunt van de organisatie. Hoe werkt dat in de praktijk? Drie CFO's bieden een blik achter de schermen.

     De finance-functie moderniseert. Met real-time analytics, altijd en overal beschikbare data, nieuwe samenwerkingstools en een behoorlijke dosis aanpassingsvermogen wordt de strijd aangegaan met de voortdurend veranderende omstandigheden waarbinnen de onderneming moet aantonen van toegevoegde waarde te zijn voor zijn stakeholders. 'Eigenlijk staat in elke branche het verdienmodel onder druk', zegt Robert van de Graaf, CFO met brede ervaring in de financiële sector. 'En overal ervaart men de noodzaak daar antwoorden op te formuleren. Het is immers een kwestie van 'to disrupt or to be disrupted'.' Dat finance in dat proces een leidende rol vervult, is in de ogen van Van de Graaf 'logisch'. 'Finance is per slot van rekening de hoeder over de continuïteit van de onderneming en het daarbij behorende businessmodel.'

    Data-voorsprong

    De sensationele voorbeelden - Uber en Airbnb die hele branches bedreigen - trekken uiteraard de meeste aandacht, maar de veranderingen zijn niet altijd meteen ingrijpend en zichtbaar. Wat overigens niets afdoet aan de noodzaak de confrontatie ermee te zoeken, vindt Van de Graaf. 'In vele branches heeft men nu nog een data-voorsprong op de klanten, maar over drie tot vijf jaar is daar geen sprake meer van. Denk aan de impact van The Internet of Things in de woning en scanners waarmee je de eigen gezondheid kan bepalen. Als je wacht tot het zover is, is het te laat. Je moet nú de vraag gaan beantwoorden wat die ontwikkeling gaat betekenen voor je onderneming.'

    In zijn rol van aanjager in dat proces moet finance uit zijn comfortzone stappen, vindt Van de Graaf. 'Ik zie graag dat finance het aangaan van kort cyclische projecten stimuleert. Eis dan niet een business case vooraf, maar spreek bijvoorbeeld af dat binnen drie maanden duidelijk wordt of er al dan niet een klantbehoefte is aangeboord. Houd daarbij de teams in eerste instantie klein, want dat bevordert de creativiteit.'

    Volumedaling

    Het is een proces waarmee inrichter Koninklijke Ahrend ervaring heeft. 'De vastgoedcrisis van 2008 halveerde de Europese markt voor inrichten en had daarmee een majeure impact op de omzet van dit bedrijf', zegt CFO Rolf Verspuij. Vervolgens kwamen daar de effecten van trends als digitalisering overheen. 'Flexwerken en thuiswerken zorgden voor een verdere volumedaling. De verkoop van kasten en werkplekken waren de kurk waar het bedrijf op dreef, maar dat tijdperk liep af, zoveel was duidelijk.'

    In 2012 ging daarom het roer om. 'Vanzelfsprekend' had finance een leidende rol bij die veranderingsoperatie, vindt Verspuij, die begin 2012 bij Ahrend in dienst trad. 'Uiteindelijk gaat het om het halen van financiële doelstellingen. Van alle onderdelen van het nieuwe businessmodel moet toch bepaald worden of en in welke mate ze bijdragen aan het resultaat.' Bovendien noopte de nieuwe koers tot het aanpassen van informatiesystemen voor meer inzicht in de performance.

    'Flexibiliteit en aanpassingsvermogen zijn zeer belangrijk geworden voor onze organisatie', aldus Verspuij, 'want we onderscheiden ons nu door marktgerichtheid. Vroeger was Ahrend min of meer een productiehuis: we ontwikkelden en produceerden een mooi product, om dat in hoge volumes weg te zetten. Nu is luisteren naar de markt het devies. We spelen daar vervolgens op in met nieuwe concepten en allerlei slimme inrichtingsoplossingen. '

    Registratiesysteem

    Waarbij Ahrend nu juist gebruikmaakt van digitalisering: if you can't beat them, join them. 'Zo maken we het de facility-manager gemakkelijk door meubilair te voorzien van geavanceerde technologieën waarmee registratie van gebruik en het creëren van overzicht tot de mogelijkheden behoort. Beheer, onderhoud en kostenbewaking zijn dan efficiënter uit te voeren.' Daarnaast wordt het interessant innovaties toe te passen waarbij gebruikgemaakt wordt van de mobiele telefoon.

    Door al deze veranderingen is Ahrends omzet weer gestegen, zelfs tot boven het niveau van 2007, mede door een aantal overnames vorig jaar. De doorgevoerde veranderingen dragen bovendien zichtbaar positief bij aan de resultaten. 'We zijn er nog niet', zegt Verspuij, 'maar er zijn grote stappen gezet.'

    Wisselwerking

    Ook bij de HVC Groep, een afval-, energie- en grondstoffenbedrijf, hebben marktverschuivingen geleid tot digitalisering van het product- en dienstenpakket. Zo chipt HVC de afvalbakken. De beschikbaarheid van data is een stuwende factor voor de verbreding van de informatievoorziening door de finance-functie, zo vertelt CFO Ingrid Tigchelaar. 'Waarbij er duidelijk een wisselwerking is tussen vraag en aanbod. De roep om transparantie en de technologische mogelijkheden tot dataverzameling en -analyse versterken elkaar.' HVC Groep is in handen van overheden en in die zin een 'klassiek' nutsbedrijf. 'Dat betekent dus: talrijke stakeholders die steeds meer informatie willen over de prestaties en bedrijfsvoering van de organisatie', vertelt Tigchelaar. 'Transparantie is een maatschappelijke norm geworden.'

    Ze werkt momenteel aan de omwenteling om aan die norm te voldoen. 'In de basis is de HVC Groep een volcontinu procestechnologisch bedrijf. We waren al gewend veel gegevens te verzamelen over de bedrijfsvoering, vooral met het oog op de monitoring van de continuïteit en de veiligheid van de bedrijfsprocessen. Echter, die gegevens werden altijd alleen intern gebruikt. Om ze geschikt te maken voor andere stakeholders is een kwaliteitsslag nodig; de buitenwereld stelt nu eenmaal andere kwaliteitseisen aan die informatie. Met alle gevolgen dus voor de ordening, organisatie, verslaggeving en rapportage van die gegevens.'

    Betrouwbaarheid

    Kenmerkend voor de manier waarop finance zich ontwikkelt, zo zegt Tigchelaar, is dat financiële en niet-financiële informatie steeds meer verweven raken. 'In dit type bedrijf liggen de uitdagingen niet in het proces van de verwerking van financiële gegevens, dat is wel op orde. Wel is het belangrijk dat je die financiële gegevens kunt laten aansluiten op al die andere data die belangrijk zijn voor de bedrijfsvoering. Eén bron van informatie: daarmee verhoog je de betrouwbaarheid ervan enorm.'

    Om welke gegevens gaat het dan? Tigchelaar noemt als voorbeeld de hoeveelheid gerecycled afval. 'Met het Rijk zijn daar in de zogeheten VANG-doelstellingen afspraken over gemaakt. Zo moet in 2020 75 procent van het afval gerecycled worden. Deze doelstellingen zijn overgenomen door lagere overheden en die willen verantwoording afleggen aan de burgers. Dat betekent dat wij als inzamelaar en verwerker van afval daar informatie over moeten geven; dat is ook vastgelegd in de dienstverleningsovereenkomsten met onze stakeholders.'

    Een ander voorbeeld is de onlangs afgesloten brand- en ongevallenverzekering. 'Waarbij een goede registratie van alle incidenten in het bedrijf van groot belang is. Dat deden we al, maar alleen voor intern gebruik. Laten zien aan externe stakeholders dat we in control zijn, stelt extra eisen aan de verzameling en verwerking van de betreffende data.'

     

    source: www.fd.nl

     

  • From traditional Business to Smart Big Data leader

    In this post I outline how US agricultural manufacturer John Deere has transformed itself from a traditional manufacturing company to a big data leader. The post was first published in my column for Data Science Central

    John Deere 2

    John Deere has always been a pioneering company. Its eponymous founder personally designed, built and sold some of the first commercial steel ploughs. These made the lives of settlers moving into the Midwest during the middle of the 19th century much easier and established the company as an American legend.

    Often at the forefront of innovation, it is no surprise that it has embraced Big Data enthusiastically – assisting pioneers with the taming of the virtual wild frontier just as it did with the real one.

    In recent years, it has focused efforts on providing Big Data and Internet of Thingssolutions to let farmers (and in the case of their industrial division with the black and yellow logo, builders) to make informed decisions based on real-time analysis of captured data.

    So in this post I want to take a look at some of John Deere’s innovations in the virtual realm, and how they are leading to change which is said to be “revolutionizing” the world of farming.

    Smart farms

    The world’s population is growing rapidly, which means there is always going to be an increasing demand for more food. With the idea of genetically modified food still not appealing to public appetites, increasing the efficiency of production of standard crops is key to this. To this end, John Deere has launched several Big Data-enabled services which let farmers benefit from crowdsourced, real-time monitoring of data collected from its thousands of users.

    They are designed by the company’s Intelligent Solutions Group, and the vision is that one day even large farms will be manageable by a small team of humans working alongside a fleet of robotic tools, all connected and communicating with each other.

    To this end, they are working on a suite of services to allow everything from land preparation to seeding, fertilizing and harvesting to be controlled from a central hub.

    The total land available can be split into sections and “Prescriptions” issued with precise instructions for seed density, depth and fertilization. These decisions are informed by Big Data – aggregated data from thousands of users feeding their own data back to the service for analysis.

    Crowd sourced agriculture

    Myjohndeere.com is an online portal which allows farmers to access data gathered from sensors attached to their own machinery as they work the fields, as well as aggregated data from other users around the world. It is also connected to external datasets including weather and financial data.

    These services allow farmers to make better informed decisions about how to use their equipment, where they will get the best results from, and what return on their investment they are providing.

    For example, fuel usage of different combines can be monitored and correlated with their productivity levels. By analyzing the data from thousands of farms, working with many different crops in many different conditions, it is possible to fine-tune operations for optimum levels of production.

    The system also helps to minimize downtime by predicting, based on crowdsourced data, when and where equipment is likely to fail. This data can be shared with engineers who will stand ready to supply new parts and service machinery as and when it is needed – cutting down on waste caused by expensive machinery sitting idle.

    Another service is Farmsight, launched in 2011. It allows farmers to make proactive decisions about what crops to plant where, based on information gathered in their own fields and those of other users. This is where the “prescriptions” can be assigned to individual fields, or sections of fields, and machinery remotely reprogrammed to alter their behavior according to the “best practice” suggested by the analytics.

    As well as increasing farmers’ profits and hopefully creating cheaper, more abundant food for the world, there are potential environmental gains, too.

    Pesticides and fertilizer can often cause pollution of air and waterways, so having more information on the precise levels needed for optimum production means that no more than is necessary will be used.

    Who owns your agricultural data?

    Of course, with all of this data being generated and shared – there is one question which needs answering – who owns it?

    Deere offers what it calls its Deere Open Data Platform, which lets farmers share data with each other (or choose not to, if they wish) and also with third party application developers, who use can the APIs to connect equipment by other manufacturers, or to offer their own data analysis services.

    But this has not stopped many farmers asking why they should effectively pay for their own data, and asking why John Deere and other companies providing similar services shouldn’t pay them – according to American Farm Bureau Federation director Mary Kay Thatcher.

    Talks are currently ongoing between the AFBF and companies including John Deere, Monsanto and DuPont over how these concerns should be addressed. As well as privacy worries, there are concerns that having too much information could allow traders in financial markets to manipulate prices.

    Farming is one of the fundamental activities which makes us human and distinguishes us from animals. Once we developed farms, we no longer needed to constantly be on the move in the pursuit of food and fertile foraging spots, leading to the development of towns, cities and civilization.

    The future of farming?

    With the development of automation and Big Data, we are starting to delegate those responsibilities to robots – not because farmers are lazy (they really aren’t, as anyone who lives in an area where agricultural activity goes on will tell you!) but because they can often do it better.

    Sure, John Deere’s vision of vast areas of farmland managed by a man sitting at a computer terminal with a small team of helpers will lead to less employment opportunities for humans working the land, but that has been the trend for at least the last century, regardless.

    And the potential for huge positive change– in a world facing overpopulation and insufficient production of food – particularly in the developing nations, is something that has the potential to benefit everyone on the planet.

    I hope you found this post interesting. I am always keen to hear your views on the topic and invite you to comment with any thoughts you might have.

     

    Author: Bernard Marr

     

  • How To Build A Game-Changing Team For Your Business

    corporate-team-buildingGetting a successful business up and running is a key skill for entrepreneurs. Building a team that can take it to the next level is another; and some might say, one of the most difficult to master. The people they need to bring on board must be at ease with autonomy, entrepreneurial, driven, and able to apply their skills to a wide range of tasks. They also need to share the founder’s vision. Above all, to be part of a game-changing growth strategy, they have to be great team players. But where do you find these people and how do you get them on board?

    Harness the team-building power of technology

    Does it matter if your next key player is based in London, New York, Tokyo or Rome? Not if you have access to the technology that can empower key hires to elevate the team and help the business achieve its goals from anywhere in the world. In-app advertising platform Tapdaq has just closed a $6.5million Series A funding round which will be used to further expand the company by hiring the best talent from across the globe.

    “We’re not into letting geography determine who we hire – we want to find the perfect person for the role,” says CEO and cofounder Ted Nash, a serial entrepreneur who has been creating online companies since he was 12 and was the world’s first teenager to achieve 1million App Store downloads.

    He adds: “There are processes you need to put in place to make sure everyone’s doing the job that’s being asked of them and to maintain a strong company culture, but having a global approach to your workforce allows you to tap into top talent from across the world, freeing your company from geographical boundaries.”

    Target the power players

    Business intelligence company DueDil is growing rapidly, doubling in size to 80 people in 2015, which has involved building core functions, such as the sales team, from scratch. Getting the right people in place to lead those key areas is crucial to success, and the London-based firm recently appointed Nick Noyer as VP of marketing. Noyer was previously director of EMEA marketing and international strategy at Box , where he led market entry into Europe.

    DueDil cofounder and CEO Damian Kimmelman said: “We’ve found smart leaders who bring new skillsets to the company, which is important. But for me, it’s critical to look for someone who can show they are hungry to succeed, as I want people alongside me who have something to prove and are motivated by big challenges. If they have that single attribute, they tend to rise to the obstacles we face as a company as we scale.”

    Source : Forbes

  • How to Optimize Analytics for Growing Data Stores

    Every minute of every day, mind-blowing amounts of data are generated. Twitter users send 347,222 tweets, YouTube users upload 300 hours of video, and Google receives more than four million search queries. And in a single hour, Walmart processes more than a million customer transactions. With the Internet of Things accelerating at lightning speed – to the tune of 6.4 billion connected devices in 2016 (up 30 percent from 2015) – this already staggering amount of data is about to explode. By 2020, IDC estimates there will be 40 zettabytes of data. That’s 5,200 GB for every person on the planet.

    This data is a gold mine for businesses. Or, at least, it can be. On its own, data has zero value. To turn it into a valuable asset, one that delivers the actionable intelligence needed to transform business, you need to know how to apply analytics to that treasure trove. To set yourself up for success, start out by answering these questions:

    What Is the Size, Volume, Type and Velocity of your Data?

    The answers to this will help you determine the best kind of database to store your data and fuel your analysis. For instance, some databases handle structured data, and others are focused on semi-structured or unstructured data. Some are better with high-velocity and high-volume data.

      RDMS Adaptive NoSQL Specialty In-Memory NewSQL Distributed
    Example DB2, Oracle, MySQL Deep Information Sciences Cloudera, MonoDB, Cassandra Graphing, Column Store, time-series MemSQL, VoltDB NuoDB Hadoop
    Data Type Structured Structured Un/semi-structured Multiple Structured Structured Structured
    Qualities Rich features, ACID compliant, scale issues Fast read/ write, strong scale, ACID, flexible Fast ingest, not ACID compliant Good reading, no writing, ETL delays Fast speed, less scale, ETL delays for analytics Good scale and replication, high overhead Distributed, document-based database, slow batch-based queries

     Which Analytics Use Cases will You Be Supporting?

    The type of use cases will drive the business intelligence capabilities you’ll require (Figure 1).

    • Analyst-driven BI. Operator seeking insights across a range of business data to find cross-group efficiencies, profit leakage, cost challenges, etc.
    • Workgroup-driven BI. Small teams focused on a sub-section of the overall strategy and reporting on KPIs for specific tasks.
    • Strategy-driven BI. Insights mapped against a particular strategy with the dashboard becoming the “single source of truth” for business performance.
    • Process-driven BI. Business automation and workflow built as an autonomic process based on outside events.

    Figure-1-1024x449

    Where Do You Want your Data and Analytics to Live?

    The main choices are on-premises or in the cloud. Until recently, for many companies – particularly those concerned about security – on-prem won out. However, that’s changing significantly as cloud-based solutions have proven to be solidly secure. In fact, a recent survey found that 40 percent of big data practitioners use cloud services for analytics and that number is growing.

    The cloud is attractive for many reasons. The biggest is fast time-to-impact. With cloud-based services you can get up and running immediately. This means you can accelerate insights, actions, and business outcomes. There’s no waiting three to four months for deployment and no risk of development issues.

    There’s also no need to purchase and install infrastructure. This is particularly critical for companies that don’t have the financial resources or skills to set up and maintain database and analytics environments on-premises. Without cloud, these companies would be unable to do the kind of analyses required to thrive in our on-demand economy. However, even companies that do have the resources benefit by freeing up people and budget for more strategic projects.

    With data and analytics in the cloud, collaboration also becomes much easier. Your employees, partners, and customers can instantly access business intelligence and performance management.

    Cloud Options

    There are a number of cloud options you can employ. Here’s a quick look at them:

    Infrastructure as a Service (IaaS) for generalized compute, network, and storage clusters. IaaS is great for flexibility and scale, and will support any software. You will be required to install and manage the software.

    Database as a Service (DBaaS), where multi-tenant or dedicated database instances are hosted by the service provider. DBaaS also is great for flexibility and scale, and it offloads backups and data management to the provider. Your data is locked into the provider’s database solution.

    Analytics as a Service (AaaS) provides complex analytics engines that are ready for use and scale as needed, with pre-canned reports.

    Platform as a Service (PaaS) is similar to DBaaS in that it scales easily and that application backups and data management are handled by the provider. Data solutions themselves are often add-ons.

    Software as a Service (SaaS) is when back office software is abstracted through a hosted application with data made available through APIs. Remote analytics are performed “over the wire” and can be limiting.

    How you leverage data can make or break your business. If you decide to go the cloud route, make sure your service provider’s database and analytics applications fit your current and evolving needs. Make sure the provider has the expertise, infrastructure, and proven ability to handle data ebbs and flows in a way that’s cost-effective for you and, equally important, ensures that your performance won’t be compromised when the data tsunami hits. Your business depends on it.

     Source: DataInformed

  • Investing In Artificial Intelligence

    shutterstock Artificial intelligence is one of the most exciting and transformative opportunities of our time. From my vantage point as a venture investor at Playfair Capital, where I focus on investing and building community around AI, I see this as a great time for investors to help build companies in this space. There are three key reasons.

    First, with 40 percent of the world’s population now online, and more than 2 billion smartphones being used with increasing addiction every day (KPCB), we’re creating data assets, the raw material for AI, that describe our behaviors, interests, knowledge, connections and activities at a level of granularity that has never existed.

    Second, the costs of compute and storage are both plummeting by orders of magnitude, while the computational capacity of today’s processors is growing, making AI applications possible and affordable.

    Third, we’ve seen significant improvements recently in the design of learning systems, architectures and software infrastructure that, together, promise to further accelerate the speed of innovation. Indeed, we don’t fully appreciate what tomorrow will look and feel like.

    We also must realize that AI-driven products are already out in the wild, improving the performance of search engines, recommender systems (e.g., e-commerce, music), ad serving and financial trading (amongst others).

    Companies with the resources to invest in AI are already creating an impetus for others to follow suit — or risk not having a competitive seat at the table. Together, therefore, the community has a better understanding and is equipped with more capable tools with which to build learning systems for a wide range of increasingly complex tasks.

    How Might You Apply AI Technologies?

    With such a powerful and generally applicable technology, AI companies can enter the market in different ways. Here are six to consider, along with example businesses that have chosen these routes:

    • There are vast amounts of enterprise and open data available in various data silos, whether web or on-premise. Making connections between these enables a holistic view of a complex problem, from which new insights can be identified and used to make predictions (e.g., DueDil*, Premise and Enigma).
    • Leverage the domain expertise of your team and address a focused, high-value, recurring problem using a set of AI techniques that extend the shortfalls of humans (e.g., Sift Science or Ravelin* for online fraud detection).
    • Productize existing or new AI frameworks for feature engineering, hyperparameter optimization, data processing, algorithms, model training and deployment (amongst others) for a wide variety of commercial problems (e.g., H2O.ai, Seldon* and SigOpt).
    • Automate the repetitive, structured, error-prone and slow processes conducted by knowledge workers on a daily basis using contextual decision making (e.g., Gluru, x.ai and SwiftKey).
    • Endow robots and autonomous agents with the ability to sense, learn and make decisions within a physical environment (e.g., Tesla, Matternet and SkyCatch).
    • Take the long view and focus on research and development (R&D) to take risks that would otherwise be relegated to academia — but due to strict budgets, often isn’t anymore (e.g., DNN Research, DeepMind and Vicarious).

    There’s more on this discussion here. A key consideration, however, is that the open sourcing of technologies by large incumbents (Google, Microsoft, Intel, IBM) and the range of companies productizing technologies for cheap means that technical barriers are eroding fast. What ends up moving the needle are proprietary data access/creation, experienced talent and addictive products.

    Which Challenges Are Faced By Operators And Closely Considered By Investors?

    I see a range of operational, commercial and financial challenges that operators and investors closely consider when working in the AI space. Here are the main points to keep top of mind:

    Operational

    • How to balance the longer-term R&D route with monetization in the short term? While more libraries and frameworks are being released, there’s still significant upfront investment to be made before product performance is acceptable. Users will often be benchmarking against a result produced by a human, so that’s what you’re competing against.
    • The talent pool is shallow: few have the right blend of skills and experience. How will you source and retain talent?
    • Think about balancing engineering with product research and design early on. Working on aesthetics and experience as an afterthought is tantamount to slapping lipstick onto a pig. It’ll still be a pig.
    • Most AI systems need data to be useful. How do you bootstrap your system w/o much data in the early days?

     Commercial

    • AI products are still relatively new in the market. As such, buyers are likely to be non-technical (or not have enough domain knowledge to understand the guts of what you do). They might also be new buyers of the product you sell. Hence, you must closely appreciate the steps/hurdles in the sales cycle.
    • How to deliver the product? SaaS, API, open source?
    • Include chargeable consulting, set up, or support services?
    • Will you be able to use high-level learnings from client data for others?

    Financial

    • Which type of investors are in the best position to appraise your business?
    • What progress is deemed investable? MVP, publications, open source community of users or recurring revenue?
    • Should you focus on core product development or work closely on bespoke projects with clients along the way?
    • Consider buffers when raising capital to ensure that you’re not going out to market again before you’ve reached a significant milestone. 

    Build With The User In The Loop

    There are two big factors that make involving the user in an AI-driven product paramount. One, machines don’t yet recapitulate human cognition. To pick up where software falls short, we need to call on the user for help. And two, buyers/users of software products have more choice today than ever. As such, they’re often fickle (the average 90-day retention for apps is 35 percent).

    Returning expected value out of the box is key to building habits (hyperparameter optimization can help). Here are some great examples of products that prove that involving the user in the loop improves performance:

    • Search: Google uses autocomplete as a way of understanding and disambiguating language/query intent.
    • Vision: Google Translate or Mapillary traffic sign detection enable the user to correct results.
    • Translation: Unbabel community translators perfect machine transcripts.
    • Email Spam Filters: Google, again, to the rescue.

    We can even go a step further, I think, by explaining how machine-generated results are obtained. For example, IBM Watson surfaces relevant literature when supporting a patient diagnosis in the oncology clinic. Doing so improves user satisfaction and helps build confidence in the system to encourage longer-term use and investment. Remember, it’s generally hard for us to trust something we don’t truly understand.

    What’s The AI Investment Climate Like These Days?

    To put this discussion into context, let’s first look at the global VC market: Q1-Q3 2015 saw $47.2 billion invested, a volume higher than each of the full year totals for 17 of the last 20 years (NVCA).

    We’re likely to breach $55 billion by year’s end. There are roughly 900 companies working in the AI field, most of which tackle problems in business intelligence, finance and security. Q4 2014 saw a flurry of deals into AI companies started by well-respected and achieved academics: Vicarious, Scaled Inference, MetaMind and Sentient Technologies.

    So far, we’ve seen about 300 deals into AI companies (defined as businesses whose description includes such keywords as artificial intelligence, machine learning, computer vision, NLP, data science, neural network, deep learning) from January 1, 2015 through December 1, 2015 (CB Insights).

    In the U.K., companies like Ravelin*, Signal and Gluru* raised seed rounds. approximately $2 billion was invested, albeit bloated by large venture debt or credit lines for consumer/business loan providers Avant ($339 million debt+credit), ZestFinance ($150 million debt), LiftForward ($250 million credit) and Argon Credit ($75 million credit). Importantly, 80 percent of deals were < $5 million in size, and 90 percent of the cash was invested into U.S. companies versus 13 percent in Europe. Seventy-five percent of rounds were in the U.S.

     The exit market has seen 33 M&A transactions and 1 IPO. Six events were for European companies, 1 in Asia and the rest were accounted for by American companies. The largest transactions were TellApart/Twitter ($532 million; $17 million raised), Elastica/Blue Coat Systems ($280 million; $45 million raised) and SupersonicAds/IronSource ($150 million; $21 million raised), which return solid multiples of invested capital. The remaining transactions were mostly for talent, given that median team size at the time of the acquisition was 7 people.

    Altogether, AI investments will have accounted for roughly 5 percent of total VC investments for 2015. That’s higher than the 2 percent claimed in 2013, but still tracking far behind competing categories like adtech, mobile and BI software.

    The key takeaway points are a) the financing and exit markets for AI companies are still nascent, as exemplified by the small rounds and low deal volumes, and b) the vast majority of activity takes place in the U.S. Businesses must therefore have exposure to this market.

    Which Problems Remain To Be Solved?

    Healthcare

    I spent a number of summers in university and three years in grad school researching the genetic factors governing the spread of cancer around the body. A key takeaway I left with is the following: therapeutic development is very challenging, expensive, lengthy and regulated, and ultimately offers a transient solution to treating disease.

    Instead, I truly believe that what we need to improve healthcare outcomes is granular and longitudinal monitoring of physiology and lifestyle. This should enable early detection of health conditions in near real time, driving down cost of care over a patient’s lifetime while consequently improving outcomes.

    Consider the digitally connected lifestyles we lead today. The devices some of us interact with on a daily basis are able to track our movements, vital signs, exercise, sleep and even reproductive health. We’re disconnected for fewer hours of the day than we’re online, and I think we’re less apprehensive to storing various data types in the cloud (where they can be accessed, with consent, by third-parties). Sure, the news might paint a different story, but the fact is that we’re still using the web and its wealth of products.

    On a population level, therefore, we have the chance to interrogate data sets that have never before existed. From these, we could glean insights into how nature and nurture influence the genesis and development of disease. That’s huge.

    Look at today’s clinical model. A patient presents into the hospital when they feel something is wrong. The doctor must conduct a battery of tests to derive a diagnosis. These tests address a single (often late-stage) time point, at which moment little can be done to reverse damage (e.g., in the case of cancer).

    Now imagine the future. In a world of continuous, non-invasive monitoring of physiology and lifestyle, we could predict disease onset and outcome, understand which condition a patient likely suffers from and how they’ll respond to various therapeutic modalities. There are loads of applications for artificial intelligence here: intelligence sensors, signal processing, anomaly detection, multivariate classifiers, deep learning on molecular interactions...

    Some companies are already hacking away at this problem:

    • Sano: Continuously monitor biomarkers in blood using sensors and software.
    • Enlitic/MetaMind/Zebra Medical: Vision systems for decision support (MRI/CT).
    • Deep Genomics/Atomwise: Learn, model and predict how genetic variation influence health/disease and how drugs can be repurposed for new conditions.
    • Flatiron Health: Common technology infrastructure for clinics and hospitals to process oncology data generated from research.
    • Google: Filed a patent covering an invention for drawing blood without a needle. This is a small step toward wearable sampling devices.
    • A point worth noting is that the U.K. has a slight leg up on the data access front. Initiatives like the U.K. Biobank (500,000 patient records), Genomics England (100,000 genomes sequenced), HipSci (stem cells) and the NHS care.data program are leading the way in creating centralized data repositories for public health and therapeutic research.

    Enterprise Automation

    Could businesses ever conceivably run themselves? AI-enabled automation of knowledge work could cut employment costs by $9 trillion by 2020 (BAML). Coupled with the efficiency gains worth $1.9 trillion driven by robots, I reckon there’s a chance for near-complete automation of core, repetitive businesses functions in the future.

    Think of all the productized SaaS tools that are available off the shelf for CRM, marketing, billing/payments, logistics, web development, customer interactions, finance, hiring and BI. Then consider tools like Zapier or Tray.io, which help connect applications and program business logic. These could be further expanded by leveraging contextual data points that inform decision making.

    Perhaps we could eventually re-image the new eBay, where you’ll have fully automated inventory procurement, pricing, listing generation, translation, recommendations, transaction processing, customer interaction, packaging, fulfillment and shipping. Of course, this is probably a ways off.

    I’m bullish on the value to be created with artificial intelligence across our personal and professional lives. I think there’s currently low VC risk tolerance for this sector, especially given shortening investment horizons for value to be created. More support is needed for companies driving long-term innovation, especially considering that far less is occurring within universities. VC was born to fund moonshots.

    We must remember that access to technology will, over time, become commoditized. It’s therefore key to understand your use case, your user, the value you bring and how it’s experienced and assessed. This gets to the point of finding a strategy to build a sustainable advantage such that others find it hard to replicate your offering.

    Aspects of this strategy may in fact be non-AI and non-technical in nature (e.g., the user experience layer ). As such, there’s renewed focus on core principles: build a solution to an unsolved/poorly served high-value, persistent problem for consumers or businesses.

    Finally, you must have exposure to the U.S. market, where the lion’s share of value is created and realized. We have an opportunity to catalyze the growth of the AI sector in Europe, but not without keeping close tabs on what works/doesn’t work across the pond.

    Source: TechCrunch

  • Toveren met Talent Analytics?

    talentmanagementOrganisaties kunnen op tal van terreinen nog winnen aan intelligentie. Afhankelijk van de definitie van intelligentie (een intelligente organisatie is echt iets anders dan dingen gewoon  slim doen) kunnen we bijvoorbeeld ook veel intelligenter HRM bedrijven.

    Zoals bij veel functionele disciplines al het geval is, komt nu ook bij HR het gebruik van informatietechnologie in de belangstelling te staan.

    Rocket science? Gaat dit de discipline overbodig maken? Welnee. Zoals altijd gaat het om het nemen van goede of betere beslissingen. In dit geval ten aanzien van de ontwikkeling van het menselijk kapitaal in de onderneming. En de beste beslissingen worden nog altijd genomen met kennis van zaken. En kennis van zaken is op data en inzichten gebaseerd. En data is steeds meer beschikbaar. Nu ook ten aanzien van mensen en hun talent. Het gaat erom die data te gebruiken. Daarvoor moeten we de data alleen toegankelijk en toepasbaar maken. En dit is geen rocket science!

    Toch raakt ook de HR manager (net als zijn collega uit andere disciplines overigens) van slag als de ‘ICT tovenaars’ met beloften van Big Data technologie aankomen. How come? Omdat we nog steeds denken dat de wetten van de functionele discipline overbodig worden als automatisering voorbij komt? Omdat we bang zijn te zeggen dat we die technologie niet snappen of er de relevantie niet van zien? Omdat we tegen de ICT-er niet durven te zeggen dat het leuk klinkt maar dat onduidelijk blijft wat de toegevoegde waarde is voor onze discipline (waar de ICT-er doorgaans niets van snapt)? Zijn dit mogelijke oorzaken? Of speelt er iets anders?

    Het is hier in ieder geval oppassen geblazen. Big data en data mining leveren geen beslissingen maar nieuwe data en correlaties; mogelijke inzichten die tot kennis kunnen verworden als we statistisch en methodisch goed genoeg zijn onderlegd. Als bijvoorbeeld blijkt dat alle goede sales managers in Oktober zijn geboren betekent dit niet dat ‘geboren in Oktober’ een kwalificerende functie-eis moet zijn.. Om maar een potentiële valkuil te noemen. Wel kunnen in alle fasen van talent management (integrale proces van talent werving, selectie, training, ontwikkeling en promotie) met behulp van meer data en datatechnologie betere beslissingen worden genomen. Een data-infrastructuur die data genereert, analyseert en op maat  aanbiedt voor besluitvorming, kan dan veel toegevoegde waarde opleveren. Mits met kennis van zaken ingericht.

EasyTagCloud v2.8