Archiv für die Kategorie Big Data

Investitionen in Lösungen für Cognitive Computing und Künstliche Intelligenz steigen in Westeuropa

Erstellt am: Dienstag, 16. Mai 2017 von Sascha Alexander

Die Ausgaben für Systeme für Cognitive Computing und Künstliche Intelligenz in Westeuropa steigen. Nach Schätzung des Analystenhauses IDC werden sich 2017 die Investitionen im Vergleich zum Vorjahr um 40 Prozent auf nun mehr 1,5 Milliarden US-Dollar erhöhen. Für die Jahre bis 2020 sehen die Auguren ein anhaltendes Wachstum von durchschnittlich 42,5 Prozent auf dann 4,3 Milliarden US-Dollar. Die Nachfrage komme laut IDC von diversen Branchen, darunter der Gesundheitssektor und die Öffentliche Hand. Trotz dieses Booms hätte bislang aber nur eine Minderheit unter den europäischen Unternehmen entsprechende Lösungen implementiert. Eine Mehrheit hingegen plant bereits den Einsatz oder will Cognitive Computing und Künstliche Intelligenz zumindest erproben. Wie allgemein bei der Analyse von Big Data ist auch hier die Suche nach Anwendungsszenarien mit klaren wirtschaftlichen Nutzen ein viel diskutiertes Thema. Vor allem Lösungen zur Vertriebsunterstützung, Betrugsanalyse, im Qualitätsmanagement sowie automatisierte Lösungen für mehr Netzwerksicherheit (Threat Intelligence) und Prozessautomatisierung dürften laut IDC besonders hoch in der Gunst der Unternehmen stehen (mehr zu Projekten mit Künstlicher Intelligenz finden Sie hier).

Banken, Einzelhandel und Fertigungsindustrie setzten auf KI und Cognitive Computing

Die höchsten Investitionen in Westeuropa nach Branchen erwartet IDC bei Banken, im Einzelhandel und in der Fertigungsindustrie. Insgesamt würde aber ein Löwenanteil der Unternehmensausgaben auf industrieübergreifende Lösungen für Cognitive Computing und Künstliche Intelligenz entfallen. Bis 2020 werden die genannten Branchen zusammen mit den übergreifenden Vorhaben für rund die Hälfte aller Investitionen in entsprechende Technologien verantwortlich sein. Allein im Bereich Banken, Versicherungen und Datensicherheit würden dann 22 Prozent der Investitionen getätigt werden. Weltweit betrachtet entfallen auf Westeuropa laut IDC 12,1 Prozent der Gesamtausgaben in Cognitive Computing und Künstliche Intelligenz.  Das Durchschnittwachstum liege dabei unter dem im globalen Markt, dem die Analysten Zuwächse von 54,4 Prozent im Jahr zutrauen. Perspektivisch würde sich diese Ratio weiter verschlechtern, sodass 2020 weltweit nur noch 9,5 Prozent aller Ausgaben in diesem Bereich auf Westeuropa entfallen würden, so die Prognose. Zu den Gründen für diese Entwicklung gibt die Pressemitteilung von IDC keine Auskunft.

Big Data made easy

Erstellt am: Montag, 10. April 2017 von Sascha Alexander
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.
Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Woher die Analytics-Manager kommen

Erstellt am: Mittwoch, 5. April 2017 von Sascha Alexander
Eine Auswertung Drexel University von 38 ManagerInnen-Karrieren, deren Profile in der Datenbank des US-amerikanischen Anbieters von Managementinformationen Boardroom Insiders hinterlegt sind, ergab jetzt, dass es in den letzten beiden Jahren grob gesagt drei Karrierewege zur Analytics-Führungskraft gab.  Gemeint sind damit Titel wie “Chief Data Officer”, “Head of Global Analytics” oder “VP Big Data”, die in den USA bereits weiter im Gebrauch sind als hierzulande.

Karrierechance Advanced Analytics

Danach war es in etwa 26 Prozent aller Fälle ein “linearer” Karrieresprung, den diese Manager mit ihrer Berufung getan haben. Sie waren schon zuvor im Bereich Analytics tätig und hatten ihr Wissen über Machine Learing und Statisitk im Laufe ihres Arbeitslebens innerhalb derselben Organisation ausgebaut. Es waren also interne Berufungen. Rund die Hälfte haben laut der Autoren einen wissenschaftlichen Abschluss in Informatik, Statistik und/oder Analytics. Gemein ist ihnen, dass sie über ein gutes Unternehmensverständnis sowie Erfahrung im Data Warerhousing und Machine Learing verfügen.

Quereinsteiger bei Advanced Analytics

Eine zweite Gruppe (rund 45%) sind Quereinsteiger. Sie hatten zuvor diverse Aufgaben im Bereich Analyse oder waren fachliche Ansprechpartner in ihren Organisationen, insbesondere in der IT, im Marketing oder im Finance. Mehr als Hälfte dieser Manager hat in Studium den höchstmöglichen Abschluss in ihrem Fachbereich erzielt, alle übrigen haben zumindest einen Master-Studiengang belegt. Die Stärke dieser Managergruppe liegt laut der Autoren in ihrem Querschnittswissen und damit flexiblen Vorgehensweise bei Problemen und neue Aufgabenstellungen, beispielsweise auf dem Gebiet der Unternehmensarchitektur, IT-Strategie und Digitalem Marketing.

Vom Fachbereich zu Advanced Analytics

Die dritte Gruppe (rund 29 Prozent) sind quasi in die neue Rolle hineinkatapultiert worden. Advanced Analytics gehörten vor ihrer Beförderung nicht zu den Arbeitsschwerpunkten, sondern meist handelt es sich um Führungskräfte aus der IT oder anderen technischen Bereichen. Dafür bringen sie laut der Autoren beispielsweise Erfahrung im Cloud Computing, Projektmanagement, mit mobilen Anwendungen oder Datensicherheit mit. Zudem finden sich in dieser Gruppe die meisten Manager mit Promotion.
Es gibt also nicht DEN einen Weg, um die Verantwortung in der Organisation für die Nutzung von Big Data und Advanced Analytics zu übernehmen. Gemein ist aber zumindest den hier betrachteten US-Managern, dass sie über Management Know-how und ein tiefes Verständnis über die Prozesse und Funktionsweise ihrer Organisation mitbringen. Die QUNIS beschäftigt sich im Rahmen ihrer Beratung und Projekte intensiv mit der passenden Organisation und Rollen für Big-Data- und Advanced-Analytics-Vorhaben in Anwenderunternehmen. Dabei spielt beispielsweise die Frage eine Rolle, wie sich die bisherige BI-Organisation nutzen bzw. weiterentwickeln lässt. Kommen Sie gern auf uns zu!

Deutsche Unternehmen zögern noch beim Internet of Things

Erstellt am: Mittwoch, 15. Februar 2017 von Sascha Alexander

Noch ist das „Internet of Things“ (IoT) bei weitem nicht in jedem Unternehmen ein Thema auf der Agenda. Doch branchenübergreifend betrachtet setzen sich immerhin rund 45 Prozent bereits „aktiv“ damit auseinander. Dies zeigte kürzlich die Anwenderbefragung „Wettbewerbsfaktor Analytics im Internet der Dinge“ vom Lehrstuhl für Wirtschaftsinformatik Prozesse und Systeme an der Universität Potsdam. An ihr nahmen laut der Autoren rund 5700, vorwiegend kleine bis mittelständige Unternehmen aller Branchen teil.

 Aktuell erhoffen sich die Befragten in erster Linie von IoT die Entwicklung neuer Produkte und Dienstleistungen (50 Prozent) sowie generell eine Effizienzerhöhung (40 Prozent). Nur fünf Prozent denken dabei bereits an neue Geschäftsmodelle. Angesichts des frühen Stadiums treibt die Mehrheit der bereits aktiven Unternehmen (87%) die Implementierung von IoT nur auf Projektbasis oder Abteilungsebene voran. Lediglich rund 13 Prozent der Befragten verfügen bereits über eine unternehmensweite Strategie.

 Mehr Effizienz und Prozessüberwachung dank IoT

Einiges tut sich bereits bei Vorhaben zur Effizienzerhöhung. Hier haben 15 Prozent der befragten Unternehmen IoT bereits in bestehende Prozesse integriert. Dies trifft insbesondere auf die Fertigungsbranche zu. Der größte Anteil der Befragten (45 Prozent) zögert bislang und sondiert derzeit noch die Möglichkeiten von IoT. Das Gesundheitswesen und die Fertigung sind hier laut Umfrage besonders zurückhaltend. Die Zurückhaltung äußert sich auch in einem großen Anteil (30 Prozent), der keine konkreten Projekte zur Effizienzerhöhung plant. In dieser Gruppe finden sich besonders häufig Handelsunternehmen.

 Mehr konkrete Projekte finden sich beim Thema Prozessüberwachung. Rund 40 Prozent der Unternehmen haben hier schon nach eigenen Aussagen begonnen. Etwa elf Prozent der Anwender dieser Gruppe (alle aus der Fertigungsbranche) sprechen bereits von integrierten Anwendungen. Branchenübergreifend ist das Interesse an Prozessüberwachung durch IoT aber geringer als bei der Effizienzerhöhung. Nur die Hälfte der Befragten beschäftigt sich mit konkreten Einsatzszenarien. Der Handel zeigt sich auch hier abermals eher zurückhaltend.

Noch wenig „smarte“ Sensoren 

Mit IoT nimmt insbesondere die automatisierte Erhebung von Daten durch neuartige Sensorik an unterschiedlichen Punkten im Geschäftsprozess und im Unternehmen massiv zu. Diese Daten sollen beispielsweise zur Entscheidungsfindung und Prozesssteuerung verwendet werden können. Dies gelingt aktuell sieben Prozent der Unternehmen. Ein Grund hierfür ist die fehlende technische Infrastruktur, um Daten aus ihrer Sensorik zu sammeln und entsprechende Auswertungsroutinen organisatorisch zu verankern. Es sind zum einen Regeln und Verfahren notwendig, welche den Geschäftsprozess antreiben. „Smarte Produkte“ wie sie die Autoren nennen, benötigen beispielswiese komplexe Regeln, um autonom zu agieren. Solche verwendet aktuell etwa jedes fünfte Unternehmen.

Sensorik-Daten werden mit ERP- und CRM-Daten kombiniert

Für Big-Data-Analysen sollten die Sensordaten mit anderen unternehmensinternen Datenquellen (insbesondere ERP- und CRM-Systemen) sowie mit Daten externer Anbieter (Marktanalysen, Entwicklungsprognosen, Preisinformationen) kombiniert werden können, um bessere Vorhersagen treffen zu können, Einsparpotenziale zu identifizieren und erfolgreiche Produkte und Dienstleistungen am Markt anzubieten. Aktuell werden laut Umfragen Daten aus dem ERP-System am stärksten zur Auswertung der Sensorik herangezogen (43 Prozent), da hier die Kernprozesse des Unternehmens abgebildet und alle darin anfallenden Daten horizontal integriert werden. CRM-Daten werden von 30 Prozent der Unternehmen genutzt. Andere, beispielsweise kundennahe Daten (Standortdaten, Mobile-App-Daten) finden hingegen bislang kaum Verwendung. Ebenso kommen explorative Verfahren wie sie Advanced Analytics ermöglichen bislang kaum zum Zug. So wären beispielsweise Verfahren wie Event Stream Processing mit IoT-Daten sinnvoll.

 IoT – Suche nach dem Use Case

Was erste Erfahrungen mit IoT-Projekten betrifft, so nennen Unternehmen die Interoperabilität zwischen Sensoren, Analyseplattformen und anderen Datenquellen als eine der größten Herausforderungen. Ebenso werfen die Datensicherheit und Datenschutz Fragen auf. Zudem ist auch hier, wie in vielen Big-Data-Projekten, die Suche nach dem passenden Use Case und damit verbunden eine Bewertung des Nutzens und des Kostenrisikos für viele Anwender ein Hindernis, um sich stärker mit IoT zu beschäftigen. QUNIS kann hier mit seiner Big-Data-Methodik, seiner Lösungsbibliothek und vor allem dank erfahrener Berater helfen, die Weichen zu Beginn von Big-Data/IoT-Initiativen richtig und nachhaltig zu stellen.

 

Interesse an Hadoop steigt

Erstellt am: Mittwoch, 18. Januar 2017 von Sascha Alexander
Rund zwei Drittel aller Unternehmen beschäftigen sich aktuell mit dem Hadoop-Framework. Zwölf Prozent von ihnen haben es weltweit bereits produktiv im Einsatz (in Europa acht Prozent), der Rest macht Pilotprojekte oder hat zumindest eine Hadoop-Initiative geplant. Dies ergab die im Herbst 2016 veröffentlichten Umfrage „Hadoop und Data Lakes – Use Cases, Nutzen und Grenzen“ des Business Application Research Center (BARC). An ihr nahmen laut der Autoren 380 Befragte aus Europa und Nordamerika teil.
Über die Hälfte der Teilnehmer (53 Prozent) nutzt vorrangig transaktionsorientierte Daten in Hadoop, aber auch Log-Daten (40 Prozent) und Clickstream-Daten/ Web-Analytics (33 Prozent) finden zunehmend Interesse. Über ein Viertel der Befragten nutzt zudem Dokumente und Texte in Hadoop-Anwendungen. Dies erscheint erstaunlich hoch im Vergleich zu verschiedenen BARC-Studien aus vergangenen Jahren. Unter den Anwendungsgebieten dominieren Customer-Intelligence-Projekte (32 Prozent) dicht gefolgt von Predictive-Analytics-Projekten (31 Prozent).

Noch durchschnittlich kleine Datenmengen in Hadoop

Die dabei verwalteten und analysierten Datenmengen sind bis dato noch vergleichsweise gering mit bis zu 25 Terabyte (TB) in 59 Prozent der Unternehmen. Szenarien mit über einem Petabyte (PB) bleiben die große Ausnahme (ein Prozent). Beschränkte sich zunächst der Einsatzmodus von Hadoop und MapReduce in erster Linie auf Batch-Anwendungen, steigen mittlerweile die Anforderungen an die Datenaktualität. So spielen Streaming (21 Prozent) und eine Near-Time-Nutzung der Daten (35 Prozent) eine wachsende Rolle.
Technisch setzt fast ein Drittel der Befragten zur Umsetzung von Hadoop-Projekten auf kommerzielle Produkte bzw. Hadoop-Distributionen. Mehr als ein Viertel (27 Prozent) nutzt Apache-Komponenten zum Aufbau eines eigenen Hadoop-Ökosystems, was laut der Autoren ein überraschend hoher Wert ist, da für die Implementierung, Wartung und Betrieb doch ein tiefes Wissen notwendig ist, um die Komponenten aufeinander abzustimmen und zu administrieren.
Auch die QUNIS beschäftigt sich intensiv mit Hadoop und setzt aktuell erste Projekte um. Neben dem Hadoop-Frame kommen dabei bei Bedarf auch weiteren Techniken zur Umsetzung von Advanced-Analytics-Anwendungen zum Einsatz wie etwas „R“.
Die Umfrage zu Hadoop finden Sie als Download auf der Website der BARC

Frei verfügbare Testdaten für Big-Data-Projekte

Erstellt am: Montag, 2. Januar 2017 von Sascha Alexander
Der Verwendung von Testdaten für Big-Data-Analysen stehen häufig der Datenschutz und strategische Bedenken entgegen. Auch sind Daten unterschiedlicher Provenienz und Struktur nicht immer verfügbar oder müssen eventuell aufwändig bereitgestellt werden. Ebenso können beispielsweise Marktzahlen die eigene Analysebasis sinnvoll erweitern.
Umso erfreulicher ist es für Teams, die sich mit Big Data und Advanced Analytics vertraut machen wollen, dass es heute viele, meist öffentlich zugängliche Datenquellen im Internet gibt. Dabei handelt es sich beispielsweise um Daten öffentlicher Einrichtungen. Hier haben die Bemühungen um „Open Data“ Vieles in Bewegung gesetzt. Ebenso stellen Unternehmen zunehmend Daten über REST-Schnittstellen kostenfrei zur Verfügung, in der Hoffnung, dass sich aus der Nutzung Folgegeschäfte ergeben können. Die Testdaten können dabei durchaus ein erhebliches Volumen von bis zu mehreren Hundert Terabytes haben. Nachfolgend stellen wir Ihnen einige dieser Quellen kurz vor:

 

QUNIS

QUNIS arbeitet bei Big-Data-und Advanced-Analytics-Vorhaben mit Testdaten, um Aufgabenstellungen zu veranschaulichen. So verwenden wir Datasets von Kaggle, einer Online-Plattform, die rund 260 Datensätze anbietet. Zudem haben wir ergänzend mit unserer Lösungsbibliothek zahlreiche Big-Data-Anwendungsbeispiele aus allen Branchen vereint, die Ihnen bei der Auswahl und Priorisierung von Use Cases gute Dienste leisten.

 

Bund

Die Geschäfts- und Koordinierungsstelle GovData arbeitet seit Herbst 2015 an dem EU-konformen Metadatenstandard für offene Verwaltungsdaten in Deutschland „DCAT-AP.DE“. Über das Datenportal stellen teilnehmende öffentliche Stellen Informationen zu vorhandenen Datensätze aus verschiedenen Bereichen (z.B. Umwelt, Bildung, Statistik) zur Verfügung. Es ist eine Vielzahl an unterschiedlichen Daten vorhanden. So finden Sie über GovData neben Statistiken und Jahresberichten, beispielsweise auch Karten, Wahlergebnisse oder Datenbanken, die es Ihnen ermöglichen, über Suchkriterien passende Einrichtungen zu finden.
https://www.govdata.de/

 

US-Regierung

Hier findet sich Open Data zu Themen wie “Landwirtschaft”, “Finanzen”, “Wirtschaft”. Insgesamt über 180tausend Datensätze.
https://www.data.gov/

 

Eurostat

Das Statistische Amt der Europäischen Union, kurz Eurostat genannt, bietet ein umfängliches Open-Data-Repository. Hier finden sich beispielsweise Daten zu Themen zur Bevölkerung, Unternehmensdaten, Wirtschaftsdaten, Landwirtschaft oder dem Gesundheitswesen.
http://ec.europa.eu/eurostat/data/database

 

Amazon Datasets

Amazon bietet mit den „AWS Public Data Sets“ eine Vielzahl von Daten, die der Konzern in seiner S3-Cloud-Plattform vorhält. Die Daten sind frei, es fallen aber Prozessgebühren an, wenn Rechner zur Analyse die AWS-Plattform verwenden. Zu den angebotenen Daten gehören untern anderem die täglich aktualisierten NASA-Daten, Klimadaten, Musikdaten („The Millionen Song Collection“), Social-Media-Daten, Daten aus der Wikipedia oder vom „Human Genome Project“.
http://aws.amazon.com/datasets/

 

CERN

Das CERN, die Europäische Organisation für Kernforschung, stellt aus seinen Projekten ebenfalls Daten zur Verfügung. So etwa Proben aus der Arbeit mit dem “Large Hadron Collider”. Unter diesen insgesamt über 300 Terabyte sind nicht nur Rohdaten, sondern auch aufbereitete Daten, die sich etwa in Universitäten nutzen lassen.
http://opendata.cern.ch/?ln=de

 

Weltbank

Die Finanzorganisation bietet eine Fülle an Daten über die weltweite Entwicklung und Wirtschaft. Statt eines Downloads lässt sich auch über einfach zu bedienende Benutzeroberflächen auf die Daten zugreifen.
http://data.worldbank.org/

 

OECD

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) stellt ein Vielzahl statistischer Daten zu allen 30 OECD-Ländern, der EURO-Zone und der Gesamtorganisation zur Verfügung. Die Daten sind nach Themengruppen organisiert, wie beispielsweise Internationaler Handel, Preise, Public Management oder zum Arbeitsmarkt.
http://www.oecd.org/statistics/

Ein Verzeichnis weitere Datenquellen bietet beispielsweise die Website quora.com

Das wichtigste Kapital der Neuzeit nicht brachliegen lassen: Sofort zum Mehrwert durch Advanced Analytics auf die eigenen Datenbestände

Erstellt am: Donnerstag, 15. Dezember 2016 von Sascha Alexander

Längst sind Big Data, Advanced Analytics und Machine Learning keine schwer greifbaren, futuristisch-visionären Begriffe mehr. Allein privat profitieren wir mittlerweile seit längerem von den vielfältigen Möglichkeiten des Machine Learning auf verschiedenste Weise – sei es bei der täglichen Recherche mit Google, bei den auf die persönlichen Vorlieben zugeschnittenen Empfehlungen unserer liebgewonnen Online-Händler, die immer besser ins Schwarze treffen, sei es bei der passgenauen Musikberieselung durch Services wie Spotify oder auch bei der Nutzung innovativer Smart-Home-Technologien, beispielsweise zum Aktivieren meiner Heizung schon vom Heimweg aus. Schon diese Beispiele zeigen, welches enorme Potenzial Advanced Analytics bieten und dass ganz konkreter wirtschaftlicher Erfolg damit für die Unternehmen verbunden sein kann. Dennoch haben viele Firmen noch immer keine konkreten Strategien oder Pläne, wie sie die neuen Möglichkeiten nutzen könnten, die sich durch die Advanced Analytics, die dem Bereich der künstlichen Intelligenz, auch Artificial Intelligence genannt, zugeordnet werden, ergeben, auch für sich zu reklamieren oder gar mit der Umsetzung sofort zu beginnen.

Die Unternehmen halten bereits alles in Händen, was es zur erfolgreichen Teilhabe an der Zukunft braucht: Die eigenen Datenbestände

Obwohl seit Beginn des Informationszeitalters Ende des vorigen Jahrhunderts die wirtschaftliche Bedeutung von Unternehmensdaten hinlänglich bekannt sein sollte, sie Rohstoff und Ware gleichermaßen sind, beschränken sich viele Unternehmen nach wie vor auf rudimentäre Auswertungen mittels Standardreports und -statisiken. Selbst seit Jahren etablierte Techniken wie die Business Intelligence sind längst nicht in allen Unternehmen tägliche Praxis. Dabei sind nur geringe oder gar keiner Investitionen notwendig, um mit den heute zur Verfügung stehenden Werkzeugen und Plattformen direkt in die Advanced Analytics einzusteigen und an der Zukunft profitabel teilzuhaben.

Machine Learning in das eigene Data Warehouse integrieren

Verfügen Unternehmen bereits über eine Datenbank, im Idealfall auch ein Data Warehouse auf Basis von Microsofts SQL Server, so genügt ein Upgrade auf Version 2016, um Advanced Analytics direkt – beispielsweise in Form eines Datamarts zu realisieren. Durch die jetzt integrierten „R Services“ ist es möglich, Machine-Learning-Modelle mittels R – der Programmiersprache erster Wahl des Data Scientist – direkt auf die Unternehmensdaten anzuwenden und die rückgelieferten Prognosen im Data Warehouse zu speichern und zur Visualisierung bereitzustellen.

Platform- und Software-as-a-Service: Machine Learning in der Cloud

Durch die jetzt verfügbaren Möglichkeiten, die Cloud-Anbieter bereitstellen, ist nun auch kleinsten mittelständischen Betrieben der Weg zur Advanced Analytics geebnet. So ist beispielsweise Microsoft Azure mit seiner umfangreichen Sammlung integrierter vollständig verwalteter Cloud-Dienste für Netzwerke, Speicher, Computing, Datenbanken, Analysen und vielem mehr eine echte Option. Damit kann jedes Unternehmen ohne eigene Investitionen in Hard- und Software perfekt von den neuesten Hochleistungstechnologien profitieren. Zur Realisierung von Advanced Analytics-Szenarien können beispielsweise mittels Azure ML entwickelte oder bereitgestellte Modelle nicht nur direkt ausgeführt werden, vielmehr lassen sich komplette Daten- und Prozessflüsse oder auch IoT-Szenarien abbilden, um diese sodann durch Azure vollständig verwalten zu lassen.

Kein Grund zu warten: Machine Learning nutzen, hier und jetzt

Die genannten Möglichkeiten sind nur ein Bruchteil dessen, was heute bereits möglich ist. Für die Realisierung perfekt passender Szenarien sind der Phantasie praktisch keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch kostenfreie Advanced-Analytics-Webinare oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Advanced Analytics mit Machine Learning wird ein Megatrend

Erstellt am: Freitag, 25. November 2016 von Sascha Alexander

Machine Learning (deutsch: maschinelles Lernen) wird als Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung gebraucht und ist dem Gebiet der Artificial Intelligence (deutsch: künstliche Intelligenz) zugeordnet. Ein künstliches System – der Computer – lernt anhand vorgegebener Beispiele wie etwa historische Geschäftsergebnisse und Kundendetailinformationen und kann die daraus gewonnenen Erkenntnisse nach der Lernphase verallgemeinern. Der trainierte Algorithmus, das Modell, lässt sich auf neue, unbekannte Daten anwenden, um die zukünftige Entwicklung vorhersagen zu können.

Machine Learning ist marktreif
Die Techniken und Algorithmen wie das „Neuronale Netzwerk“ im Machine Learning sind teilweise seit vielen Jahrzehnten verfügbar und wurden seitdem kontinuierlich weiterentwickelt. Allerdings blieben die Ergebnisse und Prognosen lange Zeit hinter den menschlichen Fähigkeiten zurück. In den letzten Jahren hat sich die Situation jedoch fundamental verändert, sodass man mittlerweile behaupten kann, dass computerbasierte Prognosen immer öfter und in einer wachsenden Zahl von Anwendungsfeldern exaktere Ergebnisse liefern, als wenn sie ein Mensch erstellt hätte.

Der Data Scientist als Experte für Machine Learning
Machine Learning ist eine Kernkompetenz des „Data Scientist“, einem relativ neuen wie anspruchsvollen Berufsbild, welches die „Harvard Business Review“ schon zum „sexiest job of the 21. Century“ ernannt hat. Solche Experten müssen idealerweise Kenntnisse aus den Bereichen Mathematik/Statistik, Datenbank- und Programmierkenntnisse, fachspezifisches Knowhow, gute Kommunikations-Skills sowie ein gewisses Talent für die überzeugende Datenvisualisierung mitbringen.

Reife Techniken für Advanced Analytics
Für ihre Analysen und Modelle können sie heute auf eine gut gefüllte und leistungsfähige Werkzeug- und Programmierkiste für Advanced Analytics zugreifen. So wird beispielsweise die Programmiersprache „R“ vielerorts genutzt. Marktentwicklungen wie die jetzt mögliche direkte Integration in den MICROSOFT SQL Server in Kombination mit Parallelisierbarkeit werden die Nutzung von „R“ weiter fördern. Gleiches gilt für die bezüglich Funktionalität in nichts nachstehende Programmiersprache „Python“, die In-Memory-Technik „Spark“, die meist im Zusammenhang mit dem HADOOP Framework betrieben wird, sowie vollständig verwaltete Cloud Services wie „MICROSOFT Azure Machine Learing“ (Azure ML). Zudem sind Advanced Analytics heute nicht nur im Zusammenhang mit Big Data, sondern durchaus für die Analyse bisher typischer Datenbestände im Unternehmen geeignet, was ihre Bedeutung und Verbreitung weiter fördern wird.

Business Intelligence bleibt wichtig
Bisherige Anwendungen für Business Intelligence und zur Visualisierung der Geschäftsergebnisse mit Standardreports oder Dashboards werden trotz dieser rasanten Entwicklung aber nicht überflüssig. Die auf vergangene Ereignisse gerichtete Analyse mit Techniken wie „Drill up“, „Drill down“ und „Drill through“, Toplisten-Betrachtungen, Key Performance Indikatoren und dergleichen bleiben wichtige Methoden und Messgrößen der Unternehmenssteuerung (Mehr zu Verhältnis von Business Intelligence und Big Data finden Sie hier).

Allerdings müssen Unternehmen angesichts dynamischer Märkte und immer neuen Chancen und Herausforderungen durch die Digitalisierung künftige Entwicklungen schneller und noch genauer prognostizieren sowie möglichst konkrete Maßnahmen aus den Ergebnissen ableiten können, um wirtschaftlich erfolgreich zu bleiben. Hierfür waren die bisherigen BI- und Analysewerkzeuge nie konzipiert worden und auch allein auf das berühmte Bauchgefühl sollte man sich heute nicht mehr allein verlassen, wenn es um die Einschätzung künftiger Ereignisse und Risikominimierung geht. Machine Learning als Teil der Advanced Analytics kann hier echte Vorteile und Chancen eröffnen und der menschlichen Intuition ein wenig unter die Arme greifen.

Ob Cloud-basierend oder „On Premise“ – es gibt heute zahlreiche Möglichkeiten, wie Sie Advanced Analytics in Ihrem Unternehmen in Ihre bestehende BI Landschaft integrieren und auf Ihre Daten gewinnbringend anwenden können. Die Experten von QUNIS stehen Ihnen mit Rat und Tat zur Seite! Im Rahmen eines Big-Data-Workshops mit uns, können wir Ihnen helfen, unternehmensspezifische Business Cases zu identifizieren und diese nachfolgend im Rahmen eines Proof of Concept zu verproben.

 

Big Data als Erfolgsfaktor der Digitalisierung

Erstellt am: Dienstag, 25. Oktober 2016 von Sascha Alexander
Die digitale Transformation der Unternehmen zielt aus Sicht von Steffen Vierkorn, Geschäftsführer der QUNIS, auf eine Verbesserung existierender sowie die Schaffung neuer Prozesse ab. Anwender erhoffen sich davon, vorhandene sowie neue Produkte und Dienstleistungen flexibler und schneller auf den Markt bringen zu können. Große Veränderungen in den Abläufen und neue Umsatzfelder gehen mit einer breiteren Nutzung, Auswertung und Verbreitung von Daten einher, womit Big Data und Advanced Analytics in den Mittelpunkt rücken.

Man kann zwar Digitalisierungsstrategien auch ohne einen speziellen Fokus auf Big Data starten. Doch eher früher als später wird ein geordnetes Datenmanagement notwendig sein, um eine „zerpflückte“ Systemlandschaft zu vermeiden. Damit kommt die Frage der Nutzung von Big Data und seine Auswertung mit Advanced Analytics dann doch sehr schnell auf die Tagesordnung. Es ist daher nicht übertrieben, Big Data langfristig als einen der Erfolgsfaktor der Digitalisierung zu bezeichnen.

Ziele von Big-Data-Initiativen

Unternehmen versprechen sich derzeit von Big-Data-Initiativen am häufigsten eine Verbesserung ihrer Prozesse. Quelle: QUNIS, Umfrage „Big Data & Advanced Analytics“, 2016, n = 59 (Mehrfachnennungen möglich).

 

Strategie für Big Data und Advanced Analytics definieren
Wir empfehlen in der Praxis, zunächst intern im Rahmen einer Strategie für Business Intelligence, Big Data und Advanced Analytics den Scope (use case) entsprechender Projekte zu klären. Hieraus ergeben sich die Anforderungen, um im nächsten Schritt eine entsprechende Datenarchitektur zu schaffen. Bei der Tool-Auswahl stellt sich dann beispielsweise die Frage, ob eine „Cloud“-Lösung oder „On-premise“-Lösung besser geeignet ist. Zudem muss eine adäquate Organisation entstehen, welche die Strategie und die Nutzung von Big Data und Advanced Analytics unterstützt. Hierzu gehört auch die Etablierung einer Data Governance. Mehr dazu finden Sie in der Übersicht unserer Big-Data-Methodik.

 

Big Data braucht überzeugende Use Cases

Erstellt am: Dienstag, 18. Oktober 2016 von Sascha Alexander

Es wird weiterhin in Big-Data-Technologien investiert, doch nimmt die Bereitschaft dazu in den kommenden zwei Jahren ab. Zu diesem Schluss kommt jetzt eine Umfrage des Analystenhauses Gartner unter 199 Unternehmen der Online-Community „Gartner Research Circle“. Danach haben 48 Prozent der Befragten im diesem Jahr in Big-Data-Technologien investiert, was einem Plus von drei Prozent gegenüber 2015 entspricht. Allerdings wollen im Vorjahresvergleich nur noch 25 Prozent (2015: 31 Prozent) auch in den kommenden zwei Jahren weitere Investitionen tätigen.

Pilotprojekte mit Big Data überwiegen
Für Nick Heudecker, Research Director bei Gartner, hat die wachsende Zurückhaltung mehrere Ursachen. So erkennen Organisationen, dass es nicht genügt, in Techniken zu investieren, sondern sie die Nutzung von Big Data systematischer angehen müssten, um Erfolge zu erzielen. Doch dies geschieht oft nicht. Bis dato belassen es die meisten Unternehmen bei einem Pilotprojekt. Nur 14 Prozent schaffen produktive Big-Data-Lösungen.

Big Data und der Return on Investment
Ferner sind es strategische Fragen, die Big-Data-Vorhaben bremsen oder in ihrer Wirkung minimieren können: „Viele Big-Data-Projekte können vorab keinen Return on Investment (RoI) benennen“, wiederholt Heudecker ein häufig zu hörendes, aber nicht unumstrittenes Argument. So betonen Big-Data-Experten, dass die Auseinandersetzung mit Big Data häufig experimentellen Charakter habe und auch ein Scheitern beinhalten kann. Daher sei es kaum möglich, immer eine klare Nutzenberechnung im Vorfeld anzustellen.

Verschwindet der Begriff Big Data?
Big-Data-Vorhaben besitzen laut Heudecker bei weitem nicht die höchste Priorität unter den IT-Ausgaben. Nur elf Prozent der Befragten halten entsprechende Investitionen für genauso wichtig wie solche in andere IT-Vorhaben. Weitere 46 Prozent halten sie sogar für weniger wichtig. Hinzu komme, dass Big-Data-Initiativen künftig wohl immer öfter nur als budgetierte Teile größerer Projekte auftreten. „Der Begriff Big Data wird verschwinden, was bleibt ist die Beschäftigung mit großen Datensätzen und vielfältigen Datentypen“.

Praxisorientierte Nutzung von Big Data
Soll also die Beschäftigung mit Big Data und Advanced Analytics auch nach dem Hype der letzten Jahre weitergehen, muss Einiges geschehen. Dazu gehört neben der strategischen Ausrichtung und Definition von Use Cases mehr Befürworter im Management zu finden, was laut der Gartner-Umfrage offenbar häufig versäumt wird. Ebenso seien die bisherigen Erprobungen von Big Data häufig praxisfern: „Zu oft werden Piloten und Experimente mit Ad-hoc-Techniken und -Infrastrukturen umgesetzt, ohne, dass man sich über deren Eignung und Verfügbarkeit (Reliability) im produktiven Betrieb Gedanken macht“, beklagt Heudecker. Viele Organisationen seien bei Big Data noch in der Entwicklung und weit von einer aus der industriellen Fertigung vertrauten Qualität und Zuverlässigkeit entfernt.

QUNIS hat mittlerweile aus vielen Projekten eine Methodik abgeleitet, wie sich Big-Data-Initiativen richtig aufsetzen und umsetzen lassen. Dieses systematische und zugleich kundenspezifische Vorgehen stellt sicher, dass Use Cases erprobt werden, die wirklich einen messbaren Nutzen für Unternehmen haben. Hier erfahren Sie mehr zur Big-Data-Methodik.