Archiv für die Kategorie Advanced Analytics

Über 30 000 Data Scientists in Deutschland

Erstellt am: Donnerstag, 30. November 2017 von Sascha Alexander

Der häufigste Entwicklertyp unter den aus Deutschland stammenden Nutzern ist laut Auswertung von Stack Overflow der Webentwickler. Auf ihn allein entfallen rund 65 Prozent bzw. fast 540 000 Personen. Mit weitem Abstand folgen die Systemadministratoren mit rund 99 000 (12,06 Prozent), dann die Datenbankadministratoren mit rund 58 000 (7,08 Prozent), gefolgt von den Embedded-Entwicklern mit 53 000 (6,50 Prozent) und den Desktop Entwickler mit etwa 35 000 Nutzern (4,29 Prozent). Rund 107 000 bezeichnen laut ihres Profils sich als „Backend-Entwickler“ (13Prozent), 71 000 als „Frontend-Entwickler“ (8,67 Prozent) und 487 000 als „Full-Stack-Entwickler“ (59 Prozent).

Spezialisten für Machine Learning

Für die geplanten Pilotvorhaben und Projekte mit Advanced Analytics ist es natürlich besonders erfreulich zu hören, dass sich unter den Entwicklern nach eigener Aussage bereits 33485 „Spezialisten für Machine Learning“ (4,07 Prozent) und 33418 „Data Scientists“ (4,06 Prozent) befinden. Regional betrachtet leben laut der Auswertung überdurchschnittlich viele Machine-Learning-Spezialisten in München. Dies könnte mit dem Schwerpunkt Machine Learning (ML) und Data Science der TU München sowie Konzernen wie Siemens und BMW zusammenhängen, die entsprechende Ressourcen haben oder aufbauen.

Java ist weit verbreitet

Unter den bevorzugten Programmiersprachen der deutschen Entwickler stehen bei den Webentwicklern Java und Python an erster Stelle. Bei Softwareentwicklern ist es eindeutig Java. Als den Entwicklerplattformen halten sich Linux Desktop, Windows Desktop und Android die Waage. Die beliebtesten Datenbanken sind prozentual MySQL und Postgres. Allerdings gibt es hier je nach Branche deutliche Unterschiede. So ist im E-Commerce PHP weit verbreitet, in der Automobilindustrie beispielsweise Python. Nach Auswertungen von Stack Overflow ist Python weiter stark im Kommen. Mehr als zehn Prozent aller Seitenaufrufe in der Community entfallen aktuell hierzulande auf Python, und damit mehr als auf Java.
In einer kleineren Entwicklerumfrage durch die Community (rund 5200 Teilnehmer) wurde zudem nach der Popularität der einzelnen Programmiersprachen gefragt. Auf die Frage, womit sie am liebsten künftig arbeiten würden, antworteten rund 41 Prozent mit JavaScript, rund 33 Prozent mit Python und rund 31 Prozent mit Java. Weitere Details der Umfrage finden Sie hier.

Weitere Beiträge zum Thema:

Viele Hürden im Datenmanagement bremsen die Digitalisierung

Erstellt am: Donnerstag, 19. Oktober 2017 von Sascha Alexander

Die Digitalisierung ist kein Hype, sondern beeinflusst schon heute die Unternehmen massiv. „Unternehmen fragen sich, wie sie sich für die Zukunft aufstellen müssen. Fast alle Branchen sind betroffen“, beschrieb QUNIS-Geschäftsführer Steffen Vierkorn die Lage auf der diesjährigen Fachtagung für BI, Big Data und Advanced Analytics der Controller Akademie in München. Die Globalisierung der Unternehmen und Prozesse, die wachsende Mobilität, die zunehmende Konnektivität (immer verbunden, Arbeit und Privat, „IoT“) sowie die „Individualisierung“ (DIY-Kultur und Nischenmärkte entstehen) sind Trends, die sich ohne eine Digitalisierung der Prozesse und eine breite, zeitnahe und gezielte Nutzung aller verfügbaren Daten kaum weiterentwickeln können. Die Digitalisierung ist der „enabler“ solcher und weiterer Trends in der Kommunikation und Datennutzung zwischen Menschen und Maschinen.

Allerdings sind viele Organisationen bislang weder technisch noch kulturell so weit, als dass sie die digitale Transformation umfassend in Angriff nehmen könnten. So finden sich in der Praxis etliche Hindernisse im Datenmanagement:

  • Gewachsene Datenstrukturen erschweren den weiteren Ausbau von Datenmodellen und den Betrieb bestehender Anwendungen
  • Business Logiken befinden an unterschiedlichen Stellen in den Systemen
  • Unterschiedliche Entwicklungsmethoden kommen im Rahmen der Umsetzung zum Einsatz
  • Keine Dokumentation der Logiken und der Transformationen
  • Die etablierten Datenmodelle sind zu „starr“ und erlauben keine agile Weiterentwicklung (Systeme wurden mit einer sehr fokussierten Zielsetzung aufgebaut und sollen nun breiter genutzt werden
  • Die Verarbeitung der gestiegenen Datenmengen (strukturiert) ist für etablierte Data Warehouses nicht mehr performant zu verarbeiten

Das Datenmanagement und die Dateninfrastruktur müssen sich daher ändern, um den neuen, mit Big Data und Advanced Analytics verbundenen Anforderungen nachkommen zu können. Um hier zu entsprechend agileren Architekturen zu kommen, die das bisherige Datenmanagement (Data Warehouse) als auch Big-Data-Umgebungen verknüpfen helfen, diskutiert die QUNIS heute mit Kunden Data-Lake-Konzepte (mehr zur QUNIS-Methodik finden Sie hier).

Dabei gilt es beispielsweise neuartige explorative Analyseszenarien zu unterstützen, in denen neben den bisherigen (strukturierten) auch anders oder kaum strukturierte Daten einbezogen und analysiert werden können. Ferner es gebe beispielsweise Streaming-Szenarien und damit zeitkritische Analysen auf der Basis unterschiedlicher Datenformate. Mindestens genauso wichtig für ein Gelingen der digitalen Transformation sei eine Organisation, die sowohl die bisherige Nutzung von Business Intelligence als auch die Speicherung, Verarbeitung und Analyse polystrukturierter Daten fördert und regelt (Rollen, Governance).

Weitere Beiträge zum Thema:

QUNIS setzt auf Künstliche Intelligenz

Erstellt am: Samstag, 7. Oktober 2017 von Sascha Alexander

Mit einem wachsenden Team aus Experten für Advanced Analytics ist die QUNIS heute bereits bei mehreren Unternehmen aktiv. Im Mittelpunkt stehen dabei Verfahren aus dem Gebiet der Künstlichen Intelligenz. Technisch setzen wir dabei auf Cloud-Technologie von „Microsoft Azure“ und Amazon AWS. Aber auch quelloffene Technologien wie Apache Hadoop wie Spark, HBASE oder auch Hive kommen bei Bedarf zum Einsatz.

Methodik für die Nutzung von Advanced Analytics

Zunächst gilt es aber in aller Regel, im Rahmen von Workshops in die Thematik Advanced Analytics und Big Data einzuführen. Dabei versuchen wir, denkbare Use Cases zu finden, diskutieren den Datenraum für die Auswertungen, prüfen und empfehlen Methoden, erstellen ein Feinkonzept und bauen auf Wunsch einen Prototyp auf. Ist der wirtschaftliche und strategische Nutzen gegeben, lassen sich die Ergebnisse operationalisieren. Anwendungsgebiete für Advanced Analytics, welche die QUNIS aktuell erprobt, sind beispielsweise die Gesichtserkennung, die Senordatenauswertung oder die Analyse von Zollgebühren.

Machina Summit.AI

Im Oktober 2017 fand in London der Machina Summit.AI statt, einen Fachkonferenz zu Advanced Analytics und der Nutzung von Künstlicher Intelligenz. Die QUNIS war mit ihrem Expertenteam dabei. Foto: Steffen Vierkorn

QUNIS auf dem MACHINA Summit.AI

Mit welcher Geschwindigkeit sich das weite Anwendungsfeld der Künstlichen Intelligenz entwickelt, konnte das QUNIS-Team jetzt auf dem MACHINA Summit.AI in London feststellen. Die Fachkonferenz beschäftigt sich in Vorträgen und Seminaren mit den diversen Technologien für Advanced Analytics und ihre „disruptive“ Wirkung, die sie auf Unternehmensprozesse und die Entwicklung neuer Produkte und Angebote haben. Künstliche Intelligenz wird dabei immer mehr Bestandteil von Services bei Unternehmen, so unsere Beobachtung. Entsprechende Systeme sind vorwiegend in der Cloud angesiedelt. Als starker Trend innerhalb der Evolution von Advanced Analytics zeichnet sich die Nutzung von Frameworks für Maschinelles Lernen an, von denen es bereits heute eine Reihe von Angeboten im Markt gibt.

Lesen Sie hier weitere Blog-Beiträge zum Thema:

Jedes fünfte Unternehmen beschäftigt sich mit Cognitive Computing

Erstellt am: Dienstag, 29. August 2017 von Sascha Alexander

Fünf Prozent aller Unternehmen haben aktuell Systeme im Einsatz, die mit natürlicher Sprache umgehen können und über datenbasiertes Wissen verfügen, um Inhalte verstehen, bewerten und erlernen zu können. So ein Ergebnis der diesjährigen KPMG-Studie „Aus Daten Werte schaffen“, für die das Beratungshaus nach eigenen Angaben 709 Abteilungsleiter und Geschäftsführer aus Unternehmen mit mehr als 100 Mitarbeitern aus diversen Branchen telefonisch zum Einsatz von Software zur Datenanalyse befragt hat.

Was ist Cognitive Computing?

Solche Lösungen gehören in das derzeit viel diskutierte Anwendungsgebiet des Cognitive Computings, dessen genaue Definition allerdings schwierig ist. Allgemein könnte man ein kognitives System etwa so beschreiben, dass es in der Lage ist, die menschliche Denkweise mit Hilfe von Modellen zu simulieren. Es ist selbst-lernend und verwendet Verfahren wie Data Mining, Mustererkennung und Natural Language Processing, um letztlich automatisiert und ohne menschliche Hilfe Probleme klären und Aufgaben übernehmen zu können. Cognitive-Computing-Systeme verwenden Algorithmen aus dem Maschine Learning, um aus Daten “Wissen”/Informationen abzuleiten. Solche Systeme verfeinern die Mustererkennung sowie die Datenanalyse, um beispielsweise Ereignisse im Prozess zu antizipieren und mögliche Lösungen zu entwickeln (Mehr zum Einsatz Künstlicher Intelligence bei der Analyse von Big Data finden Sie hier).

Automobilhersteller und Handel stärkste Nutzer von Cognitive Computing

Innerhalb der noch überschaubaren Anwenderschaft von Cognitive-Computing-Lösungen bildet die Automobilbranche laut KPMG-Umfrage die größte Branchengruppe mit 16 Prozent aller Unternehmen, gefolgt vom Handel mit elf Prozent. Dass das Interesse an solchen intelligenten Lösungen weiter steigen wird, zeigt sich laut der Autoren daran, dass neben den aktiven Nutzern weitere acht Prozent aktuell den Einsatz „ernsthaft in Erwägung“ ziehen und noch einmal weitere acht Prozent Cognitive Computing zumindest intern thematisiert haben. Ein zentraler Treiber für entsprechende Anwendungen ist die Nutzung und Analyse von Big Data. Hierzu erklärten etwa Drittel aller befragten Unternehmen, dass sie bereits „Big-Data-Lösungen“ verwenden, ohne indes in der Umfrage näher zu spezifizieren, um welche Art von Anwendungen es sich handelt (Marktzahlen für Cognitive Computing finden Sie hier).

Investitionen in Lösungen für Cognitive Computing und Künstliche Intelligenz steigen in Westeuropa

Erstellt am: Dienstag, 16. Mai 2017 von Sascha Alexander

Die Ausgaben für Systeme für Cognitive Computing und Künstliche Intelligenz in Westeuropa steigen. Nach Schätzung des Analystenhauses IDC werden sich 2017 die Investitionen im Vergleich zum Vorjahr um 40 Prozent auf nun mehr 1,5 Milliarden US-Dollar erhöhen. Für die Jahre bis 2020 sehen die Auguren ein anhaltendes Wachstum von durchschnittlich 42,5 Prozent auf dann 4,3 Milliarden US-Dollar. Die Nachfrage komme laut IDC von diversen Branchen, darunter der Gesundheitssektor und die Öffentliche Hand. Trotz dieses Booms hätte bislang aber nur eine Minderheit unter den europäischen Unternehmen entsprechende Lösungen implementiert. Eine Mehrheit hingegen plant bereits den Einsatz oder will Cognitive Computing und Künstliche Intelligenz zumindest erproben. Wie allgemein bei der Analyse von Big Data ist auch hier die Suche nach Anwendungsszenarien mit klaren wirtschaftlichen Nutzen ein viel diskutiertes Thema. Vor allem Lösungen zur Vertriebsunterstützung, Betrugsanalyse, im Qualitätsmanagement sowie automatisierte Lösungen für mehr Netzwerksicherheit (Threat Intelligence) und Prozessautomatisierung dürften laut IDC besonders hoch in der Gunst der Unternehmen stehen (mehr zu Projekten mit Künstlicher Intelligenz finden Sie hier).

Banken, Einzelhandel und Fertigungsindustrie setzten auf KI und Cognitive Computing

Die höchsten Investitionen in Westeuropa nach Branchen erwartet IDC bei Banken, im Einzelhandel und in der Fertigungsindustrie. Insgesamt würde aber ein Löwenanteil der Unternehmensausgaben auf industrieübergreifende Lösungen für Cognitive Computing und Künstliche Intelligenz entfallen. Bis 2020 werden die genannten Branchen zusammen mit den übergreifenden Vorhaben für rund die Hälfte aller Investitionen in entsprechende Technologien verantwortlich sein. Allein im Bereich Banken, Versicherungen und Datensicherheit würden dann 22 Prozent der Investitionen getätigt werden. Weltweit betrachtet entfallen auf Westeuropa laut IDC 12,1 Prozent der Gesamtausgaben in Cognitive Computing und Künstliche Intelligenz.  Das Durchschnittwachstum liege dabei unter dem im globalen Markt, dem die Analysten Zuwächse von 54,4 Prozent im Jahr zutrauen. Perspektivisch würde sich diese Ratio weiter verschlechtern, sodass 2020 weltweit nur noch 9,5 Prozent aller Ausgaben in diesem Bereich auf Westeuropa entfallen würden, so die Prognose. Zu den Gründen für diese Entwicklung gibt die Pressemitteilung von IDC keine Auskunft.

Big Data made easy

Erstellt am: Montag, 10. April 2017 von Sascha Alexander
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.
Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Woher die Analytics-Manager kommen

Erstellt am: Mittwoch, 5. April 2017 von Sascha Alexander
Eine Auswertung Drexel University von 38 ManagerInnen-Karrieren, deren Profile in der Datenbank des US-amerikanischen Anbieters von Managementinformationen Boardroom Insiders hinterlegt sind, ergab jetzt, dass es in den letzten beiden Jahren grob gesagt drei Karrierewege zur Analytics-Führungskraft gab.  Gemeint sind damit Titel wie “Chief Data Officer”, “Head of Global Analytics” oder “VP Big Data”, die in den USA bereits weiter im Gebrauch sind als hierzulande.

Karrierechance Advanced Analytics

Danach war es in etwa 26 Prozent aller Fälle ein “linearer” Karrieresprung, den diese Manager mit ihrer Berufung getan haben. Sie waren schon zuvor im Bereich Analytics tätig und hatten ihr Wissen über Machine Learing und Statisitk im Laufe ihres Arbeitslebens innerhalb derselben Organisation ausgebaut. Es waren also interne Berufungen. Rund die Hälfte haben laut der Autoren einen wissenschaftlichen Abschluss in Informatik, Statistik und/oder Analytics. Gemein ist ihnen, dass sie über ein gutes Unternehmensverständnis sowie Erfahrung im Data Warerhousing und Machine Learing verfügen.

Quereinsteiger bei Advanced Analytics

Eine zweite Gruppe (rund 45%) sind Quereinsteiger. Sie hatten zuvor diverse Aufgaben im Bereich Analyse oder waren fachliche Ansprechpartner in ihren Organisationen, insbesondere in der IT, im Marketing oder im Finance. Mehr als Hälfte dieser Manager hat in Studium den höchstmöglichen Abschluss in ihrem Fachbereich erzielt, alle übrigen haben zumindest einen Master-Studiengang belegt. Die Stärke dieser Managergruppe liegt laut der Autoren in ihrem Querschnittswissen und damit flexiblen Vorgehensweise bei Problemen und neue Aufgabenstellungen, beispielsweise auf dem Gebiet der Unternehmensarchitektur, IT-Strategie und Digitalem Marketing.

Vom Fachbereich zu Advanced Analytics

Die dritte Gruppe (rund 29 Prozent) sind quasi in die neue Rolle hineinkatapultiert worden. Advanced Analytics gehörten vor ihrer Beförderung nicht zu den Arbeitsschwerpunkten, sondern meist handelt es sich um Führungskräfte aus der IT oder anderen technischen Bereichen. Dafür bringen sie laut der Autoren beispielsweise Erfahrung im Cloud Computing, Projektmanagement, mit mobilen Anwendungen oder Datensicherheit mit. Zudem finden sich in dieser Gruppe die meisten Manager mit Promotion.
Es gibt also nicht DEN einen Weg, um die Verantwortung in der Organisation für die Nutzung von Big Data und Advanced Analytics zu übernehmen. Gemein ist aber zumindest den hier betrachteten US-Managern, dass sie über Management Know-how und ein tiefes Verständnis über die Prozesse und Funktionsweise ihrer Organisation mitbringen. Die QUNIS beschäftigt sich im Rahmen ihrer Beratung und Projekte intensiv mit der passenden Organisation und Rollen für Big-Data- und Advanced-Analytics-Vorhaben in Anwenderunternehmen. Dabei spielt beispielsweise die Frage eine Rolle, wie sich die bisherige BI-Organisation nutzen bzw. weiterentwickeln lässt. Kommen Sie gern auf uns zu!

Deutsche Unternehmen zögern noch beim Internet of Things

Erstellt am: Mittwoch, 15. Februar 2017 von Sascha Alexander

Noch ist das „Internet of Things“ (IoT) bei weitem nicht in jedem Unternehmen ein Thema auf der Agenda. Doch branchenübergreifend betrachtet setzen sich immerhin rund 45 Prozent bereits „aktiv“ damit auseinander. Dies zeigte kürzlich die Anwenderbefragung „Wettbewerbsfaktor Analytics im Internet der Dinge“ vom Lehrstuhl für Wirtschaftsinformatik Prozesse und Systeme an der Universität Potsdam. An ihr nahmen laut der Autoren rund 5700, vorwiegend kleine bis mittelständige Unternehmen aller Branchen teil.

 Aktuell erhoffen sich die Befragten in erster Linie von IoT die Entwicklung neuer Produkte und Dienstleistungen (50 Prozent) sowie generell eine Effizienzerhöhung (40 Prozent). Nur fünf Prozent denken dabei bereits an neue Geschäftsmodelle. Angesichts des frühen Stadiums treibt die Mehrheit der bereits aktiven Unternehmen (87%) die Implementierung von IoT nur auf Projektbasis oder Abteilungsebene voran. Lediglich rund 13 Prozent der Befragten verfügen bereits über eine unternehmensweite Strategie.

 Mehr Effizienz und Prozessüberwachung dank IoT

Einiges tut sich bereits bei Vorhaben zur Effizienzerhöhung. Hier haben 15 Prozent der befragten Unternehmen IoT bereits in bestehende Prozesse integriert. Dies trifft insbesondere auf die Fertigungsbranche zu. Der größte Anteil der Befragten (45 Prozent) zögert bislang und sondiert derzeit noch die Möglichkeiten von IoT. Das Gesundheitswesen und die Fertigung sind hier laut Umfrage besonders zurückhaltend. Die Zurückhaltung äußert sich auch in einem großen Anteil (30 Prozent), der keine konkreten Projekte zur Effizienzerhöhung plant. In dieser Gruppe finden sich besonders häufig Handelsunternehmen.

 Mehr konkrete Projekte finden sich beim Thema Prozessüberwachung. Rund 40 Prozent der Unternehmen haben hier schon nach eigenen Aussagen begonnen. Etwa elf Prozent der Anwender dieser Gruppe (alle aus der Fertigungsbranche) sprechen bereits von integrierten Anwendungen. Branchenübergreifend ist das Interesse an Prozessüberwachung durch IoT aber geringer als bei der Effizienzerhöhung. Nur die Hälfte der Befragten beschäftigt sich mit konkreten Einsatzszenarien. Der Handel zeigt sich auch hier abermals eher zurückhaltend.

Noch wenig „smarte“ Sensoren 

Mit IoT nimmt insbesondere die automatisierte Erhebung von Daten durch neuartige Sensorik an unterschiedlichen Punkten im Geschäftsprozess und im Unternehmen massiv zu. Diese Daten sollen beispielsweise zur Entscheidungsfindung und Prozesssteuerung verwendet werden können. Dies gelingt aktuell sieben Prozent der Unternehmen. Ein Grund hierfür ist die fehlende technische Infrastruktur, um Daten aus ihrer Sensorik zu sammeln und entsprechende Auswertungsroutinen organisatorisch zu verankern. Es sind zum einen Regeln und Verfahren notwendig, welche den Geschäftsprozess antreiben. „Smarte Produkte“ wie sie die Autoren nennen, benötigen beispielswiese komplexe Regeln, um autonom zu agieren. Solche verwendet aktuell etwa jedes fünfte Unternehmen.

Sensorik-Daten werden mit ERP- und CRM-Daten kombiniert

Für Big-Data-Analysen sollten die Sensordaten mit anderen unternehmensinternen Datenquellen (insbesondere ERP- und CRM-Systemen) sowie mit Daten externer Anbieter (Marktanalysen, Entwicklungsprognosen, Preisinformationen) kombiniert werden können, um bessere Vorhersagen treffen zu können, Einsparpotenziale zu identifizieren und erfolgreiche Produkte und Dienstleistungen am Markt anzubieten. Aktuell werden laut Umfragen Daten aus dem ERP-System am stärksten zur Auswertung der Sensorik herangezogen (43 Prozent), da hier die Kernprozesse des Unternehmens abgebildet und alle darin anfallenden Daten horizontal integriert werden. CRM-Daten werden von 30 Prozent der Unternehmen genutzt. Andere, beispielsweise kundennahe Daten (Standortdaten, Mobile-App-Daten) finden hingegen bislang kaum Verwendung. Ebenso kommen explorative Verfahren wie sie Advanced Analytics ermöglichen bislang kaum zum Zug. So wären beispielsweise Verfahren wie Event Stream Processing mit IoT-Daten sinnvoll.

 IoT – Suche nach dem Use Case

Was erste Erfahrungen mit IoT-Projekten betrifft, so nennen Unternehmen die Interoperabilität zwischen Sensoren, Analyseplattformen und anderen Datenquellen als eine der größten Herausforderungen. Ebenso werfen die Datensicherheit und Datenschutz Fragen auf. Zudem ist auch hier, wie in vielen Big-Data-Projekten, die Suche nach dem passenden Use Case und damit verbunden eine Bewertung des Nutzens und des Kostenrisikos für viele Anwender ein Hindernis, um sich stärker mit IoT zu beschäftigen. QUNIS kann hier mit seiner Big-Data-Methodik, seiner Lösungsbibliothek und vor allem dank erfahrener Berater helfen, die Weichen zu Beginn von Big-Data/IoT-Initiativen richtig und nachhaltig zu stellen.

 

Interesse an Hadoop steigt

Erstellt am: Mittwoch, 18. Januar 2017 von Sascha Alexander
Rund zwei Drittel aller Unternehmen beschäftigen sich aktuell mit dem Hadoop-Framework. Zwölf Prozent von ihnen haben es weltweit bereits produktiv im Einsatz (in Europa acht Prozent), der Rest macht Pilotprojekte oder hat zumindest eine Hadoop-Initiative geplant. Dies ergab die im Herbst 2016 veröffentlichten Umfrage „Hadoop und Data Lakes – Use Cases, Nutzen und Grenzen“ des Business Application Research Center (BARC). An ihr nahmen laut der Autoren 380 Befragte aus Europa und Nordamerika teil.
Über die Hälfte der Teilnehmer (53 Prozent) nutzt vorrangig transaktionsorientierte Daten in Hadoop, aber auch Log-Daten (40 Prozent) und Clickstream-Daten/ Web-Analytics (33 Prozent) finden zunehmend Interesse. Über ein Viertel der Befragten nutzt zudem Dokumente und Texte in Hadoop-Anwendungen. Dies erscheint erstaunlich hoch im Vergleich zu verschiedenen BARC-Studien aus vergangenen Jahren. Unter den Anwendungsgebieten dominieren Customer-Intelligence-Projekte (32 Prozent) dicht gefolgt von Predictive-Analytics-Projekten (31 Prozent).

Noch durchschnittlich kleine Datenmengen in Hadoop

Die dabei verwalteten und analysierten Datenmengen sind bis dato noch vergleichsweise gering mit bis zu 25 Terabyte (TB) in 59 Prozent der Unternehmen. Szenarien mit über einem Petabyte (PB) bleiben die große Ausnahme (ein Prozent). Beschränkte sich zunächst der Einsatzmodus von Hadoop und MapReduce in erster Linie auf Batch-Anwendungen, steigen mittlerweile die Anforderungen an die Datenaktualität. So spielen Streaming (21 Prozent) und eine Near-Time-Nutzung der Daten (35 Prozent) eine wachsende Rolle.
Technisch setzt fast ein Drittel der Befragten zur Umsetzung von Hadoop-Projekten auf kommerzielle Produkte bzw. Hadoop-Distributionen. Mehr als ein Viertel (27 Prozent) nutzt Apache-Komponenten zum Aufbau eines eigenen Hadoop-Ökosystems, was laut der Autoren ein überraschend hoher Wert ist, da für die Implementierung, Wartung und Betrieb doch ein tiefes Wissen notwendig ist, um die Komponenten aufeinander abzustimmen und zu administrieren.
Auch die QUNIS beschäftigt sich intensiv mit Hadoop und setzt aktuell erste Projekte um. Neben dem Hadoop-Frame kommen dabei bei Bedarf auch weiteren Techniken zur Umsetzung von Advanced-Analytics-Anwendungen zum Einsatz wie etwas „R“.
Die Umfrage zu Hadoop finden Sie als Download auf der Website der BARC

Frei verfügbare Testdaten für Big-Data-Projekte

Erstellt am: Montag, 2. Januar 2017 von Sascha Alexander
Der Verwendung von Testdaten für Big-Data-Analysen stehen häufig der Datenschutz und strategische Bedenken entgegen. Auch sind Daten unterschiedlicher Provenienz und Struktur nicht immer verfügbar oder müssen eventuell aufwändig bereitgestellt werden. Ebenso können beispielsweise Marktzahlen die eigene Analysebasis sinnvoll erweitern.
Umso erfreulicher ist es für Teams, die sich mit Big Data und Advanced Analytics vertraut machen wollen, dass es heute viele, meist öffentlich zugängliche Datenquellen im Internet gibt. Dabei handelt es sich beispielsweise um Daten öffentlicher Einrichtungen. Hier haben die Bemühungen um „Open Data“ Vieles in Bewegung gesetzt. Ebenso stellen Unternehmen zunehmend Daten über REST-Schnittstellen kostenfrei zur Verfügung, in der Hoffnung, dass sich aus der Nutzung Folgegeschäfte ergeben können. Die Testdaten können dabei durchaus ein erhebliches Volumen von bis zu mehreren Hundert Terabytes haben. Nachfolgend stellen wir Ihnen einige dieser Quellen kurz vor:

 

QUNIS

QUNIS arbeitet bei Big-Data-und Advanced-Analytics-Vorhaben mit Testdaten, um Aufgabenstellungen zu veranschaulichen. So verwenden wir Datasets von Kaggle, einer Online-Plattform, die rund 260 Datensätze anbietet. Zudem haben wir ergänzend mit unserer Lösungsbibliothek zahlreiche Big-Data-Anwendungsbeispiele aus allen Branchen vereint, die Ihnen bei der Auswahl und Priorisierung von Use Cases gute Dienste leisten.

 

Bund

Die Geschäfts- und Koordinierungsstelle GovData arbeitet seit Herbst 2015 an dem EU-konformen Metadatenstandard für offene Verwaltungsdaten in Deutschland „DCAT-AP.DE“. Über das Datenportal stellen teilnehmende öffentliche Stellen Informationen zu vorhandenen Datensätze aus verschiedenen Bereichen (z.B. Umwelt, Bildung, Statistik) zur Verfügung. Es ist eine Vielzahl an unterschiedlichen Daten vorhanden. So finden Sie über GovData neben Statistiken und Jahresberichten, beispielsweise auch Karten, Wahlergebnisse oder Datenbanken, die es Ihnen ermöglichen, über Suchkriterien passende Einrichtungen zu finden.
https://www.govdata.de/

 

US-Regierung

Hier findet sich Open Data zu Themen wie “Landwirtschaft”, “Finanzen”, “Wirtschaft”. Insgesamt über 180tausend Datensätze.
https://www.data.gov/

 

Eurostat

Das Statistische Amt der Europäischen Union, kurz Eurostat genannt, bietet ein umfängliches Open-Data-Repository. Hier finden sich beispielsweise Daten zu Themen zur Bevölkerung, Unternehmensdaten, Wirtschaftsdaten, Landwirtschaft oder dem Gesundheitswesen.
http://ec.europa.eu/eurostat/data/database

 

Amazon Datasets

Amazon bietet mit den „AWS Public Data Sets“ eine Vielzahl von Daten, die der Konzern in seiner S3-Cloud-Plattform vorhält. Die Daten sind frei, es fallen aber Prozessgebühren an, wenn Rechner zur Analyse die AWS-Plattform verwenden. Zu den angebotenen Daten gehören untern anderem die täglich aktualisierten NASA-Daten, Klimadaten, Musikdaten („The Millionen Song Collection“), Social-Media-Daten, Daten aus der Wikipedia oder vom „Human Genome Project“.
http://aws.amazon.com/datasets/

 

CERN

Das CERN, die Europäische Organisation für Kernforschung, stellt aus seinen Projekten ebenfalls Daten zur Verfügung. So etwa Proben aus der Arbeit mit dem “Large Hadron Collider”. Unter diesen insgesamt über 300 Terabyte sind nicht nur Rohdaten, sondern auch aufbereitete Daten, die sich etwa in Universitäten nutzen lassen.
http://opendata.cern.ch/?ln=de

 

Weltbank

Die Finanzorganisation bietet eine Fülle an Daten über die weltweite Entwicklung und Wirtschaft. Statt eines Downloads lässt sich auch über einfach zu bedienende Benutzeroberflächen auf die Daten zugreifen.
http://data.worldbank.org/

 

OECD

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) stellt ein Vielzahl statistischer Daten zu allen 30 OECD-Ländern, der EURO-Zone und der Gesamtorganisation zur Verfügung. Die Daten sind nach Themengruppen organisiert, wie beispielsweise Internationaler Handel, Preise, Public Management oder zum Arbeitsmarkt.
http://www.oecd.org/statistics/

Ein Verzeichnis weitere Datenquellen bietet beispielsweise die Website quora.com