Archiv für die Kategorie Big Data

Trends 2018 für Big Data

Erstellt am: Dienstag, 6. März 2018 von Sascha Alexander

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

 

Neue Rollen und viele offene Stellen

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Big Data ist die größte Herausforderung für Industrie 4.0

Erstellt am: Mittwoch, 14. Februar 2018 von Sascha Alexander

Mit der zunehmenden Praxis wächst auch die Zahl der Umfragen zu Industrie 4.0. So hat sich jetzt die Siemens Financial Services bei Herstellern und Beratungshäuser aus dem Bereich der Produktion und Wartung in elf Ländern umgehört, wo der Schuh drückt. Heraus kamen sechs Themenfelder, die Hersteller nach eigenen Aussagen aktuell angehen müssen:

  • Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0
  • Zugang zu Finanzierungen, die den erforderlichen Investitionszeitraum berücksichtigen
  • Aufbau einer Kooperationskultur, die notwendig ist, um gemeinsam am Erfolg in einer vernetzten Industrie-4.0-Welt zu arbeiten, ob im eigenen Unternehmen, in der Lieferkette oder branchenübergreifend (mehr zur Unternehmenskultur und Industrie 4.0 finden Sie hier)
  • Überwindung von Risiken bezüglich der Daten- und Internetsicherheit in einer Welt, in der sich große Mengen sensibler Daten durch das Internet bewegen
  • Umfassender Zugang zu einer ausreichenden Zahl an realen Beispielen für erfolgreiche digitale Transformation aus allen Fertigungssektoren
  • Spezialisierte strategische Managementkompetenzen zur Erarbeitung eines klaren Stufenplans, um Industrie 4.0 zu erreichen. Spezialisierte strategische Führungsqualität zur Entwicklung eines klaren, gestaffelten Plans, um Industrie 4.0 umzusetzen.

Laut der Autoren zeigen diese Aspekte, dass es mittlerweile nicht mehr darum geht, grundsätzlich die Notwendigkeit zur Digitalisierung und Automatisierung zu diskutieren. Vielmehr stehen mittlerweile praktische Fragen im Mittelpunkt, wie Organisation den Weg zur Industrie 4.0 schrittweise und mit Augenmaß gehen können – einschließlich laufender Qualitätskontrollen und RoI-Maßnahmen.

Es fehlt an Expertise für digitale Produkte und Künstliche Intelligenz

Von allen Themenfeldern wurde die „Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0“ als größte Herausforderung benannt. Es fehlt bis dato digitales Produktionswissen, welches es operativen Mitarbeitern ermöglicht, Maschinen- und Leistungsdaten auf ihren portablen Dashboards zu interpretieren und entsprechende Maßnahmen zu ergreifen. Ferner müssen „digitaler Wartungskompetenzen“ entstehen, wie es die Studienautoren nennen, also, dass Techniker auch das Know-how haben, um komplexe digitalisierte Betriebssysteme und Geräte instandzuhalten. Und schließlich bedarf es der Expertise für operative und strategische Analysen. Gemeint ist damit, dass man die Auswertung großer Datenmengen, die sich durch die enge Vernetzung von Maschinen, Anwendungen und Menschen künftig rasant erhöhen (Big Data) in den Griff bekommt. Diese Unmengen an Daten – einschließlich Produktionsdaten, Lieferkettendaten, Marktdaten und finanziellen Daten – erfassen und analysieren zu können, ist entscheidend um die eigene Wettbewerbsfähigkeit künftig zu erhalten bzw. zu verbessern.

Datenmanagement auf Industrie 4.0 vorbereiten

Voraussetzung dafür ist, dass Unternehmen zunächst ihr bisheriges Datenmanagement und ihre Dateninfrastruktur bewerten, ob und wie sich diese für die Erfassung und Analyse von Big Data weiterentwickeln lassen – ohne bisherige Investitionen deshalb gleich aufgeben zu müssen. Ebenso gehört zu Vorarbeiten eine Strategiediskussion sowie Auswahl von Use Cases. Schauen Sie sich einmal unsere Methodik für Big-Data-Umgebungen sowie unser Data Lake Konzept an, die unsere langjährige Projekterfahrung und Expertise auch in den neuen Technologien und Verfahren wie die der Künstlichen Intelligenz widerspiegeln!

 

Industrie 4.0 verändert die Unternehmenskultur

Erstellt am: Dienstag, 30. Januar 2018 von Sascha Alexander

Es wird nicht genügen, wenn Unternehmen allein durch den Einsatz entsprechender Technologien versuchen, sich den neuen Anforderungen und Möglichkeiten einer Industrie 4.0 zu stellen. Vielmehr müssen sie den damit verbundenen gesellschaftlichen Wandel sehen und ihre Mitarbeiter darauf vorbereiten. So eines der Ergebnisse der Umfrage der Wirtschaftsprüfungsgesellschaft Deloitte „The Fourth Industrial Revolution is Here – Are You Ready?„. Laut Unternehmen wurden über 1600 C-Level-Führungskräfte aus 19 Ländern und zehn verschiedenen Branchen befragt, deren Unternehmen mehr als eine Milliarde US-Dollar Jahresumsatz erwirtschaften – darunter auch 100 Führungskräfte deutscher Unternehmen.
Geht es um die gesellschaftliche Breitenwirkung von Industrie 4.0, glaubt laut Studie eine große Mehrheit der Führungskräfte (87 Prozent), dass diese positiv für die künftige Entwicklung der Gesellschaft sei und „zu mehr Gerechtigkeit und Stabilität führen wird“. Verantwortlich dafür seien aber weniger Privatunternehmen, als zwischenstaatliche Kooperationen und Allianzen. Einen nennenswerten eigenen Beitrag zu dieser angeblich positiven Entwicklung sehen entsprechend nur ein Viertel der globalen Leader, in Deutschland sogar nur sechs Prozent der befragten Führungskräfte.

Keine Antwort auf die drohende Disruption

Skeptisch zeigen sich die Manager auch, ob ihr eigenes Unternehmen die „Disruption“ durch Industrie 4.0 überhaupt sicher überstehen wird. Nur 14 Prozent sind aktuell davon überzeugt, dass ihre Organisation vorbereit ist, das Potenzial von Industrie 4.0 in vollem Umfang nutzen zu können. Strategisch setzt die Mehrheit der Führungskräfte dabei den Fokus auf die Entwicklung neuer Produkte und Services sowie die Steigerung der Produktivität und Wachstum. Damit folgen sie eher einer traditionellen Ausrichtung, statt die Möglichkeiten von Industrie 4.0 zu nutzen, die durch Weiterentwicklung der Mitarbeiter oder Disruption im Wettbewerb entstehen können, so die Autoren der Studie. International sehen 40 Prozent der CXOs die Entstehung neuer Geschäfts- und Vertriebsmodelle im Rahmen von Industrie 4.0 als große strategische Herausforderung, hierzulande stimmen dem nur 26 Prozent der Befragten zu. Auch die Frage, wie wichtig es für Unternehmensführer ist, sich auf Innovation zu fokussieren, beantworten nur 29 Prozent der deutschen Führungskräfte positiv, während es international 40 Prozent sind.

Mitarbeiterschulung und Change Management

Diese zurückhaltende Sicht auf Industrie 4.0 spiegelt sich zudem in den Antworten wieder, wie denn derzeit die eigenen Mitarbeiter durch Weiterbildung und Change-Management auf den kommenden Wandel vorbereitet werden. Dies scheint umso nötiger, glaubt doch nur ein Viertel der befragten C-Level-Führungskräfte, dass ihr Unternehmen bereits über Mitarbeiter mit der benötigten Qualifikation sowie gut aufgestellte Teams verfügt. 86 Prozent aller internationalen als auch lokaler Manager wollen sich daher für die Weiterentwicklung ihrer Mitarbeiter für die neuen Anforderungen einsetzen. Doch die Autoren hegen Zweifel, ob diesen guten Vorsätzen auch Taten folgen werden, denn es gehe ja um nicht weniger als die Schaffung einer neuen Arbeitskultur, die Weiterbildung und die Gewinnung neuer Talente in den Mittelpunkt stellt. Bislang stehe aber zum Beispiel das HR-Thema weit hinten auf der CXO-Agenda, so Deloitte.

So nutzen PayPal und ProSiebenSat1 Big Data

Erstellt am: Mittwoch, 24. Januar 2018 von Sascha Alexander

Auch wenn heute Big Data in aller Munde ist, so stehen doch die Unternehmen mehrheitlich immer noch am Anfang mit der Umsetzung. Gerade zu Beginn einer Big-Data-Initiative fällt es schwer, die geeigneten Use Cases zu finden beziehungsweise vorhandene Ideen weiter auszuarbeiten und für ein Proof-of-Concept zu priorisieren. Wir empfehlen daher, sich zunächst in einem individuellen Workshop über die eigenen Anforderungen,  den Markt und Technologien bis hin zur eine Road Map klar zu werden. Im Rahmen dieser Vorarbeiten erläutern wir unter anderem Anwendungsbeispiele aus der jeweiligen Branche oder Fachbereich, die von Kunden oder aus dem Markt stammen. Die QUNIS hat hierfür als Besonderheit im Markt eine „Lösungsbibliothek“ geschaffen, die heute weit über 100 Beispiele für die Nutzung von Big Data enthält.

Ein besonders spannendes Anwendungsgebiet für Advanced Analytics ist beispielsweise das Marketing. Die in der Branche viel zitierte 360°-Sicht auf den Kunden bildet künftig die Grundlage dafür, welches Produkt und welche Dienstleistung er über welchen der vielen Kanäle zu welchen Konditionen angeboten bekommt. Je präziser daher eine Segmentierung von Kunden und die Prognose ihres Verhaltens möglich ist, desto höher sind Kontakt- und Antwortraten und damit auch Abschlussquoten und Umsatz, desto höher die Kundenzufriedenheit und Loyalität. Nachfolgend zwei Beispiele:

PayPal – Kunden besser verstehen und binden – Service optimieren durch Text Analytics

PayPal hat über 143 Millionen aktive Kunden und wickelt täglich über 8 Millionen Zahlungen ab. Zahlreiche Kunden äußern sich über Kundenumfragen, E-Mail, Feedback-Formulare im Web, Twitter zu den Dienstleistungen von PayPal, unter anderem darüber, welche technischen Probleme sie haben, was sie mögen, was sie stört und wie man den Service verbessern könnte. Wegen der enorm großen Menge an Feedback, wäre es sehr zeit- und kostenaufwändig, alles textuelle Feedback einzeln zu lesen und zu berücksichtigen. Die automatisierte Analyse des Kundenfeedbacks aus über 60 Ländern und in über 30 Sprachen ermöglicht es PayPal nun, wichtige Probleme und Themen sowie ihre Häufigkeit und Kritikalität automatisch und fast in Echtzeit zu erkennen, zu priorisieren und zu beheben.

ProSiebenSat.1 – Fakten mit Big Data: Was bringen TV-Spots für E-Commerce?

Die ProSiebenSat.1 Media AG vermarktet einerseits klassische TV-Werbezeiten und beteiligt sich andererseits an zahlreiche E-Commerce-Unternehmen. Im Rahmen der Beteiligung stellt ProSieben-Sat.1 u. a. Werbezeiten für die Bewerbung der E-Commerce-Angebote zur Verfügung. Es ist daher von hohem Interesse für ProSiebenSat.1, systematisch ermitteln zu können, welchen konkreten Beitrag die TV-Werbung zur Wertschöpfung des beworbenen E-Commerce-Unternehmens leistet. Wie viele Visitors besuchen genau deshalb die E-Commerce-Website, weil sie die TV-Werbung gesehen haben? Und welchen Umsatz bringen diese Visitors, die nachweislich ursächlich wegen der TV-Werbung auf die Website gekommen sind, in einem bestimmten Zeitraum? Durch den Big Data-Ansatz konnte ein Verfahren entwickelt werden, um den TV-Einfluss auf den Website-Traffic zu messen.

Mehr zu Big Data und der QUNIS-Methodik finden Sie hier

Künstliche Intelligenz als Wirtschaftsfaktor in Deutschland

Erstellt am: Freitag, 15. Dezember 2017 von Sascha Alexander

Künstliche Intelligenz kann die Produktivität in den Unternehmen steigern helfen und dabei gleichzeitig neue, wertschöpfender Tätigkeitsfelder eröffnen. Wie groß ihr wirtschaftliche Wirkung sein könnte, haben kürzlich die Berater von McKinsey in der Studie „Smartening up with Artificial Intelligence“ zu analysieren versucht. Danach halten es die Autoren für möglich, dass sich das Bruttoinlandsprodukt bis 2030 durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um bis zu vier Prozent oder umgerechnet 160 Milliarden Euro höher liegen könnte als ohne den Einsatz Künstlicher Intelligenz. Dies entspreche einem zusätzlichen jährlichen Wachstum von 0,25 Prozentpunkten oder zehn Milliarden Euro.

Künstliche Intelligenz im Support und Fertigung

Zugleich hat McKinsey besonders interessante Anwendungsszenarien für Künstliche Intelligenz hinsichtlich ihres wirtschaftlichen Potenzials betrachtet. So ließen sich 30 Prozent aller heutigen Business-Support-Funktionen, beim IT-Helpdesk sogar 90 Prozent mit Hilfe von KI automatisieren. In der Fertigung wäre eine um 20 Prozent verbesserte Anlagennutzung möglich, wenn durch KI beispielsweise Wartungsarbeiten vorausschauend durchgeführt werden („predictive maintenance“).

Ebenso seien eine um 20 Prozent höhere Produktivität bei einzelnen Arbeitsschritten durch die gezielte Zusammenarbeit von Robotern und Mitarbeitern machbar. Zugleich würden etwa die Kosten für die Entwicklung sowie die Investitionsausgaben sinken, da abgesperrte Bereiche, die ausschließlich für Roboter nötig waren, wegfallen. Darüber hinaus könne die Qualitätsüberwachung durch KI – z.B. durch automatische visuelle Fehlererkennung bei Produkten – um 50 Prozent produktiver werden. In bestimmten Bereichen sei laut McKinsey eine Reduktion des Ausschusses um bis zu 30 Prozent möglich.

Künstliche Intelligenz optimiert die Lieferkette

In der Lieferkette sei durch Künstliche Intelligenz ebenfalls eine weitere Optimierung möglich. So könnten zum Beispiel exaktere Abverkaufsprognosen die Lagerhaltungskosten um bis zu 50 Prozent senken helfen. In der Forschung und Entwicklung seinen Einsparungen von zehn bis 15 Prozent und um zehn Prozent kürzere Markteinführungszeiten möglich. In indirekten Geschäftsbereichen wie der IT könne die künstliche Intelligenz 30 Prozent der Tätigkeiten übernehmen.
Uns schließlich sei auch auf dem Gebiet der Produkte und Services viel Potenzial vorhanden. Künstliche Intelligenz ist eine der wesentlichen Voraussetzungen für selbstfahrende Autos. 2030 könnten laut McKinsey bis zu 15 Prozent der neu zugelassenen Fahrzeuge autonom fahren; mit signifikanten Wachstumsraten bis 2040.

Mehr zum Thema:

Über 30 000 Data Scientists in Deutschland

Erstellt am: Donnerstag, 30. November 2017 von Sascha Alexander

Der häufigste Entwicklertyp unter den aus Deutschland stammenden Nutzern ist laut Auswertung von Stack Overflow der Webentwickler. Auf ihn allein entfallen rund 65 Prozent bzw. fast 540 000 Personen. Mit weitem Abstand folgen die Systemadministratoren mit rund 99 000 (12,06 Prozent), dann die Datenbankadministratoren mit rund 58 000 (7,08 Prozent), gefolgt von den Embedded-Entwicklern mit 53 000 (6,50 Prozent) und den Desktop Entwickler mit etwa 35 000 Nutzern (4,29 Prozent). Rund 107 000 bezeichnen laut ihres Profils sich als „Backend-Entwickler“ (13Prozent), 71 000 als „Frontend-Entwickler“ (8,67 Prozent) und 487 000 als „Full-Stack-Entwickler“ (59 Prozent).

Spezialisten für Machine Learning

Für die geplanten Pilotvorhaben und Projekte mit Advanced Analytics ist es natürlich besonders erfreulich zu hören, dass sich unter den Entwicklern nach eigener Aussage bereits 33485 „Spezialisten für Machine Learning“ (4,07 Prozent) und 33418 „Data Scientists“ (4,06 Prozent) befinden. Regional betrachtet leben laut der Auswertung überdurchschnittlich viele Machine-Learning-Spezialisten in München. Dies könnte mit dem Schwerpunkt Machine Learning (ML) und Data Science der TU München sowie Konzernen wie Siemens und BMW zusammenhängen, die entsprechende Ressourcen haben oder aufbauen.

Java ist weit verbreitet

Unter den bevorzugten Programmiersprachen der deutschen Entwickler stehen bei den Webentwicklern Java und Python an erster Stelle. Bei Softwareentwicklern ist es eindeutig Java. Als den Entwicklerplattformen halten sich Linux Desktop, Windows Desktop und Android die Waage. Die beliebtesten Datenbanken sind prozentual MySQL und Postgres. Allerdings gibt es hier je nach Branche deutliche Unterschiede. So ist im E-Commerce PHP weit verbreitet, in der Automobilindustrie beispielsweise Python. Nach Auswertungen von Stack Overflow ist Python weiter stark im Kommen. Mehr als zehn Prozent aller Seitenaufrufe in der Community entfallen aktuell hierzulande auf Python, und damit mehr als auf Java.
In einer kleineren Entwicklerumfrage durch die Community (rund 5200 Teilnehmer) wurde zudem nach der Popularität der einzelnen Programmiersprachen gefragt. Auf die Frage, womit sie am liebsten künftig arbeiten würden, antworteten rund 41 Prozent mit JavaScript, rund 33 Prozent mit Python und rund 31 Prozent mit Java. Weitere Details der Umfrage finden Sie hier.

Weitere Beiträge zum Thema:

Viele Hürden im Datenmanagement bremsen die Digitalisierung

Erstellt am: Donnerstag, 19. Oktober 2017 von Sascha Alexander

Die Digitalisierung ist kein Hype, sondern beeinflusst schon heute die Unternehmen massiv. „Unternehmen fragen sich, wie sie sich für die Zukunft aufstellen müssen. Fast alle Branchen sind betroffen“, beschrieb QUNIS-Geschäftsführer Steffen Vierkorn die Lage auf der diesjährigen Fachtagung für BI, Big Data und Advanced Analytics der Controller Akademie in München. Die Globalisierung der Unternehmen und Prozesse, die wachsende Mobilität, die zunehmende Konnektivität (immer verbunden, Arbeit und Privat, „IoT“) sowie die „Individualisierung“ (DIY-Kultur und Nischenmärkte entstehen) sind Trends, die sich ohne eine Digitalisierung der Prozesse und eine breite, zeitnahe und gezielte Nutzung aller verfügbaren Daten kaum weiterentwickeln können. Die Digitalisierung ist der „enabler“ solcher und weiterer Trends in der Kommunikation und Datennutzung zwischen Menschen und Maschinen.

Allerdings sind viele Organisationen bislang weder technisch noch kulturell so weit, als dass sie die digitale Transformation umfassend in Angriff nehmen könnten. So finden sich in der Praxis etliche Hindernisse im Datenmanagement:

  • Gewachsene Datenstrukturen erschweren den weiteren Ausbau von Datenmodellen und den Betrieb bestehender Anwendungen
  • Business Logiken befinden an unterschiedlichen Stellen in den Systemen
  • Unterschiedliche Entwicklungsmethoden kommen im Rahmen der Umsetzung zum Einsatz
  • Keine Dokumentation der Logiken und der Transformationen
  • Die etablierten Datenmodelle sind zu „starr“ und erlauben keine agile Weiterentwicklung (Systeme wurden mit einer sehr fokussierten Zielsetzung aufgebaut und sollen nun breiter genutzt werden
  • Die Verarbeitung der gestiegenen Datenmengen (strukturiert) ist für etablierte Data Warehouses nicht mehr performant zu verarbeiten

Das Datenmanagement und die Dateninfrastruktur müssen sich daher ändern, um den neuen, mit Big Data und Advanced Analytics verbundenen Anforderungen nachkommen zu können. Um hier zu entsprechend agileren Architekturen zu kommen, die das bisherige Datenmanagement (Data Warehouse) als auch Big-Data-Umgebungen verknüpfen helfen, diskutiert die QUNIS heute mit Kunden Data-Lake-Konzepte (mehr zur QUNIS-Methodik finden Sie hier).

Dabei gilt es beispielsweise neuartige explorative Analyseszenarien zu unterstützen, in denen neben den bisherigen (strukturierten) auch anders oder kaum strukturierte Daten einbezogen und analysiert werden können. Ferner es gebe beispielsweise Streaming-Szenarien und damit zeitkritische Analysen auf der Basis unterschiedlicher Datenformate. Mindestens genauso wichtig für ein Gelingen der digitalen Transformation sei eine Organisation, die sowohl die bisherige Nutzung von Business Intelligence als auch die Speicherung, Verarbeitung und Analyse polystrukturierter Daten fördert und regelt (Rollen, Governance).

Weitere Beiträge zum Thema:

QUNIS setzt auf Künstliche Intelligenz

Erstellt am: Samstag, 7. Oktober 2017 von Sascha Alexander

Mit einem wachsenden Team aus Experten für Advanced Analytics ist die QUNIS heute bereits bei mehreren Unternehmen aktiv. Im Mittelpunkt stehen dabei Verfahren aus dem Gebiet der Künstlichen Intelligenz. Technisch setzen wir dabei auf Cloud-Technologie von „Microsoft Azure“ und Amazon AWS. Aber auch quelloffene Technologien wie Apache Hadoop wie Spark, HBASE oder auch Hive kommen bei Bedarf zum Einsatz.

Methodik für die Nutzung von Advanced Analytics

Zunächst gilt es aber in aller Regel, im Rahmen von Workshops in die Thematik Advanced Analytics und Big Data einzuführen. Dabei versuchen wir, denkbare Use Cases zu finden, diskutieren den Datenraum für die Auswertungen, prüfen und empfehlen Methoden, erstellen ein Feinkonzept und bauen auf Wunsch einen Prototyp auf. Ist der wirtschaftliche und strategische Nutzen gegeben, lassen sich die Ergebnisse operationalisieren. Anwendungsgebiete für Advanced Analytics, welche die QUNIS aktuell erprobt, sind beispielsweise die Gesichtserkennung, die Senordatenauswertung oder die Analyse von Zollgebühren.

Machina Summit.AI

Im Oktober 2017 fand in London der Machina Summit.AI statt, einen Fachkonferenz zu Advanced Analytics und der Nutzung von Künstlicher Intelligenz. Die QUNIS war mit ihrem Expertenteam dabei. Foto: Steffen Vierkorn

QUNIS auf dem MACHINA Summit.AI

Mit welcher Geschwindigkeit sich das weite Anwendungsfeld der Künstlichen Intelligenz entwickelt, konnte das QUNIS-Team jetzt auf dem MACHINA Summit.AI in London feststellen. Die Fachkonferenz beschäftigt sich in Vorträgen und Seminaren mit den diversen Technologien für Advanced Analytics und ihre „disruptive“ Wirkung, die sie auf Unternehmensprozesse und die Entwicklung neuer Produkte und Angebote haben. Künstliche Intelligenz wird dabei immer mehr Bestandteil von Services bei Unternehmen, so unsere Beobachtung. Entsprechende Systeme sind vorwiegend in der Cloud angesiedelt. Als starker Trend innerhalb der Evolution von Advanced Analytics zeichnet sich die Nutzung von Frameworks für Maschinelles Lernen an, von denen es bereits heute eine Reihe von Angeboten im Markt gibt.

Lesen Sie hier weitere Blog-Beiträge zum Thema:

Der Chief Data Officer – Eine neue Rolle etabliert sich

Erstellt am: Mittwoch, 27. September 2017 von Sascha Alexander

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Dies führt unter anderem zur Entwicklung neuer Rollen, denen eine strategische Aufgabe bei der Umsetzung zukommt. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Nicht zu verwechseln mit der Rolle eines „Chief Digital Officers“ (ebenfalls CDO abgekürzt) definiert der Datenverantwortliche, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen. Ob dies in der Praxis bereits gelingt, hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Big Data verstärkt den Bedarf an Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen CDO begrüßen würden.

Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander – was angesichts der noch „jungen“ Rolle nicht verwundert. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben. Die Gründe für diesen Widerspruch führen die Autoren nicht allein auf unklare Rollendefinitionen zurück, sondern auch auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein Chief Data Officer so schnell nichts ändern (Hilfe bei der Schaffung einer gemeinsamen, performanten Datenarchitektur für Big Data und Data-Warehouse-Systemen bietet die praxiserprobte QUNIS-Methodik).

Chief Data Officer – eher operativ oder strategisch tätig?

Hinzu kommt, dass sich der CDO in der Praxis offenbar häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken, so die Autoren. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den CDO in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten. QUNIS kann diese sehr operativ beschriebene Arbeitsweise eines CDOs aus ersten Kundenprojekten in Deutschland nicht bestätigen. Vielmehr stehen nach unserer Erfahrung eindeutig strategische Aufgaben im Vordergrund.

Konkurrenz zwischen Chief Data Officer und CIO

Viele CDOs beklagten in der Umfrage zudem, dass sie nicht zum C-Level gehörten, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint diese Einstufung immer mehr zu überwiegen. So sahen vor zwei Jahren in einer vergleichbaren Umfrage von Experian noch 16 Prozent mehr von ihnen den Chief Data Officer als gleichrangigen Kollegen an als es jetzt der Fall ist. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Bei der QUNIS können wir diese Konstellation innerhalb der Hierarchie bislang nicht bestätigen. Vielmehr genießen die uns bekannten CDOs ein hohes Ansehen im Management und übernehmen strategische Aufgaben, die als sehr sinnvoll für die Organisation betrachtet werden. Möglich aber, dass in manchen der befragten Unternehmen eine Konkurrenzsituation zwischen CIO und CDO dahinter steckt. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum Chief Data Officer als „positiv“, also in ihrem Sinne. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Jedes fünfte Unternehmen beschäftigt sich mit Cognitive Computing

Erstellt am: Dienstag, 29. August 2017 von Sascha Alexander

Fünf Prozent aller Unternehmen haben aktuell Systeme im Einsatz, die mit natürlicher Sprache umgehen können und über datenbasiertes Wissen verfügen, um Inhalte verstehen, bewerten und erlernen zu können. So ein Ergebnis der diesjährigen KPMG-Studie „Aus Daten Werte schaffen“, für die das Beratungshaus nach eigenen Angaben 709 Abteilungsleiter und Geschäftsführer aus Unternehmen mit mehr als 100 Mitarbeitern aus diversen Branchen telefonisch zum Einsatz von Software zur Datenanalyse befragt hat.

Was ist Cognitive Computing?

Solche Lösungen gehören in das derzeit viel diskutierte Anwendungsgebiet des Cognitive Computings, dessen genaue Definition allerdings schwierig ist. Allgemein könnte man ein kognitives System etwa so beschreiben, dass es in der Lage ist, die menschliche Denkweise mit Hilfe von Modellen zu simulieren. Es ist selbst-lernend und verwendet Verfahren wie Data Mining, Mustererkennung und Natural Language Processing, um letztlich automatisiert und ohne menschliche Hilfe Probleme klären und Aufgaben übernehmen zu können. Cognitive-Computing-Systeme verwenden Algorithmen aus dem Maschine Learning, um aus Daten “Wissen”/Informationen abzuleiten. Solche Systeme verfeinern die Mustererkennung sowie die Datenanalyse, um beispielsweise Ereignisse im Prozess zu antizipieren und mögliche Lösungen zu entwickeln (Mehr zum Einsatz Künstlicher Intelligence bei der Analyse von Big Data finden Sie hier).

Automobilhersteller und Handel stärkste Nutzer von Cognitive Computing

Innerhalb der noch überschaubaren Anwenderschaft von Cognitive-Computing-Lösungen bildet die Automobilbranche laut KPMG-Umfrage die größte Branchengruppe mit 16 Prozent aller Unternehmen, gefolgt vom Handel mit elf Prozent. Dass das Interesse an solchen intelligenten Lösungen weiter steigen wird, zeigt sich laut der Autoren daran, dass neben den aktiven Nutzern weitere acht Prozent aktuell den Einsatz „ernsthaft in Erwägung“ ziehen und noch einmal weitere acht Prozent Cognitive Computing zumindest intern thematisiert haben. Ein zentraler Treiber für entsprechende Anwendungen ist die Nutzung und Analyse von Big Data. Hierzu erklärten etwa Drittel aller befragten Unternehmen, dass sie bereits „Big-Data-Lösungen“ verwenden, ohne indes in der Umfrage näher zu spezifizieren, um welche Art von Anwendungen es sich handelt (Marktzahlen für Cognitive Computing finden Sie hier).