Archiv für die Kategorie Machine Learning

Trends 2018 für Big Data

Erstellt am: Dienstag, 6. März 2018 von Sascha Alexander

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

 

Neue Rollen und viele offene Stellen

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Big Data ist die größte Herausforderung für Industrie 4.0

Erstellt am: Mittwoch, 14. Februar 2018 von Sascha Alexander

Mit der zunehmenden Praxis wächst auch die Zahl der Umfragen zu Industrie 4.0. So hat sich jetzt die Siemens Financial Services bei Herstellern und Beratungshäuser aus dem Bereich der Produktion und Wartung in elf Ländern umgehört, wo der Schuh drückt. Heraus kamen sechs Themenfelder, die Hersteller nach eigenen Aussagen aktuell angehen müssen:

  • Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0
  • Zugang zu Finanzierungen, die den erforderlichen Investitionszeitraum berücksichtigen
  • Aufbau einer Kooperationskultur, die notwendig ist, um gemeinsam am Erfolg in einer vernetzten Industrie-4.0-Welt zu arbeiten, ob im eigenen Unternehmen, in der Lieferkette oder branchenübergreifend (mehr zur Unternehmenskultur und Industrie 4.0 finden Sie hier)
  • Überwindung von Risiken bezüglich der Daten- und Internetsicherheit in einer Welt, in der sich große Mengen sensibler Daten durch das Internet bewegen
  • Umfassender Zugang zu einer ausreichenden Zahl an realen Beispielen für erfolgreiche digitale Transformation aus allen Fertigungssektoren
  • Spezialisierte strategische Managementkompetenzen zur Erarbeitung eines klaren Stufenplans, um Industrie 4.0 zu erreichen. Spezialisierte strategische Führungsqualität zur Entwicklung eines klaren, gestaffelten Plans, um Industrie 4.0 umzusetzen.

Laut der Autoren zeigen diese Aspekte, dass es mittlerweile nicht mehr darum geht, grundsätzlich die Notwendigkeit zur Digitalisierung und Automatisierung zu diskutieren. Vielmehr stehen mittlerweile praktische Fragen im Mittelpunkt, wie Organisation den Weg zur Industrie 4.0 schrittweise und mit Augenmaß gehen können – einschließlich laufender Qualitätskontrollen und RoI-Maßnahmen.

Es fehlt an Expertise für digitale Produkte und Künstliche Intelligenz

Von allen Themenfeldern wurde die „Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0“ als größte Herausforderung benannt. Es fehlt bis dato digitales Produktionswissen, welches es operativen Mitarbeitern ermöglicht, Maschinen- und Leistungsdaten auf ihren portablen Dashboards zu interpretieren und entsprechende Maßnahmen zu ergreifen. Ferner müssen „digitaler Wartungskompetenzen“ entstehen, wie es die Studienautoren nennen, also, dass Techniker auch das Know-how haben, um komplexe digitalisierte Betriebssysteme und Geräte instandzuhalten. Und schließlich bedarf es der Expertise für operative und strategische Analysen. Gemeint ist damit, dass man die Auswertung großer Datenmengen, die sich durch die enge Vernetzung von Maschinen, Anwendungen und Menschen künftig rasant erhöhen (Big Data) in den Griff bekommt. Diese Unmengen an Daten – einschließlich Produktionsdaten, Lieferkettendaten, Marktdaten und finanziellen Daten – erfassen und analysieren zu können, ist entscheidend um die eigene Wettbewerbsfähigkeit künftig zu erhalten bzw. zu verbessern.

Datenmanagement auf Industrie 4.0 vorbereiten

Voraussetzung dafür ist, dass Unternehmen zunächst ihr bisheriges Datenmanagement und ihre Dateninfrastruktur bewerten, ob und wie sich diese für die Erfassung und Analyse von Big Data weiterentwickeln lassen – ohne bisherige Investitionen deshalb gleich aufgeben zu müssen. Ebenso gehört zu Vorarbeiten eine Strategiediskussion sowie Auswahl von Use Cases. Schauen Sie sich einmal unsere Methodik für Big-Data-Umgebungen sowie unser Data Lake Konzept an, die unsere langjährige Projekterfahrung und Expertise auch in den neuen Technologien und Verfahren wie die der Künstlichen Intelligenz widerspiegeln!

 

Künstliche Intelligenz als Wirtschaftsfaktor in Deutschland

Erstellt am: Freitag, 15. Dezember 2017 von Sascha Alexander

Künstliche Intelligenz kann die Produktivität in den Unternehmen steigern helfen und dabei gleichzeitig neue, wertschöpfender Tätigkeitsfelder eröffnen. Wie groß ihr wirtschaftliche Wirkung sein könnte, haben kürzlich die Berater von McKinsey in der Studie „Smartening up with Artificial Intelligence“ zu analysieren versucht. Danach halten es die Autoren für möglich, dass sich das Bruttoinlandsprodukt bis 2030 durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um bis zu vier Prozent oder umgerechnet 160 Milliarden Euro höher liegen könnte als ohne den Einsatz Künstlicher Intelligenz. Dies entspreche einem zusätzlichen jährlichen Wachstum von 0,25 Prozentpunkten oder zehn Milliarden Euro.

Künstliche Intelligenz im Support und Fertigung

Zugleich hat McKinsey besonders interessante Anwendungsszenarien für Künstliche Intelligenz hinsichtlich ihres wirtschaftlichen Potenzials betrachtet. So ließen sich 30 Prozent aller heutigen Business-Support-Funktionen, beim IT-Helpdesk sogar 90 Prozent mit Hilfe von KI automatisieren. In der Fertigung wäre eine um 20 Prozent verbesserte Anlagennutzung möglich, wenn durch KI beispielsweise Wartungsarbeiten vorausschauend durchgeführt werden („predictive maintenance“).

Ebenso seien eine um 20 Prozent höhere Produktivität bei einzelnen Arbeitsschritten durch die gezielte Zusammenarbeit von Robotern und Mitarbeitern machbar. Zugleich würden etwa die Kosten für die Entwicklung sowie die Investitionsausgaben sinken, da abgesperrte Bereiche, die ausschließlich für Roboter nötig waren, wegfallen. Darüber hinaus könne die Qualitätsüberwachung durch KI – z.B. durch automatische visuelle Fehlererkennung bei Produkten – um 50 Prozent produktiver werden. In bestimmten Bereichen sei laut McKinsey eine Reduktion des Ausschusses um bis zu 30 Prozent möglich.

Künstliche Intelligenz optimiert die Lieferkette

In der Lieferkette sei durch Künstliche Intelligenz ebenfalls eine weitere Optimierung möglich. So könnten zum Beispiel exaktere Abverkaufsprognosen die Lagerhaltungskosten um bis zu 50 Prozent senken helfen. In der Forschung und Entwicklung seinen Einsparungen von zehn bis 15 Prozent und um zehn Prozent kürzere Markteinführungszeiten möglich. In indirekten Geschäftsbereichen wie der IT könne die künstliche Intelligenz 30 Prozent der Tätigkeiten übernehmen.
Uns schließlich sei auch auf dem Gebiet der Produkte und Services viel Potenzial vorhanden. Künstliche Intelligenz ist eine der wesentlichen Voraussetzungen für selbstfahrende Autos. 2030 könnten laut McKinsey bis zu 15 Prozent der neu zugelassenen Fahrzeuge autonom fahren; mit signifikanten Wachstumsraten bis 2040.

Mehr zum Thema:

QUNIS setzt auf Künstliche Intelligenz

Erstellt am: Samstag, 7. Oktober 2017 von Sascha Alexander

Mit einem wachsenden Team aus Experten für Advanced Analytics ist die QUNIS heute bereits bei mehreren Unternehmen aktiv. Im Mittelpunkt stehen dabei Verfahren aus dem Gebiet der Künstlichen Intelligenz. Technisch setzen wir dabei auf Cloud-Technologie von „Microsoft Azure“ und Amazon AWS. Aber auch quelloffene Technologien wie Apache Hadoop wie Spark, HBASE oder auch Hive kommen bei Bedarf zum Einsatz.

Methodik für die Nutzung von Advanced Analytics

Zunächst gilt es aber in aller Regel, im Rahmen von Workshops in die Thematik Advanced Analytics und Big Data einzuführen. Dabei versuchen wir, denkbare Use Cases zu finden, diskutieren den Datenraum für die Auswertungen, prüfen und empfehlen Methoden, erstellen ein Feinkonzept und bauen auf Wunsch einen Prototyp auf. Ist der wirtschaftliche und strategische Nutzen gegeben, lassen sich die Ergebnisse operationalisieren. Anwendungsgebiete für Advanced Analytics, welche die QUNIS aktuell erprobt, sind beispielsweise die Gesichtserkennung, die Senordatenauswertung oder die Analyse von Zollgebühren.

Machina Summit.AI

Im Oktober 2017 fand in London der Machina Summit.AI statt, einen Fachkonferenz zu Advanced Analytics und der Nutzung von Künstlicher Intelligenz. Die QUNIS war mit ihrem Expertenteam dabei. Foto: Steffen Vierkorn

QUNIS auf dem MACHINA Summit.AI

Mit welcher Geschwindigkeit sich das weite Anwendungsfeld der Künstlichen Intelligenz entwickelt, konnte das QUNIS-Team jetzt auf dem MACHINA Summit.AI in London feststellen. Die Fachkonferenz beschäftigt sich in Vorträgen und Seminaren mit den diversen Technologien für Advanced Analytics und ihre „disruptive“ Wirkung, die sie auf Unternehmensprozesse und die Entwicklung neuer Produkte und Angebote haben. Künstliche Intelligenz wird dabei immer mehr Bestandteil von Services bei Unternehmen, so unsere Beobachtung. Entsprechende Systeme sind vorwiegend in der Cloud angesiedelt. Als starker Trend innerhalb der Evolution von Advanced Analytics zeichnet sich die Nutzung von Frameworks für Maschinelles Lernen an, von denen es bereits heute eine Reihe von Angeboten im Markt gibt.

Lesen Sie hier weitere Blog-Beiträge zum Thema:

Jedes fünfte Unternehmen beschäftigt sich mit Cognitive Computing

Erstellt am: Dienstag, 29. August 2017 von Sascha Alexander

Fünf Prozent aller Unternehmen haben aktuell Systeme im Einsatz, die mit natürlicher Sprache umgehen können und über datenbasiertes Wissen verfügen, um Inhalte verstehen, bewerten und erlernen zu können. So ein Ergebnis der diesjährigen KPMG-Studie „Aus Daten Werte schaffen“, für die das Beratungshaus nach eigenen Angaben 709 Abteilungsleiter und Geschäftsführer aus Unternehmen mit mehr als 100 Mitarbeitern aus diversen Branchen telefonisch zum Einsatz von Software zur Datenanalyse befragt hat.

Was ist Cognitive Computing?

Solche Lösungen gehören in das derzeit viel diskutierte Anwendungsgebiet des Cognitive Computings, dessen genaue Definition allerdings schwierig ist. Allgemein könnte man ein kognitives System etwa so beschreiben, dass es in der Lage ist, die menschliche Denkweise mit Hilfe von Modellen zu simulieren. Es ist selbst-lernend und verwendet Verfahren wie Data Mining, Mustererkennung und Natural Language Processing, um letztlich automatisiert und ohne menschliche Hilfe Probleme klären und Aufgaben übernehmen zu können. Cognitive-Computing-Systeme verwenden Algorithmen aus dem Maschine Learning, um aus Daten “Wissen”/Informationen abzuleiten. Solche Systeme verfeinern die Mustererkennung sowie die Datenanalyse, um beispielsweise Ereignisse im Prozess zu antizipieren und mögliche Lösungen zu entwickeln (Mehr zum Einsatz Künstlicher Intelligence bei der Analyse von Big Data finden Sie hier).

Automobilhersteller und Handel stärkste Nutzer von Cognitive Computing

Innerhalb der noch überschaubaren Anwenderschaft von Cognitive-Computing-Lösungen bildet die Automobilbranche laut KPMG-Umfrage die größte Branchengruppe mit 16 Prozent aller Unternehmen, gefolgt vom Handel mit elf Prozent. Dass das Interesse an solchen intelligenten Lösungen weiter steigen wird, zeigt sich laut der Autoren daran, dass neben den aktiven Nutzern weitere acht Prozent aktuell den Einsatz „ernsthaft in Erwägung“ ziehen und noch einmal weitere acht Prozent Cognitive Computing zumindest intern thematisiert haben. Ein zentraler Treiber für entsprechende Anwendungen ist die Nutzung und Analyse von Big Data. Hierzu erklärten etwa Drittel aller befragten Unternehmen, dass sie bereits „Big-Data-Lösungen“ verwenden, ohne indes in der Umfrage näher zu spezifizieren, um welche Art von Anwendungen es sich handelt (Marktzahlen für Cognitive Computing finden Sie hier).

Big Data made easy

Erstellt am: Montag, 10. April 2017 von Sascha Alexander
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.
Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Das wichtigste Kapital der Neuzeit nicht brachliegen lassen: Sofort zum Mehrwert durch Advanced Analytics auf die eigenen Datenbestände

Erstellt am: Donnerstag, 15. Dezember 2016 von Sascha Alexander

Längst sind Big Data, Advanced Analytics und Machine Learning keine schwer greifbaren, futuristisch-visionären Begriffe mehr. Allein privat profitieren wir mittlerweile seit längerem von den vielfältigen Möglichkeiten des Machine Learning auf verschiedenste Weise – sei es bei der täglichen Recherche mit Google, bei den auf die persönlichen Vorlieben zugeschnittenen Empfehlungen unserer liebgewonnen Online-Händler, die immer besser ins Schwarze treffen, sei es bei der passgenauen Musikberieselung durch Services wie Spotify oder auch bei der Nutzung innovativer Smart-Home-Technologien, beispielsweise zum Aktivieren meiner Heizung schon vom Heimweg aus. Schon diese Beispiele zeigen, welches enorme Potenzial Advanced Analytics bieten und dass ganz konkreter wirtschaftlicher Erfolg damit für die Unternehmen verbunden sein kann. Dennoch haben viele Firmen noch immer keine konkreten Strategien oder Pläne, wie sie die neuen Möglichkeiten nutzen könnten, die sich durch die Advanced Analytics, die dem Bereich der künstlichen Intelligenz, auch Artificial Intelligence genannt, zugeordnet werden, ergeben, auch für sich zu reklamieren oder gar mit der Umsetzung sofort zu beginnen.

Die Unternehmen halten bereits alles in Händen, was es zur erfolgreichen Teilhabe an der Zukunft braucht: Die eigenen Datenbestände

Obwohl seit Beginn des Informationszeitalters Ende des vorigen Jahrhunderts die wirtschaftliche Bedeutung von Unternehmensdaten hinlänglich bekannt sein sollte, sie Rohstoff und Ware gleichermaßen sind, beschränken sich viele Unternehmen nach wie vor auf rudimentäre Auswertungen mittels Standardreports und -statisiken. Selbst seit Jahren etablierte Techniken wie die Business Intelligence sind längst nicht in allen Unternehmen tägliche Praxis. Dabei sind nur geringe oder gar keiner Investitionen notwendig, um mit den heute zur Verfügung stehenden Werkzeugen und Plattformen direkt in die Advanced Analytics einzusteigen und an der Zukunft profitabel teilzuhaben.

Machine Learning in das eigene Data Warehouse integrieren

Verfügen Unternehmen bereits über eine Datenbank, im Idealfall auch ein Data Warehouse auf Basis von Microsofts SQL Server, so genügt ein Upgrade auf Version 2016, um Advanced Analytics direkt – beispielsweise in Form eines Datamarts zu realisieren. Durch die jetzt integrierten „R Services“ ist es möglich, Machine-Learning-Modelle mittels R – der Programmiersprache erster Wahl des Data Scientist – direkt auf die Unternehmensdaten anzuwenden und die rückgelieferten Prognosen im Data Warehouse zu speichern und zur Visualisierung bereitzustellen.

Platform- und Software-as-a-Service: Machine Learning in der Cloud

Durch die jetzt verfügbaren Möglichkeiten, die Cloud-Anbieter bereitstellen, ist nun auch kleinsten mittelständischen Betrieben der Weg zur Advanced Analytics geebnet. So ist beispielsweise Microsoft Azure mit seiner umfangreichen Sammlung integrierter vollständig verwalteter Cloud-Dienste für Netzwerke, Speicher, Computing, Datenbanken, Analysen und vielem mehr eine echte Option. Damit kann jedes Unternehmen ohne eigene Investitionen in Hard- und Software perfekt von den neuesten Hochleistungstechnologien profitieren. Zur Realisierung von Advanced Analytics-Szenarien können beispielsweise mittels Azure ML entwickelte oder bereitgestellte Modelle nicht nur direkt ausgeführt werden, vielmehr lassen sich komplette Daten- und Prozessflüsse oder auch IoT-Szenarien abbilden, um diese sodann durch Azure vollständig verwalten zu lassen.

Kein Grund zu warten: Machine Learning nutzen, hier und jetzt

Die genannten Möglichkeiten sind nur ein Bruchteil dessen, was heute bereits möglich ist. Für die Realisierung perfekt passender Szenarien sind der Phantasie praktisch keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch kostenfreie Advanced-Analytics-Webinare oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Advanced Analytics mit Machine Learning wird ein Megatrend

Erstellt am: Freitag, 25. November 2016 von Sascha Alexander

Machine Learning (deutsch: maschinelles Lernen) wird als Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung gebraucht und ist dem Gebiet der Artificial Intelligence (deutsch: künstliche Intelligenz) zugeordnet. Ein künstliches System – der Computer – lernt anhand vorgegebener Beispiele wie etwa historische Geschäftsergebnisse und Kundendetailinformationen und kann die daraus gewonnenen Erkenntnisse nach der Lernphase verallgemeinern. Der trainierte Algorithmus, das Modell, lässt sich auf neue, unbekannte Daten anwenden, um die zukünftige Entwicklung vorhersagen zu können.

Machine Learning ist marktreif
Die Techniken und Algorithmen wie das „Neuronale Netzwerk“ im Machine Learning sind teilweise seit vielen Jahrzehnten verfügbar und wurden seitdem kontinuierlich weiterentwickelt. Allerdings blieben die Ergebnisse und Prognosen lange Zeit hinter den menschlichen Fähigkeiten zurück. In den letzten Jahren hat sich die Situation jedoch fundamental verändert, sodass man mittlerweile behaupten kann, dass computerbasierte Prognosen immer öfter und in einer wachsenden Zahl von Anwendungsfeldern exaktere Ergebnisse liefern, als wenn sie ein Mensch erstellt hätte.

Der Data Scientist als Experte für Machine Learning
Machine Learning ist eine Kernkompetenz des „Data Scientist“, einem relativ neuen wie anspruchsvollen Berufsbild, welches die „Harvard Business Review“ schon zum „sexiest job of the 21. Century“ ernannt hat. Solche Experten müssen idealerweise Kenntnisse aus den Bereichen Mathematik/Statistik, Datenbank- und Programmierkenntnisse, fachspezifisches Knowhow, gute Kommunikations-Skills sowie ein gewisses Talent für die überzeugende Datenvisualisierung mitbringen.

Reife Techniken für Advanced Analytics
Für ihre Analysen und Modelle können sie heute auf eine gut gefüllte und leistungsfähige Werkzeug- und Programmierkiste für Advanced Analytics zugreifen. So wird beispielsweise die Programmiersprache „R“ vielerorts genutzt. Marktentwicklungen wie die jetzt mögliche direkte Integration in den MICROSOFT SQL Server in Kombination mit Parallelisierbarkeit werden die Nutzung von „R“ weiter fördern. Gleiches gilt für die bezüglich Funktionalität in nichts nachstehende Programmiersprache „Python“, die In-Memory-Technik „Spark“, die meist im Zusammenhang mit dem HADOOP Framework betrieben wird, sowie vollständig verwaltete Cloud Services wie „MICROSOFT Azure Machine Learing“ (Azure ML). Zudem sind Advanced Analytics heute nicht nur im Zusammenhang mit Big Data, sondern durchaus für die Analyse bisher typischer Datenbestände im Unternehmen geeignet, was ihre Bedeutung und Verbreitung weiter fördern wird.

Business Intelligence bleibt wichtig
Bisherige Anwendungen für Business Intelligence und zur Visualisierung der Geschäftsergebnisse mit Standardreports oder Dashboards werden trotz dieser rasanten Entwicklung aber nicht überflüssig. Die auf vergangene Ereignisse gerichtete Analyse mit Techniken wie „Drill up“, „Drill down“ und „Drill through“, Toplisten-Betrachtungen, Key Performance Indikatoren und dergleichen bleiben wichtige Methoden und Messgrößen der Unternehmenssteuerung (Mehr zu Verhältnis von Business Intelligence und Big Data finden Sie hier).

Allerdings müssen Unternehmen angesichts dynamischer Märkte und immer neuen Chancen und Herausforderungen durch die Digitalisierung künftige Entwicklungen schneller und noch genauer prognostizieren sowie möglichst konkrete Maßnahmen aus den Ergebnissen ableiten können, um wirtschaftlich erfolgreich zu bleiben. Hierfür waren die bisherigen BI- und Analysewerkzeuge nie konzipiert worden und auch allein auf das berühmte Bauchgefühl sollte man sich heute nicht mehr allein verlassen, wenn es um die Einschätzung künftiger Ereignisse und Risikominimierung geht. Machine Learning als Teil der Advanced Analytics kann hier echte Vorteile und Chancen eröffnen und der menschlichen Intuition ein wenig unter die Arme greifen.

Ob Cloud-basierend oder „On Premise“ – es gibt heute zahlreiche Möglichkeiten, wie Sie Advanced Analytics in Ihrem Unternehmen in Ihre bestehende BI Landschaft integrieren und auf Ihre Daten gewinnbringend anwenden können. Die Experten von QUNIS stehen Ihnen mit Rat und Tat zur Seite! Im Rahmen eines Big-Data-Workshops mit uns, können wir Ihnen helfen, unternehmensspezifische Business Cases zu identifizieren und diese nachfolgend im Rahmen eines Proof of Concept zu verproben.