Archiv für die Kategorie Predictive Analytics

So nutzen PayPal und ProSiebenSat1 Big Data

Erstellt am: Mittwoch, 24. Januar 2018 von Sascha Alexander

Auch wenn heute Big Data in aller Munde ist, so stehen doch die Unternehmen mehrheitlich immer noch am Anfang mit der Umsetzung. Gerade zu Beginn einer Big-Data-Initiative fällt es schwer, die geeigneten Use Cases zu finden beziehungsweise vorhandene Ideen weiter auszuarbeiten und für ein Proof-of-Concept zu priorisieren. Wir empfehlen daher, sich zunächst in einem individuellen Workshop über die eigenen Anforderungen,  den Markt und Technologien bis hin zur eine Road Map klar zu werden. Im Rahmen dieser Vorarbeiten erläutern wir unter anderem Anwendungsbeispiele aus der jeweiligen Branche oder Fachbereich, die von Kunden oder aus dem Markt stammen. Die QUNIS hat hierfür als Besonderheit im Markt eine „Lösungsbibliothek“ geschaffen, die heute weit über 100 Beispiele für die Nutzung von Big Data enthält.

Ein besonders spannendes Anwendungsgebiet für Advanced Analytics ist beispielsweise das Marketing. Die in der Branche viel zitierte 360°-Sicht auf den Kunden bildet künftig die Grundlage dafür, welches Produkt und welche Dienstleistung er über welchen der vielen Kanäle zu welchen Konditionen angeboten bekommt. Je präziser daher eine Segmentierung von Kunden und die Prognose ihres Verhaltens möglich ist, desto höher sind Kontakt- und Antwortraten und damit auch Abschlussquoten und Umsatz, desto höher die Kundenzufriedenheit und Loyalität. Nachfolgend zwei Beispiele:

PayPal – Kunden besser verstehen und binden – Service optimieren durch Text Analytics

PayPal hat über 143 Millionen aktive Kunden und wickelt täglich über 8 Millionen Zahlungen ab. Zahlreiche Kunden äußern sich über Kundenumfragen, E-Mail, Feedback-Formulare im Web, Twitter zu den Dienstleistungen von PayPal, unter anderem darüber, welche technischen Probleme sie haben, was sie mögen, was sie stört und wie man den Service verbessern könnte. Wegen der enorm großen Menge an Feedback, wäre es sehr zeit- und kostenaufwändig, alles textuelle Feedback einzeln zu lesen und zu berücksichtigen. Die automatisierte Analyse des Kundenfeedbacks aus über 60 Ländern und in über 30 Sprachen ermöglicht es PayPal nun, wichtige Probleme und Themen sowie ihre Häufigkeit und Kritikalität automatisch und fast in Echtzeit zu erkennen, zu priorisieren und zu beheben.

ProSiebenSat.1 – Fakten mit Big Data: Was bringen TV-Spots für E-Commerce?

Die ProSiebenSat.1 Media AG vermarktet einerseits klassische TV-Werbezeiten und beteiligt sich andererseits an zahlreiche E-Commerce-Unternehmen. Im Rahmen der Beteiligung stellt ProSieben-Sat.1 u. a. Werbezeiten für die Bewerbung der E-Commerce-Angebote zur Verfügung. Es ist daher von hohem Interesse für ProSiebenSat.1, systematisch ermitteln zu können, welchen konkreten Beitrag die TV-Werbung zur Wertschöpfung des beworbenen E-Commerce-Unternehmens leistet. Wie viele Visitors besuchen genau deshalb die E-Commerce-Website, weil sie die TV-Werbung gesehen haben? Und welchen Umsatz bringen diese Visitors, die nachweislich ursächlich wegen der TV-Werbung auf die Website gekommen sind, in einem bestimmten Zeitraum? Durch den Big Data-Ansatz konnte ein Verfahren entwickelt werden, um den TV-Einfluss auf den Website-Traffic zu messen.

Mehr zu Big Data und der QUNIS-Methodik finden Sie hier

Künstliche Intelligenz als Wirtschaftsfaktor in Deutschland

Erstellt am: Freitag, 15. Dezember 2017 von Sascha Alexander

Künstliche Intelligenz kann die Produktivität in den Unternehmen steigern helfen und dabei gleichzeitig neue, wertschöpfender Tätigkeitsfelder eröffnen. Wie groß ihr wirtschaftliche Wirkung sein könnte, haben kürzlich die Berater von McKinsey in der Studie „Smartening up with Artificial Intelligence“ zu analysieren versucht. Danach halten es die Autoren für möglich, dass sich das Bruttoinlandsprodukt bis 2030 durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um bis zu vier Prozent oder umgerechnet 160 Milliarden Euro höher liegen könnte als ohne den Einsatz Künstlicher Intelligenz. Dies entspreche einem zusätzlichen jährlichen Wachstum von 0,25 Prozentpunkten oder zehn Milliarden Euro.

Künstliche Intelligenz im Support und Fertigung

Zugleich hat McKinsey besonders interessante Anwendungsszenarien für Künstliche Intelligenz hinsichtlich ihres wirtschaftlichen Potenzials betrachtet. So ließen sich 30 Prozent aller heutigen Business-Support-Funktionen, beim IT-Helpdesk sogar 90 Prozent mit Hilfe von KI automatisieren. In der Fertigung wäre eine um 20 Prozent verbesserte Anlagennutzung möglich, wenn durch KI beispielsweise Wartungsarbeiten vorausschauend durchgeführt werden („predictive maintenance“).

Ebenso seien eine um 20 Prozent höhere Produktivität bei einzelnen Arbeitsschritten durch die gezielte Zusammenarbeit von Robotern und Mitarbeitern machbar. Zugleich würden etwa die Kosten für die Entwicklung sowie die Investitionsausgaben sinken, da abgesperrte Bereiche, die ausschließlich für Roboter nötig waren, wegfallen. Darüber hinaus könne die Qualitätsüberwachung durch KI – z.B. durch automatische visuelle Fehlererkennung bei Produkten – um 50 Prozent produktiver werden. In bestimmten Bereichen sei laut McKinsey eine Reduktion des Ausschusses um bis zu 30 Prozent möglich.

Künstliche Intelligenz optimiert die Lieferkette

In der Lieferkette sei durch Künstliche Intelligenz ebenfalls eine weitere Optimierung möglich. So könnten zum Beispiel exaktere Abverkaufsprognosen die Lagerhaltungskosten um bis zu 50 Prozent senken helfen. In der Forschung und Entwicklung seinen Einsparungen von zehn bis 15 Prozent und um zehn Prozent kürzere Markteinführungszeiten möglich. In indirekten Geschäftsbereichen wie der IT könne die künstliche Intelligenz 30 Prozent der Tätigkeiten übernehmen.
Uns schließlich sei auch auf dem Gebiet der Produkte und Services viel Potenzial vorhanden. Künstliche Intelligenz ist eine der wesentlichen Voraussetzungen für selbstfahrende Autos. 2030 könnten laut McKinsey bis zu 15 Prozent der neu zugelassenen Fahrzeuge autonom fahren; mit signifikanten Wachstumsraten bis 2040.

Mehr zum Thema:

Big Data made easy

Erstellt am: Montag, 10. April 2017 von Sascha Alexander
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.
Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Frei verfügbare Testdaten für Big-Data-Projekte

Erstellt am: Montag, 2. Januar 2017 von Sascha Alexander
Der Verwendung von Testdaten für Big-Data-Analysen stehen häufig der Datenschutz und strategische Bedenken entgegen. Auch sind Daten unterschiedlicher Provenienz und Struktur nicht immer verfügbar oder müssen eventuell aufwändig bereitgestellt werden. Ebenso können beispielsweise Marktzahlen die eigene Analysebasis sinnvoll erweitern.
Umso erfreulicher ist es für Teams, die sich mit Big Data und Advanced Analytics vertraut machen wollen, dass es heute viele, meist öffentlich zugängliche Datenquellen im Internet gibt. Dabei handelt es sich beispielsweise um Daten öffentlicher Einrichtungen. Hier haben die Bemühungen um „Open Data“ Vieles in Bewegung gesetzt. Ebenso stellen Unternehmen zunehmend Daten über REST-Schnittstellen kostenfrei zur Verfügung, in der Hoffnung, dass sich aus der Nutzung Folgegeschäfte ergeben können. Die Testdaten können dabei durchaus ein erhebliches Volumen von bis zu mehreren Hundert Terabytes haben. Nachfolgend stellen wir Ihnen einige dieser Quellen kurz vor:

 

QUNIS

QUNIS arbeitet bei Big-Data-und Advanced-Analytics-Vorhaben mit Testdaten, um Aufgabenstellungen zu veranschaulichen. So verwenden wir Datasets von Kaggle, einer Online-Plattform, die rund 260 Datensätze anbietet. Zudem haben wir ergänzend mit unserer Lösungsbibliothek zahlreiche Big-Data-Anwendungsbeispiele aus allen Branchen vereint, die Ihnen bei der Auswahl und Priorisierung von Use Cases gute Dienste leisten.

 

Bund

Die Geschäfts- und Koordinierungsstelle GovData arbeitet seit Herbst 2015 an dem EU-konformen Metadatenstandard für offene Verwaltungsdaten in Deutschland „DCAT-AP.DE“. Über das Datenportal stellen teilnehmende öffentliche Stellen Informationen zu vorhandenen Datensätze aus verschiedenen Bereichen (z.B. Umwelt, Bildung, Statistik) zur Verfügung. Es ist eine Vielzahl an unterschiedlichen Daten vorhanden. So finden Sie über GovData neben Statistiken und Jahresberichten, beispielsweise auch Karten, Wahlergebnisse oder Datenbanken, die es Ihnen ermöglichen, über Suchkriterien passende Einrichtungen zu finden.
https://www.govdata.de/

 

US-Regierung

Hier findet sich Open Data zu Themen wie “Landwirtschaft”, “Finanzen”, “Wirtschaft”. Insgesamt über 180tausend Datensätze.
https://www.data.gov/

 

Eurostat

Das Statistische Amt der Europäischen Union, kurz Eurostat genannt, bietet ein umfängliches Open-Data-Repository. Hier finden sich beispielsweise Daten zu Themen zur Bevölkerung, Unternehmensdaten, Wirtschaftsdaten, Landwirtschaft oder dem Gesundheitswesen.
http://ec.europa.eu/eurostat/data/database

 

Amazon Datasets

Amazon bietet mit den „AWS Public Data Sets“ eine Vielzahl von Daten, die der Konzern in seiner S3-Cloud-Plattform vorhält. Die Daten sind frei, es fallen aber Prozessgebühren an, wenn Rechner zur Analyse die AWS-Plattform verwenden. Zu den angebotenen Daten gehören untern anderem die täglich aktualisierten NASA-Daten, Klimadaten, Musikdaten („The Millionen Song Collection“), Social-Media-Daten, Daten aus der Wikipedia oder vom „Human Genome Project“.
http://aws.amazon.com/datasets/

 

CERN

Das CERN, die Europäische Organisation für Kernforschung, stellt aus seinen Projekten ebenfalls Daten zur Verfügung. So etwa Proben aus der Arbeit mit dem “Large Hadron Collider”. Unter diesen insgesamt über 300 Terabyte sind nicht nur Rohdaten, sondern auch aufbereitete Daten, die sich etwa in Universitäten nutzen lassen.
http://opendata.cern.ch/?ln=de

 

Weltbank

Die Finanzorganisation bietet eine Fülle an Daten über die weltweite Entwicklung und Wirtschaft. Statt eines Downloads lässt sich auch über einfach zu bedienende Benutzeroberflächen auf die Daten zugreifen.
http://data.worldbank.org/

 

OECD

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) stellt ein Vielzahl statistischer Daten zu allen 30 OECD-Ländern, der EURO-Zone und der Gesamtorganisation zur Verfügung. Die Daten sind nach Themengruppen organisiert, wie beispielsweise Internationaler Handel, Preise, Public Management oder zum Arbeitsmarkt.
http://www.oecd.org/statistics/

Ein Verzeichnis weitere Datenquellen bietet beispielsweise die Website quora.com

Das wichtigste Kapital der Neuzeit nicht brachliegen lassen: Sofort zum Mehrwert durch Advanced Analytics auf die eigenen Datenbestände

Erstellt am: Donnerstag, 15. Dezember 2016 von Sascha Alexander

Längst sind Big Data, Advanced Analytics und Machine Learning keine schwer greifbaren, futuristisch-visionären Begriffe mehr. Allein privat profitieren wir mittlerweile seit längerem von den vielfältigen Möglichkeiten des Machine Learning auf verschiedenste Weise – sei es bei der täglichen Recherche mit Google, bei den auf die persönlichen Vorlieben zugeschnittenen Empfehlungen unserer liebgewonnen Online-Händler, die immer besser ins Schwarze treffen, sei es bei der passgenauen Musikberieselung durch Services wie Spotify oder auch bei der Nutzung innovativer Smart-Home-Technologien, beispielsweise zum Aktivieren meiner Heizung schon vom Heimweg aus. Schon diese Beispiele zeigen, welches enorme Potenzial Advanced Analytics bieten und dass ganz konkreter wirtschaftlicher Erfolg damit für die Unternehmen verbunden sein kann. Dennoch haben viele Firmen noch immer keine konkreten Strategien oder Pläne, wie sie die neuen Möglichkeiten nutzen könnten, die sich durch die Advanced Analytics, die dem Bereich der künstlichen Intelligenz, auch Artificial Intelligence genannt, zugeordnet werden, ergeben, auch für sich zu reklamieren oder gar mit der Umsetzung sofort zu beginnen.

Die Unternehmen halten bereits alles in Händen, was es zur erfolgreichen Teilhabe an der Zukunft braucht: Die eigenen Datenbestände

Obwohl seit Beginn des Informationszeitalters Ende des vorigen Jahrhunderts die wirtschaftliche Bedeutung von Unternehmensdaten hinlänglich bekannt sein sollte, sie Rohstoff und Ware gleichermaßen sind, beschränken sich viele Unternehmen nach wie vor auf rudimentäre Auswertungen mittels Standardreports und -statisiken. Selbst seit Jahren etablierte Techniken wie die Business Intelligence sind längst nicht in allen Unternehmen tägliche Praxis. Dabei sind nur geringe oder gar keiner Investitionen notwendig, um mit den heute zur Verfügung stehenden Werkzeugen und Plattformen direkt in die Advanced Analytics einzusteigen und an der Zukunft profitabel teilzuhaben.

Machine Learning in das eigene Data Warehouse integrieren

Verfügen Unternehmen bereits über eine Datenbank, im Idealfall auch ein Data Warehouse auf Basis von Microsofts SQL Server, so genügt ein Upgrade auf Version 2016, um Advanced Analytics direkt – beispielsweise in Form eines Datamarts zu realisieren. Durch die jetzt integrierten „R Services“ ist es möglich, Machine-Learning-Modelle mittels R – der Programmiersprache erster Wahl des Data Scientist – direkt auf die Unternehmensdaten anzuwenden und die rückgelieferten Prognosen im Data Warehouse zu speichern und zur Visualisierung bereitzustellen.

Platform- und Software-as-a-Service: Machine Learning in der Cloud

Durch die jetzt verfügbaren Möglichkeiten, die Cloud-Anbieter bereitstellen, ist nun auch kleinsten mittelständischen Betrieben der Weg zur Advanced Analytics geebnet. So ist beispielsweise Microsoft Azure mit seiner umfangreichen Sammlung integrierter vollständig verwalteter Cloud-Dienste für Netzwerke, Speicher, Computing, Datenbanken, Analysen und vielem mehr eine echte Option. Damit kann jedes Unternehmen ohne eigene Investitionen in Hard- und Software perfekt von den neuesten Hochleistungstechnologien profitieren. Zur Realisierung von Advanced Analytics-Szenarien können beispielsweise mittels Azure ML entwickelte oder bereitgestellte Modelle nicht nur direkt ausgeführt werden, vielmehr lassen sich komplette Daten- und Prozessflüsse oder auch IoT-Szenarien abbilden, um diese sodann durch Azure vollständig verwalten zu lassen.

Kein Grund zu warten: Machine Learning nutzen, hier und jetzt

Die genannten Möglichkeiten sind nur ein Bruchteil dessen, was heute bereits möglich ist. Für die Realisierung perfekt passender Szenarien sind der Phantasie praktisch keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch kostenfreie Advanced-Analytics-Webinare oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.