6-DHLBigData (1).pdf - GROSSE DATEN IN LOGISTIK EIN DHL. Dies ist das Ende der Vorschau. Melden Sie sich an, um auf den Rest des Dokuments zuzugreifen. Unformatierte Textvorschau: BIG DATA IN LOGISTIK Eine DHL-Perspektive, wie man über den Hype hinausgeht Dezember 2013 Powered by Solutions amp Innovation: Trend Research PUBLISHER DHL Kundenlösungen amp Innovation vertreten durch Martin Wegner Vice President Lösungen amp Innovation 53844 Troisdorf, Deutschland PROJECT DIRECTOR Dr Markus Kckelhaus Solutions amp Innovation, DHL PROJECT MANAGEMENT UND EDITORIAL OFFICE Katrin Zeiler Lösungen amp Innovation, DHL IN ZUSAMMENARBEIT MIT: AUTOREN Martin Jeske, Moritz Grner, Frank Wei Vorwort VORWORT Big Data und Logistik sind für einander und heute die Logistikbranche Positioniert sich, um diese Fülle von Informationen besser zu nutzen. Das Potenzial für Big Data in der Logistikbranche wurde bereits im gefeierten DHL Logistics Trend Radar hervorgehoben. Diese übergreifende Studie ist ein dynamisches, lebendiges Dokument, das dazu beiträgt, dass Organisationen neue Strategien ableiten und leistungsfähigere Projekte und Innovationen entwickeln. Big Data hat viel zu bieten die Welt der Logistik. Ausgefeilte Datenanalytik kann diesen traditionell fragmentierten Sektor konsolidieren und diese neuen Fähigkeiten setzen Logistikdienstleister in Pole Position als Suchmaschinen in der physischen Welt. Es wurde gemeinsam mit T-Systems und den Experten von Detecon Consulting entwickelt. Das Forscherteam kombiniert erstklassige Erfahrungen aus dem Logistikbereich und dem Informationsmanagement. Können wir uns von einem tiefen Brunnen von Daten in tiefe Ausbeutung bewegen Wir hoffen, dass Big Data in Logistics Ihnen einige kraftvolle neue Perspektiven und Ideen bietet. Vielen Dank für die Teilnahme an dieser Big Data Reise gemeinsam können wir alle von einem neuen Modell der Zusammenarbeit und Zusammenarbeit in der Logistikbranche profitieren. Können wir Informationen nutzen, um die betriebliche Effizienz und die Kundenerfahrung zu verbessern und nützliche neue Geschäftsmodelle zu schaffen Mit freundlichen Grüßen, um den Fokus zu schärfen, fragt der Trendbericht, den Sie jetzt lesen, die wichtigsten Big Data Fragen: Big Data ist ein relativ ungenutztes Gut Unternehmen können ausnutzen, sobald sie eine Verschiebung der Denkweise annehmen und die richtigen Bohrtechniken anwenden. Es geht auch weit über die Buzz-Worte hinaus, um echte Einsatzgebiete anzubieten, was jetzt auftritt und was in der Zukunft passieren wird. Dieser Trendbericht beginnt mit einer Einführung in das Konzept und die Bedeutung von Big Data, liefert Beispiele aus vielen verschiedenen Branchen und präsentiert dann Logistik-Use Cases. Martin Wegner Dr. Markus Kckelhaus 1 2 Inhaltsverzeichnis Vorwort. 1 1 Verständnis großer Daten. 3 2 Big Data Best Practice über Branchen. 6 2.1 Betriebseffizienz. 7 2.2 Kundenerfahrung. 10 2.3 Neue Geschäftsmodelle. 13 3 große Daten in der Logistik 15 3.1 Logistik als datengesteuertes Geschäft. 15 3.2 Anwendungsfälle Operative Effizienz. 18 3.3 Anwendungsfälle Kundenerfahrung. 22 3.4 Anwendungsfälle Neue Geschäftsmodelle. 25 3.5 Erfolgsfaktoren für die Implementierung von Big Data Analytics. 27 Ausblick 29 Verständnis der großen Daten 1 VERSTÄNDNIS DER GROSSEN DATEN Der anhaltende Erfolg von Internet-Powerhouses wie Amazon, Google, Facebook und eBay belegt einen vierten Produktionsfaktor in der heutigen Hyperverbindungswelt. Neben Ressourcen, Arbeit und Kapital besteht kein Zweifel daran, dass die Information im Universum ein wesentliches Element geworden ist, dank des Wachstums der sozialen Medien, des ubiquitären Netzzugangs und der stetig wachsenden Zahl von intelligenten verbundenen Geräten. Das heutige digitale Universum erweitert sich mit einer Rate, die das Datenvolumen alle zwei Jahre verdoppelt2 (siehe Abbildung 1). Element der Wettbewerbsdifferenzierung. Unternehmen in jedem Sektor bemühen sich, gut-Gefühl für genaue datengesteuerte Einblick zu handeln, um eine effektive Entscheidungsfindung zu treffen. Egal, das Problem zu entdecken, erwartete Verkaufsmengen, Kunden-Produkt-Präferenzen, optimierte Arbeitszeitpläne es ist Daten, die jetzt die Macht hat, Unternehmen zu helfen, erfolgreich zu sein. Wie eine Suche nach Öl, mit Big Data nimmt es gebildete Bohrungen, um einen Brunnen von wertvollen Informationen zu enthüllen. Warum ist die Suche nach aussagekräftigen Informationen so komplex Sein wegen des enormen Wachstums der verfügbaren Daten innerhalb der Unternehmen und im öffentlichen Internet. Im Jahr 2008 übertraf die Anzahl der verfügbaren digitalen Informationsteile (Bits) die Anzahl der Sterne. Zusätzlich zu diesem exponentiellen Volumenwachstum haben sich zwei weitere Dateneigenschaften wesentlich verändert. Zuerst werden Daten eingegeben. Der massive Einsatz von angeschlossenen Geräten wie Autos, Smartphones, RFID-Lesegeräten, Webcams und Sensornetzwerken fügt eine Vielzahl von autonomen Datenquellen hinzu. Geräte wie diese erzeugen kontinuierlich Datenströme ohne menschliches Eingreifen, wodurch die Geschwindigkeit der Datenaggregation und - verarbeitung erhöht wird. Zweitens sind die Daten sehr unterschiedlich. Die überwiegende Mehrheit der neu geschaffenen Daten stammt aus Kamerabilder, Video - und Überwachungsfilmen, Blog-Einträgen, Forum-Diskussionen und E-Commerce-Katalogen. Alle diese unstrukturierten Datenquellen tragen zu einer viel größeren Vielfalt von Datentypen bei. 40.000 30.000 (Exabytes) 20.000 10.000 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 Abbildung 1: Exponentielles Datenwachstum zwischen 2010 und 2020 Quelle: IDCs Digital Universe Study, gesponsert von EMC, Dezember 2012 Das diverse und explodierende digitale Universum, IDC , 2008 1 Das digitale Universum im Jahr 2020: Big Data, Bigger Digital Shadows und größtes Wachstum im Fernen Osten, IDC, gesponsert von EMC, Dezember 2012 2 3 4 Understanding Big Data Telefonica musste auf der Reise zu beantworten, um schließlich seine Smart zu starten Schritt-Service war: Welchen zusätzlichen Wert hat die vorhandene Menge an Daten zu tragen und wie können wir davon profitieren Während die Konsumenten vertraut sind mit Informationen getriebenen täglichen Lebensentscheidungen wie Käufe, Routenplanung oder finden Sie einen Platz zum Essen, sind Unternehmen hinterherhinkt . Um ihre Informationsvermögen zu nutzen, müssen Unternehmen vor allem ihre Einstellung über die Verwendung von Daten ändern. In der Vergangenheit wurden Datenanalytik verwendet, um bereits getroffene Entscheidungen zu bestätigen. Was benötigt wird, ist ein kultureller Wandel. Unternehmen müssen in einen zukunftsweisenden Stil der Datenanalyse übergehen, der neue Einblicke und bessere Antworten erzeugt. Diese Verschiebung der Mentalität impliziert auch eine neue Qualität von Experimentieren, Kooperation und Transparenz im gesamten Unternehmen. Volumen, Geschwindigkeit und Vielfalt (die 3Vs) ist diese große Daten In der Literatur wurden die 3Vs weithin als die Eigenschaften von Big Data Analytics diskutiert. Aber es gibt noch viel mehr zu prüfen, ob Unternehmen Informationen als Produktionsfaktor nutzen und ihre Wettbewerbsposition stärken wollen. Was erforderlich ist, ist eine Verschiebung der Denkweise und Anwendung der richtigen Bohrtechniken. Werden ein informationsgetriebenes Geschäft Als der globale Telekommunikationsanbieter Telefonica begonnen hatte, informationsgesteuerte Geschäftsmodelle zu erkunden, war das Unternehmen bereits in der Lage, täglich hunderte von Millionen von Datensätzen aus seinem Mobilfunknetz zu verarbeiten, um Telefonate und Datendienste zu vermitteln und zu rechnen . So war die Handhabung eines riesigen Datenvolumens bei hoher Geschwindigkeit nicht das Hauptproblem. Stattdessen ist die Schlüsselfrage neben diesem Übergang eine weitere Voraussetzung für ein informationsorientiertes Geschäft, um eine Reihe von Datenwissenschaften zu etablieren. Dazu gehört die Bewältigung eines breiten Spektrums analytischer Verfahren und ein umfassendes Verständnis des Unternehmens. Und Unternehmen müssen neue technologische Ansätze ergreifen, um Informationen in einer höheren Reihenfolge von Details und Geschwindigkeit zu erforschen. Disruptive Paradigmen der Datenverarbeitung wie z. B. In-Memory-Datenbanken und schließlich konsistente Computing-Modelle versprechen, umfangreiche Datenanalyseprobleme zu wirtschaftlich machbaren Kosten zu lösen. Jedes Unternehmen besitzt bereits viele Informationen. Aber die meisten ihrer Daten müssen erst verfeinert werden, dann kann man sie in den Geschäftswert verwandeln. Mit Big Data Analytics können Unternehmen die Haltung, Kompetenz und Technologie erreichen, um eine Datenraffinerie zu werden und einen zusätzlichen Wert aus ihren Informationsvermögen zu schaffen. Das Verständnis von Big Data Logistics und Big Data ist ein perfektes Spiel Die Logistikbranche ist ideal positioniert, um von den technologischen und methodischen Weiterentwicklungen von Big Data zu profitieren. Ein starker Hinweis darauf, dass die Datenbeherrschung schon immer der Schlüssel zur Disziplin war, ist, dass die Logistik in ihren alten griechischen Wurzeln praktische Arithmetik bedeutet.3 Heute führen Logistikdienstleister einen massiven Warenfluss und schaffen gleichzeitig umfangreiche Datensätze. Für Millionen von Sendungen jeden Tag, Herkunft und Ziel, Größe, Gewicht, Inhalt und Standort werden alle über globale Lieferungsnetze verfolgt. Aber diese Datenverfolgung voll ausschöpfen Wert Wahrscheinlich nicht. Wahrscheinlich gibt es riesige ungenutzte Potenzial für die Verbesserung der betrieblichen Effizienz und Kundenerfahrung und die Schaffung nützlicher neuer Geschäftsmodelle. Betrachten wir zum Beispiel die Vorteile der Integration von Supply-Chain-Datenströmen von mehreren Logistikdienstleistern, die die aktuelle Marktzersplitterung beseitigen und so eine leistungsfähige neue Zusammenarbeit und Dienstleistungen ermöglichen. Viele Anbieter erkennen, dass Big Data ein Trend für die Logistikbranche ist. In einer aktuellen Studie über Supply-Chain-Trends gaben sechzig Prozent der Befragten an, dass sie in den nächsten fünf Jahren4 in Big Data Analytics investieren wollen (siehe Abbildung 2 unten). Allerdings beginnt die Suche nach Wettbewerbsvorteilen mit der Identifizierung von starken Big Data Use Cases. In dieser Arbeit betrachten wir zunächst Organisationen, die Big Data Analytics im Rahmen ihrer eigenen Branchen erfolgreich eingesetzt haben. Dann stellen wir eine Reihe von Anwendungsfällen vor, die für die Logistikbranche spezifisch sind. Social Networks (Intern, B2B) Business Analytics Plattformen als Service Heute Fünf Jahre Netzwerk Redesign SoftwareSystems Produkt Lifecycle Management 0 10 20 30 40 50 60 70 Abbildung 2: Aktuelle und geplante Investitionsbereiche für Big Data Technologien. Quelle: Trends und Strategien im Logistik - und Supply Chain Management, p. 51, BVL International, 2013 Definition und Entwicklung, Logistik Baden-Württemberg, vgl. Logistik-bw. deDefinition.411M52087573ab0.0.html 3 Trends und Strategien im Logistik - und Supply Chain Management, BVL International, 2013 4 5 6 Big Data Best Practice über Branchen 2 GROSSE DATEN BESTE PRAXIS ÜBER INDUSTRIE Die Aktivierung des Wertes von Informationsvermögen ist Ein neues strategisches Ziel für die meisten Unternehmen und Organisationen. Abgesehen von Internet-Powerhouses, die erfolgreich fundierte Geschäftsmodelle etabliert haben, sind Unternehmen in anderen Sektoren typischerweise in den frühen Stadien der Erforschung, wie sie von ihrem wachsenden Stapel von Daten profitieren und diese Daten gut nutzen können. Nach jüngster Forschung5 haben sich bereits 14 der europäischen Unternehmen bereits im Rahmen ihrer strategischen Planung mit Big Data Analytics beschäftigt (siehe Abbildung 3). Und doch erwartet fast die Hälfte dieser Unternehmen ein jährliches Datenwachstum in ihrer Organisation von mehr als 25. Die erste und offensichtlichste ist die operative Effizienz. In diesem Fall werden Daten verwendet, um bessere Entscheidungen zu treffen, den Ressourcenverbrauch zu optimieren und die Prozessqualität und - leistung zu verbessern. Sein, was automatisierte Datenverarbeitung immer bereitgestellt hat, aber mit einem erweiterten Satz von Fähigkeiten. Die zweite Dimension ist die Kundenerfahrung, um die Kundenbindung zu steigern, eine präzise Kundensegmentierung durchzuführen und den Kundenservice zu optimieren. Unter Einbeziehung der umfangreichen Datenressourcen des öffentlichen Internets treibt Big Data CRM-Techniken zur nächsten Evolutionsstufe an. Es ermöglicht auch neue Geschäftsmodelle, um Einnahmequellen aus bestehenden Produkten zu ergänzen und zusätzliche Einnahmen aus völlig neuen (Daten-) Produkten zu schaffen. Big Data Value Dimensionen Wenn Unternehmen Big Data als Teil ihrer Geschäftsstrategie annehmen, ist die erste Frage an die Oberfläche in der Regel, welche Art von Wert Big Data fahren wird. Wird es zum Top - oder Bottom-Line beitragen, oder wird es einen nicht-finanziellen Treiber geben Die Anwendung der Big Data Analytics fällt aus einem Blickwinkel auf eine von drei Dimensionen (siehe Abbildung 4). Für jede dieser Big Data Wert Dimensionen gibt es wachsende Anzahl von überzeugenden Anwendungen. Diese stellen das Geschäftspotenzial dar, Informationen über ein breites Spektrum von vertikalen Märkten zu monetarisieren. In den folgenden Abschnitten stellen wir mehrere Anwendungsfälle vor, um zu veranschaulichen, wie frühe MaschinerInnen die Datenquellen durch innovative Mittel ausgenutzt und damit einen signifikanten Mehrwert geschaffen haben. Hat Ihr Unternehmen eine große Datenstrategie definiert, hat Ihr Unternehmen eine große Datenstrategie definiert Nr. 63 23 Geplant Ja 14 Abbildung 3: Große Daten als strategisches Ziel in europäischen Unternehmen Statistik aus der BARC-Studie (N 273) Quelle: Big Data Survey Europe, BARC , Februar 2013, S.17 Big Data Survey Europe, BARC-Institut, Februar 2013 5 Big Data Best Practice über die Industrien Operational Operational Effizienz Kunde Kundenerfahrung Nutzen Sie die Daten: um: Nutzung von Daten Exploit to: Datenverwendung für: Kundenzufriedenheit steigern Anpassung der Kunden Loyalitäts - und Retention Retention Präzise durchführen Kundenzufriedenste Segmentierung und Ausrichtung von Segmentierung und Targeting optimieren Kunden optimieren Interaktionsinteraktion Kunde und Service und Service Effizienz Steigerung des Levels Erhöhung der Transparenz Transparenz Optimierung der Ressourcen Optimieren der Verbrauchsresourcen Verbesserung der Prozessqualität und der Leistungsverbesserung Prozessqualität und - leistung Erleben Sie neue Modelle Neugeschäft Geschäftsmodelle Großschreibung ondata databy: durch: Aktivieren Sie die Expandierung von Umsatzströmen Erweitern von Umsatzströmen aus vorhandenen Produkten aus bestehenden Produkten Erstellung neuer Umsatzerlöse Erstellen von neuen Streams aus ganz anderen Streams aus völlig neuen (Daten-) Produkten (Daten) Produkte Abbildung 4: Wertdimensionen für Big Data Use Cases Quelle: DPDHL Detecon 2.1 Operative Effizienz 2.1.1 Nutzung von Daten zur Vorhersage von Crime Hotspots Für Metropolitan Polizeiabteilungen kann die Aufgabe der Verfolgung von Kriminellen zur Erhaltung der öffentlichen Sicherheit manchmal langwierig sein. Mit vielen gesäumten Informationen Repositories, Casework oft beinhaltet manuelle Verbindung von vielen Datenpunkte. Das braucht mal und drastisch verlangsamt die fallauflösung. Darüber hinaus werden die Straßenpolizei-Ressourcen reaktiv eingesetzt, so dass es sehr schwierig ist, Kriminelle in der Tat zu fangen. In den meisten Fällen ist es nicht möglich, diese Herausforderungen durch eine Erhöhung der Polizeipersonal zu lösen, da die Staatshaushalte begrenzt sind. Eine Behörde, die ihre verschiedenen Datenquellen nutzt, ist die New York Police Department (NYPD). Durch die Erfassung und Verbin - dung von kriminalitätsbedingten Informationen hofft man, den Tätern des Verbrechens einen Schritt voraus zu sein. Lange bevor der Begriff Big Data geprägt wurde, bemühte sich die NYPD, die Kompartimentierung ihrer Daten zu zerstören (z Daten von 911 Anrufen, Untersuchungsberichte und vieles mehr). Mit einem einzigen Blick auf alle Informationen, die sich auf ein bestimmtes Verbrechen beziehen, erreichen die Offiziere ein kohärenteres Echtzeitbild ihrer Fälle. Diese Verschiebung hat die retrospektive Analyse deutlich verschärft und ermöglicht es der NYPD, früher Maßnahmen zu ergreifen, um einzelne Kriminelle aufzuspüren. Die stetig abnehmenden Raten des gewalttätigen Verbrechens in New York7 sind nicht nur auf diese effektivere Straffung der vielen Datenpositionen zurückzuführen, die zur Durchführung von Caseworks erforderlich sind, sondern auch zu einer grundlegenden Änderung der Polizeipraxis.8 Durch die Einführung einer statistischen Analyse und georaphischen Kartierung von Kriminalpunkten , Hat die NYPD in der Lage, ein größeres Bild zu erstellen, um Ressourcen-Einsatz und Patrouille Praxis zu führen. Jetzt kann die Abteilung Kriminalitätsmuster mit Hilfe von Computational Analysis erkennen, und dies liefert Einsichten, die es jedem Kommandanten ermöglichen, heftige Spuren krimineller Aktivitäten proaktiv zu identifizieren. NYPD ändert die Kriminalitätsgleichung durch die Art und Weise, wie sie Informationen verwendet, IBM vgl. Www-01.ibmsoftwaresuccesscssdb. nsfCSJSTS-6PFJAZ 6 Index Verbrechen nach Region, New York State Division of Criminal Justice Services, Mai 2013, vgl. Criminaljustice. ny. govcrimnetojsastats. htm 7 Compstat und organisatorischer Wandel in der Lowell Police Department, Willis et. Al. Polizei-Stiftung, 2004 vgl. Policefoundation. org 8 contentcompstat-and-organizational-change-lowell-police-department 7 8 Big Data Best Practice über Branchen Diese antizipatorische Perspektive setzt die NYPD in die Lage, den Einsatz von Arbeitskräften und Ressourcen effektiv zu erreichen. In Kombination mit anderen Maßnahmen hat die systematische Analyse der vorhandenen Informationen zu einer stetig sinkenden Rate von Gewaltverbrechen beigetragen (siehe Abbildung 5). Die Technik der Verwendung von historischen Daten zur Erkennung von Mustererkennung und damit Vorhersage von Kriminalitätspunkten wurde im Laufe der Zeit von einer Reihe von Gemeinden in den USA verabschiedet. Da immer mehr Polizeidienststellen der Öffentlichkeit Verbrechenrekordinformationen anbieten, haben auch Dritte begonnen (Siehe Abbildung 6) .9 26.000 1.000 24.000 -3 900 22.000 800 20.000 700 18.000 -4 600 Robbery 16.000 500 14.000 400 12.000 300 10.000 2002 Mord 2004 2006 2008. Verbrechen Sie vor Ort, dass sie Daten in nationale Ansichten zusammenfassen und auch anonyme Kippfunktionalität bereitstellen (siehe Abbildung 6) 2010 2012 Abbildung 5: Entwicklung gewalttätiger Verbrechen in New York City Daten aus Index Verbrechen gemeldet Polizei nach Region: New York City, 20032012, Quelle: New York State Division of Criminal Justice Services, vgl. Criminaljustice. ny. govcrimnetojsastats. htm Abbildung 6: Ein öffentlicher Motoren Crimereports Screenshot, vgl. Crimereport Vgl. Publicengines (vorbildlich) 9 Big Data Best Practice Across Industries 2.1.2 Optimale Schichtplanung in Einzelhandelsgeschäften Für Einzelhandelsgeschäfte sind Planungsverlagerungen zur Kundenanforderung eine sensible Aufgabe. Die Überlagerung der Filiale verursacht unnötigen Aufwand und senkt die Rentabilität der Website. Das Laufen des Films mit einem niedrigen Personalniveau wirkt sich negativ auf die Kunden - und Mitarbeiterzufriedenheit aus. Beide sind schlecht für Geschäftsreisende. Bei DM-Drogerien wurde die Schichtplanungsaufgabe historisch vom Ladenmanager auf der Grundlage einfacher Extrapolationen und persönlicher Erfahrungen durchgeführt. Für reguläre Werktage war dieser Vorgang gut genug. Aber mit einer zunehmenden Anzahl von Ausnahmen wurde es unbefriedigend. Overhead oder Mangel an Personal begrenzt Speicher Leistung. So hat DM entschlossen, die Filialleiter in ihrer Personalplanung weiter zu unterstützen, indem sie Wege finden, um die Nachfrage an jedem einzelnen Verkaufspunkt zuverlässig zu prognostizieren.10 Der Ansatz war, eine langfristige Vorhersage der täglichen Lagereinnahmen unter Berücksichtigung einer breiten Palette von Individuelle und lokale Parameter. Input-Daten zu einem neuen Algorithmus enthalten historische Umsatzdaten, Öffnungszeiten und die Ankunftszeiten von neuen Waren aus den Distributionszentren. Darüber hinaus wurden andere Daten aufgenommen, um die höchste Präzision zu erreichen. Diese Daten beinhalten lokale Umstände wie Markttage, Urlaub in benachbarten Orten, Straßenumleitungen und zukünftige Wettervorhersagedaten (da die Wetterbedingungen das Konsumentenverhalten erheblich beeinträchtigen). DM ausgewertet verschiedene prädiktive Algorithmen, und die gewählte Lösung bietet nun so genaue Projektionen, dass es sich als eine starke Unterstützung für die Schichtplanung erwiesen hat. Basierend auf der hochauflösenden Prognose des täglichen Umsatzes für jeden einzelnen Laden können die Mitarbeiter nun ihre persönlichen Präferenzen in den Schichtplan vier bis acht Wochen im Voraus eintragen. Einmal genehmigt, ihre Verschiebungen sind unwahrscheinlich, dass sie sich ändern können, können sie sich auf den langfristigen Plan verlassen, und eine Last-Minute-Änderung ist ein außergewöhnliches Ereignis. Dies zeigt, wie die Anwendung der prädiktiven Analytik bei DM die betriebliche Effizienz steigert und gleichzeitig zu einer besseren Work-Life-Balance für das Ladenpersonal beiträgt. Business Intelligence Guide 20122013, isreport, isi Medien Mnchen, oder vgl. Blue-yonderendm-drogerie-markt-en. html 10 9 2 2006 Q4 2007 10 Big Data Best Practice über Branchen 2.2 Kundenerfahrung 2.2.1 Soziale Einflussanalyse für Kundenbindung Um Einblick in die Kundenzufriedenheit und zukünftige Nachfrage zu erhalten, nutzen Unternehmen eine Nummer Von verschiedenen Geschäftsmodellen. Der konventionelle Ansatz besteht darin, Marktforschung auf Kundenbasis zu übernehmen, aber dies schafft eine verallgemeinerte Sicht ohne Fokus auf individuelle Bedürfnisse und Verhaltensweisen der Verbraucher. Ein Problem, das Telekommunikationsanbieter herausfordert, ist das des Kundenwunsches (der Verlust von Kunden über einen Zeitraum). Um die Churn zu reduzieren, analysieren Organisationen typischerweise Nutzungsmuster einzelner Abonnenten und ihre eigene Servicequalität. Sie bieten auch spezifische Belohnungen11, um einige Kunden loyal zu halten, basierend auf Parametern wie Kundenausgaben, Nutzung und Abonnementlänge. In der Vergangenheit haben diese Aufbewahrungsbemühungen, die auf dem individuellen Kundenwert basieren, eine gewisse Verbesserung der Loyalität erreicht12, aber der Kundenwunsch bleibt ein Thema für Anbieter (siehe Abbildung 7). Um das Kundenverhalten besser vorhersagen zu können, hat T-Mobile USA begonnen, soziale Beziehungen zwischen den Abonnenten in ihr Churn-Management-Modell aufzunehmen.13 Die Organisation nutzt eine Multi-Graph-Technik, ähnlich den verwendeten Methoden. Erstellen Sie diese völlig neue Perspektive ihrer Kunden erforderlich T - Mobile, um seine Legacy-Analyse von Daten zu bereichern (historisch genommen aus Abrechnungssystemen und Kommunikationsnetzwerken). Darüber hinaus werden rund ein Petabyte Rohdaten inklusive Informationen aus Web-Clickstreams und sozialen Netzwerken aufgenommen, um die anspruchsvollen Mechanismen hinter dem Kunden-Churn aufzuspüren. Dieser hochinnovative Ansatz hat sich bereits für T-Mobile ausgezahlt. Nach dem ersten Quartal des Einsatzes des neuen Churn-Management-Modells stiegen die Unternehmen im Vergleich zum Vorjahresquartal um 50 Prozent. Postpaid Prepaid Blended Postpaid Trend Prepaid Trend Blended Trend 6 5 Churn Rate () in der sozialen Netzwerkanalyse, um so genannte Stammführer zu identifizieren. Das sind Menschen, die einen starken Einfluss in größeren, verbundenen Gruppen haben. Wenn ein Stammführer zu einem Konkurrenzdienst wechselt, ist es wahrscheinlich, dass eine Anzahl ihrer Freunde und Familienmitglieder auch schalten wird, ist wie ein Dominoeffekt. Mit dieser Veränderung in der Art und Weise, wie es den Kundennutzen berechnet, hat T-Mobile seine Messung verbessert, um nicht nur ein Kundenlebensabonnement für Mobilfunkdienste, sondern auch die Größe seines sozialen Netzwerks oder Stammes einzubeziehen (siehe Abbildung 8). 4 3 2 1 0 Q2 2005 Q4 2005 Q2 2006 Postpaid Prepaid Q4 2006 Q2 2007 Blended Postpaid-Trend Prepaid-Trend Blended Tendenz Q4 2007 Q2 2008 Abbildung 8: Identifizierung von Beeinflussern innerhalb einer mobilen Teilnehmerbasis Postpaid Prepaid Blended Postpaid-Trend Prepaid-Trend Abbildung 7: Entwicklung Blended Trend der Teilnehmer Churn Preise, von: Mobile Churn und Loyalty Strategies, Informa, p. 24 Kundenloyalitätsverfolgung, Informa, 2012 11 Q4 2006 12 2007 Q2 2007 MobileQ4Churn Q2 Loyalität 2008 und Strategien, 2nd Edition, Informa, 2009 T-Mobile Herausforderungen mit Daten, Brett Sheppard, OReilly Strata, 2011 vgl. Strata. oreilly201108t-mobile-challenges-churn-with. html 13 Q2 2008 Big Data Best Practice Across Industries 2.2.2 Vermeidung von Lagerbedingungen für die Kundenzufriedenheit Dies ist eine häufige und enttäuschende Erfahrung für Käufer: Sobald sie das perfekte Element finden Kleidung, sie entdecken, dass die Größe, die sie benötigen, ist nicht auf Lager. Mit zunehmender Konkurrenz im Textil - und Bekleidungssegment ist die Verfügbarkeit von beliebten Kleidungsstücken in der Regel begrenzt. Dies wird durch die Konsolidierung von Marken und beschleunigten Produktzyklen verursacht. In manchen Fällen gibt es nur drei Wochen zwischen dem ersten Design eines Kleidungsstücks und seiner Anlieferung. Die häufige Einführung neuer Sammlungen, die von vertikal organisierten Ketten angetrieben werden, verengt die Beschaffung von Artikeln zu einer einzigen Charge. Dies stellt ein Risiko für Bekleidungsketten dar, was es wichtiger denn je macht, die Nachfrage der Verbraucher nach einem bestimmten Artikel genau zu antizipieren. Die Fähigkeit, die Nachfrage richtig vorherzusagen, ist zu einem Schlüsselfaktor für profitables Geschäft geworden. Der Mehrkanal-Händler Otto Group stellte fest, dass konventionelle Methoden der Prognose der Nachfrage nach Online - und Versandkatalogpositionen in einem zunehmend wettbewerbsorientierten Umfeld unzureichend waren. Bei 63 Posten überstieg die Abweichung (verglichen mit den tatsächlichen Verkaufsmengen) etwa 20,15. Die Gruppe schätzte das Geschäftsrisiko sowohl der Überproduktion als auch des Mangels. Überproduktion würde die Rentabilität beeinflussen und zu viel Kapital einsparen. Mangel würde Kunden kümmern. Um den Kundenbedürfnissen vor allem die hohen Erwartungen der digitalen Eingeborenen beim Online-Kauf zu begegnen, hat die Otto Group einen innovativen und störenden Ansatz zur Verbesserung ihrer Lieferfähigkeit (siehe Abbildung 9). Vorhersagediskrepanz 63 Vorhersageabweichung gt 20 1000 500 Absolute Frequenz Klassische Vorhersage Entwicklung des Merchandising-Risikos 100 20 0 20 Klassische Vorhersage Neuro Bayes entwickelt Rückstandsrisiko 11 Vorhersage Abweichung gt 20 100 200 Vorhersage mit Neuro Bayes Abbildung 9: Relative Abweichung der Prognose vom tatsächlichen Verkaufsvolumen, Von: Big Data amp Predictive Analytics Der Nutzen von Daten fr przise Prognosen und Entscheidungen in der Zukunft, Otto Group, Michael Sinn Konferenz Talk Big Data Europe, Zürich, 28. August 2012 Mrkte in der globalen Modeindustrie, Patrik Aspers, Jahrbuch 20072008, Max-Planck-Institut für Gesellschaftsforschung 14 Otto rechnet mit knstlicher Intelligenz, Lebensmittel Zeitung, 21. August 2009 15 11 12 Große Daten Best Practice über Branchen 70 63 60 50 40 30 20 11 10 0 Konventionelle Bedarfsprognose Nachfrageprognose mit prädiktiven Analytik Abbildung 10: Prozentsatz der Katalogpositionen mit tatsächlichen Verkaufszahlen, die mehr als 20 aus der Bedarfsprognose abweichen. Quelle: Perfektes Bestandsmanagement durch Predictive Analytics, Mathias Stben, Otto Group, am 29. Deutschen Logistik-Kongress, Okt. 2012 Nach der Auswertung einer Reihe von Lösungen zur Erzielung einer stabilen Prognose der Absatzmengen gelang es der Otto Group schließlich, eine Methode anzuwenden, Bereich der Hochenergiephysik. Es nutzte ein multivariates Analysewerkzeug, das Selbstlernfähigkeiten aus neuronalen Netzwerktechniken einsetzt und sie mit Bayes'schen Statistiken verbindet.16 Mit diesem Analysewerkzeug hat die Gruppe eine völlig neue Prognosemaschine gegründet, die das Tool mit historischen Daten aus 16 früheren Jahreszeiten trainierte Kontinuierlich wird das Tool mit 300 Millionen Transaktionsdatensätzen pro Woche ab der aktuellen Saison eingegeben. Dieses neue System generiert mehr als eine Milliarde individuelle Prognosen pro Jahr und hat bereits überzeugende Ergebnisse erzielt. Mit nur 11 von Katalogelementen, die die Umsatzvorhersage um mehr als 20 verkürzen (siehe Abbildung 10), ist die Otto Group nun besser in der Lage, die Kundennachfrage zu befriedigen.17 Gleichzeitig sinkt dieser neue prädiktive Ansatz die Bestandsaufnahme, was zu einer verbesserten Rentabilität führt Und die Verfügbarkeit der Mittel. Vgl. Neurobayes. phi-t. deindex. phpublic-information 16 Treffsichere Absatzprognose mit Predictive Analytics, Michael Sinn, Konferenzgespräch über Big Data amp Analytics Kongress, Köln, 19. Juni 2012 17 vgl. YoutubewatchvhAE2Mui5lRA Big Data Best Practice über Industrien 2.3 Neue Geschäftsmodelle 2.3.1 Crowd Analytics liefern Einzelhandels - und Werbeeinblick Um effektive mobile Sprach - und Datendienste bereitzustellen, müssen Netzbetreiber kontinuierlich einen Satz von Daten auf jedem Teilnehmer erfassen. Abgesehen von der Aufzeichnung der Nutzung von mobilen Diensten (für Buchhaltungs - und Abrechnungszwecke) müssen die Betreiber auch jeden Teilnehmerstandort aufzeichnen, damit sie Anrufe und Datenströme an den Zellturm weiterleiten können, an den das Absender angeschlossen ist. So schafft jeder Teilnehmer einen digitalen Trail, während er sich um das Provider-Netzwerk bewegt. Und in den meisten Ländern ist es nur eine kleine Gruppe von Netzbetreibern, die den Großteil der Bevölkerung als Kunden gefangen haben, ihre kombinierten digitalen Trails der Abonnentenbasis bieten eine umfassende Reflexion der Gesellschaft oder genauer, wie sich die Gesellschaft bewegt. Zum Beispiel ist es möglich, die Attraktivität einer bestimmten Straße für die Eröffnung eines neuen Films zu bewerten, basierend auf einer hochauflösenden Analyse, wie sich Menschen in diesem Bereich bewegen und ausruhen und die Öffnungszeiten finden, die einen maximalen Tritt verursachen können (siehe Abbildung 11) . In einem größeren Kontext ist es auch möglich, die Auswirkungen von Ereignissen wie Marketingkampagnen und die Eröffnung eines Konkurrenzspeichers zu sehen, indem man jede Veränderung der Bewegungsmuster analysiert. Wenn Gender - und Altersgruppensplits in die Daten einbezogen sind und geo-lokalisierte Datensätze und soziale Netzwerkaktivitäten eingeschlossen sind, fügt diese Segmentierung für Einzelhändler und Werbetreibende noch mehr Wert hinzu. In der Vergangenheit konnten Organisationen nur interne Nutzung von Standort - und Nutzungsdaten aus Mobilfunknetzen nutzen. Dies ist wegen der Datenschutzgesetze, die die Ausnutzung der einzelnen Teilnehmerinformationen begrenzen. Aber sobald die Teilnehmeridentität von den Bewegungsdaten getrennt ist, bleibt in diesen anonymen Publikumsdaten ein wesentlicher Geschäftswert, wie es Telefonica entdeckt hat. Mit dem Start des Geschäftsbereichs Telefonica Digital fährt der Netzbetreiber nun die Geschäftsinnovation außerhalb seiner Kerngeschäftsfelder und Marken. Als Teil von Telefonica Digital hat die Initiative "Dynamic Insights" die Analyse von Bewegungsdaten kommerzialisiert und damit die Umsatzerlöse aus Einzelhandels-, Immobilien-, Freizeit - und Medienkunden geschaffen.18 Andere Carrier haben ähnliche Angebote entwickelt, wie zB Verizons Precision Market Insights Service Städtischen Gebieten ist die Dichte der digitalen Wege ausreichend hoch, um das kollektive Verhalten der Teilnehmermenge mit Merkmalen eines bestimmten Ortes oder Gebietes zu korrelieren. Abbildung 11: Analyse der Kunden-Tritt in einem bestimmten Ort auf der Grundlage von mobilen Teilnehmerdaten, von blog. telefonicapress-releasetelefonica-dynamic-insights-startet-smart-steps-in-the-uk Vgl. Dynamicinsights. telefonica 18 Vgl. Verizonenterpriseindustryretailprecision-market-insights 19 13 14 Big Data Best Practice Across Industries 2.3.2 Erstellen neuer Versicherungsprodukte aus geo-lokalisierten Daten Die Klimaempfindlichkeit ist ein Merkmal der Landwirtschaft, da lokale Temperaturen, Sonnenstunden und Niederschlagsniveaus direkt die Ernteerträge beeinflussen . Mit dem zunehmenden Auftreten von extremen Wetterbedingungen aufgrund der globalen Erwärmung ist die Klimaveränderung zu einem erheblichen Risiko für die Landwirte geworden.20 Um die Auswirkungen von Erntefehlern abzuschwächen, nehmen die Landwirte Versicherungspolicen ab, um ihre potenziellen finanziellen Verluste zu decken. Versicherungen werden wiederum mit zunehmend unvorhersehbaren lokalen Wetterextremen herausgefordert. Einerseits sind die konventionellen Risikomodelle, die auf historischen Daten basieren, nicht mehr geeignet, zukünftigen versicherten Verlust zu antizipieren.21 Andererseits müssen Forderungen genauer kontrolliert werden, da Schäden in einer betroffenen Region variieren können. Für die Landwirte führt die Kombination dieser beiden Aspekte zu höheren Versicherungsraten und einer geringeren Auszahlung von Schadensersatzansprüchen. In the United States, most private insurance companies viewed crop production as too risky to insure without federal subsidies.22 In 2006, The Climate Corporation started out to create a new weather simulation model based on 2.5 million temperature and precipitation data points, combined with 150 million soil observations. The high resolution of its simulation grid allows the company to dynamically calculate the risk and pricing for weather insurance coverage on a per-field basis across the entire country (see Figure 12). As the tracking of local growing conditions and the calculation of crop shortfall are performed in real time, payouts to policy holders are executed automatically when bad weather conditions occur. This eliminates the need for sophisticated and time-consuming claims processes. Based on 10 trillion simulation data points23, The Climate Corporations new insurance business model is now successfully established. After only six years, the organizations insurance services have been approved across all 50 states in the U. S. Figure 12: Real-time tracking of weather conditions and yield impact per field screenshot taken from climateproductsclimate-apps Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation, Chapter 4.3.4, Intergovernmental Panel on Climate 20 Change (IPCC), 2012 cf. ipcc. chpdfspecial-reportssrexSREXFullReport. pdf Warming of the Oceans and Implications for the (Re-)Insurance Industry, The Geneva Association, June 2013 21 Weather Insurance Reinvented, Linda H. Smith, DTN The Progressive Farmer, November 2011 cf. dtnprogressivefarmer 22 About us, The Climate Corporation, cf. climatecompanyabout 23 Big Data in Logistics 3 BIG DATA IN LOGISTICS Companies are learning to turn large-scale quantities of data into competitive advantage. Their precise forecasting of market demand, radical customization of services, and entirely new business models demonstrate exploitation of their previously untapped data. As todays best practices touch many vertical markets, it is reasonable to predict that Big Data will also become a disruptive trend in the logistics industry. However, the application of Big Data analytics is not immediately obvious in this sector. The particularities of the logistics business must be thoroughly examined first in order to discover valuable use cases. 3.1 Logistics as a Data-driven Business A kick-start for discussion of how to apply Big Data is to look at creating and consuming information. In the logistics industry, Big Data analytics can provide competitive advantage because of five distinct properties. These five properties highlight where Big Data can be most effectively applied in the logistics industry. They provide a roadmap to the well of unique information assets owned by every logistics provider. In the following sections, we identify specific use cases that exploit the value of this information, and contribute to operational efficiency, a better customer experience, or the development of new business models. Optimization of service properties like delivery time, resource utilization, and geographical coverage is an inherent challenge of logistics 1. Optimization to the core Large-scale logistics operations require data to run efficiently. The earlier this information is available and the more precise the information is, the better the optimization results will become Advanced predictive techniques and real-time processing promise to provide a new quality in capacity forecast and resource control The delivery of tangible goods requires a direct customer interaction at pickup and delivery 2. Tangible goods, tangible customers 3. In sync with customer business On a global scale, millions of customer touch points a day create an opportunity for market intelligence, product feedback or even demographics Big Data concepts provide versatile analytic means in order to generate valuable insight on consumer sentiment and product quality Modern logistics solutions seamlessly integrate into production and distribution processes in various industries The tight level of integration with customer operations let logistics providers feel the heartbeat of individual businesses, vertical markets, or regions The application of analytic methodology to this comprehensive knowledge reveals supply chain risks and provides resilience against disruptions The transport and delivery network is a high-resolution data source 4. A network of information Apart from using data for optimizing the network itself, network data may provide valuable insight on the global flow of goods The power and diversity of Big Data analytics moves the level of observation to a microeconomic viewpoint Local presence and decentralized operations is a necessity for logistics services 5. Global coverage, local presence A fleet of vehicles moving across the country to automatically collect local information along the transport routes Processing this huge stream of data originating from a large delivery fleet creates a valuable zoom display for demographic, environmental, and traffic statistics 15 16 Big Data in Logistics Big Data in Logistics 17 New Customer Base Big Data in Logistics Shop The Data-driven Logistics Provider 5 Existing Customer Base Customer Loyalty Management Financial Industry Market and customer intelligence External Online Sources Manufacturing FMCG SME Marketing and Sales Product Management New Business Address Verification Market Intelligence Supply Chain Monitoring Environmental Statistics 11 Environmental Intelligence CO2 Sensors attached to delivery vehicles produce fine-meshed statistics on pollution, traffic density, noise, parking spot utilization, etc. Continuous sensor data Service Improvement and Product Innovation Retail Operations Order volume, received service quality 6 Market Research Commercial Data Services Public customer information is mapped against business parameters in order to predict churn and initiate countermeasures High-tech Pharma Public Authorities Customer sentiment and feedback A comprehensive view on customer requirements and service quality is used to enhance the product portfolio 3 8 Supply chain monitoring data is used to create market intelligence reports for small and medium-sized companies Strategic Network Planning Long-term demand forecasts for transport capacity are generated in order to support strategic investments into the network Commerce Sector 9 Households SME Network flow data Core Market Intelligence for SME Location, traffic density, directions, delivery sequence Tr a n s p o r t N e t w ork Financial Demand and Supply Chain Analytics 1 Real-time Route Optimization Delivery routes are dynamically calculated based on delivery sequence, traffic conditions and recipient status Real-time incidents A micro-economic view is created on global supply chain data that helps financial institutions improve their rating and investment decisions Network flow data 10 2 Location, destination, availability Crowd-based Pickup and Delivery A large crowd of occasionally available carriers pick up or deliver shipments along routes they would take anyway Address Verification Fleet personnel verifies recipient addresses which are transmitted to a central address verification service provided to retailers and marketing agencies 4 Operational Capacity Planning Short - and mid-term capacity planning allows optimal utilization and scaling of manpower and resources 7 Risk Evaluation and Resilience Planning By tracking and predicting events that lead to supply chain disruptions, the resilience level of transport services is increased Flow of data Flow of physical goods 2013 Detecon International 18 Big Data in Logistics 3.2 Use Cases Operational Efficiency A straightforward way to apply Big Data analytics in a business environment is to increase the level of efficiency in operations. This is simply what IT has always been doing accelerating business processes but Big Data analytics effectively opens the throttle. 3.2.1 Last-mile optimization A constraint in achieving high operational efficiency in a distribution network occurs at the last mile. 24 This final hop in a supply chain is often the most expensive one. The optimization of last-mile delivery to drive down product cost is therefore a promising application for Big Data techniques. Two fundamental approaches make data analysis a powerful tool for increasing last-mile efficiency. In a first and somewhat evolutionary step, a massive stream of information is processed to further maximize the performance of a conventional delivery fleet. This is mainly achieved by real-time optimization of delivery routes. The second, more disruptive approach utilizes data processing to control an entirely new last-mile delivery model. With this, the raw capacity of a huge crowd of randomly moving people replaces the effectiveness of a highly optimized workforce. 1 Real-time route optimization The traveling salesmen problem was formulated around eighty years ago, but still defines the core challenge for last-mile delivery. Route optimization on the last mile aims at saving time in the delivery process. Rapid processing of real-time information supports this goal in multiple ways. When the delivery vehicle is loaded and unloaded, a dynamic calculation of the optimal delivery sequence based on sensor-based detection of shipment items frees the staff from manual sequencing. On the road, telematics databases are tapped to automatically change delivery routes according to current traffic conditions. And routing intelligence considers the availability and location information posted by recipients in order to avoid unsuccessful delivery attempts. In summary, every delivery vehicle receives a continuous adaptation of the delivery sequence that takes into account geographical factors, environmental factors, and recipient status. What makes this a Big Data problem It requires the execution of combinatorial optimization procedures fed from correlated streams of real-time events to dynamically re-route vehicles on the go. As a result, each driver receives instant driving direction updates from the onboard navigation system, guiding them to the next best point of delivery. DHL SmartTruck Daily optimized initial tour planning based on incoming shipment data Dynamic routing system, which recalculates the routes depending on the current order and traffic situation Cuts costs and improves CO2 efficiency, for example by reducing mileage The term last mile has its origin in telecommunications and describes the last segment in a communication network that actually reaches the 24 customer. In the logistics sector, the last mile is a metaphor for the final section of a supply chain, in which goods are handed over to the recipient. Source: The definition of the first and last miles, DHL Discover Logistics, cf. dhl-discoverlogisticscmsencoursetechnologies reinforcementfirst. jsp Big Data in Logistics 2 Crowd-based pick-up and delivery The wisdom and capacity of a crowd of people has become a strong lever for effectively solving business problems. Sourcing a workforce, funding a startup, or performing networked research are just a few examples of requisitioning resources from a crowd. Applied to a distribution network, a crowd-based approach may create substantial efficiency enhancements on the last mile. The idea is simple: Commuters, taxi drivers, or students can be paid to take over lastmile delivery on the routes that they are traveling anyway. Scaling up the number of these affiliates to a large crowd of occasional carriers effectively takes load off the delivery fleet. Despite the fact that crowd-based delivery has to be incentivized, it has potential to cut last-mile delivery costs, especially in rural and sparsely populated areas. On the downside, a crowd-based approach also issues a vital challenge: The automated control of a huge number of randomly moving delivery resources. This requires extensive data processing capabilities, answered by Big Data techniques such as complex event processing and geocorrelation. A real-time data stream is traced in DHL MyWays order to assign shipments to available carriers, based on their respective location and destination. Interfaced through a mobile application, crowd affiliates publish their current position and accept pre-selected delivery assignments. The above two use cases illustrate approaches to optimizing last-mile delivery, yet they are diametrically opposed. In both cases, massive real-time information (originating from sensors, external databases, and mobile devices) is combined to operate delivery resources at maximum levels of efficiency. And both of these Big Data applications are enabled by the pervasiveness of mobile technologies. Unique crowd-based delivery for B2C parcels Flexible delivery in time and location Using existing movement of city residents myways 19 20 Big Data in Logistics 3.2.2 Predictive network and capacity planning Optimal utilization of resources is a key competitive advantage for logistics providers. Excess capacities lower profitability (which is critical for low-margin forwarding services), while capacity shortages impact service quality and put customer satisfaction at risk. Logistics providers must therefore perform thorough resource planning, both at strategic and operational levels. Strategic-level planning considers the long-term configuration of the distribution network, and operational-level planning scales capacities up or down on a daily or monthly basis. For both perspectives, Big Data techniques improve the reliability of planning and the level of detail achieved, enabling logistics providers to perfectly match demand and available resources. 3 Strategic network planning At a strategic level, the topology and capacity of the distribution network are adapted according to anticipated future demand. The results from this stage of planning usually drive investments with long requisition and amortization cycles such as investments in warehouses, distribution centers, and custom-built vehicles. More precise capacity demand forecasts therefore increase efficiency and lower the risks of investing in storage and fleet capacity. Big Data techniques support network planning and optimization by analyzing comprehensive historical capacity and utilization data of transit points and transportation routes. In addition, these techniques consider seasonal factors and emerging freight flow trends by learning algorithms that are fed with extensive statistical series. External economic information (such as industry-specific and regional growth forecasts) is included for more accurate prediction of specific transportation capacity demand. In summary, to substantially increase predictive value, a much higher volume and variety of information is exploited by advanced regression and scenario modeling techniques. The result is a new quality of planning with expanded forecast periods this effectively reduces the risk of long-term infrastructure investments and contracted external capacities. It can also expose any impending over-capacity and provide this as automated feedback to accelerate sales volume. This is achieved by dynamic pricing mechanisms, or by transfer of overhead capacities to spot-market trading. Big Data in Logistics 4 Operational capacity planning At operational level, transit points and transportation routes must be managed efficiently on a day-to-day basis. This involves capacity planning for trucks, trains, and aircraft as well as shift planning for personnel in distribution centers and warehouses. Often operational planning tasks are based on historical averages or even on personal experience, which typically results in resource inefficiency. Instead, using the capabilities of advanced analytics, the dynamics within and outside the distribution network are modeled and the impact on capacity requirements calculated in advance. Real-time information about shipments (items that are entering the distribution network, are in transit, and are stored) is aggregated to predict the allocation of resources for the next 48 hours. This data is automatically sourced from warehouse management systems and sensor data along the transportation chain. In addition detection of ad-hoc changes in demand is derived from externally available customer information (e. g. data on product releases, factory openings, or unexpected bankruptcy). Additionally, local incidents are detected (e. g. regional disease outbreaks or natural disasters) as these can skew demand figures for a particular region or product. This prediction of resource requirements helps Both of the above Big Data scenarios increase resource efficiency in the distribution network, but the style of data processing is different. The strategic optimization combines a high data volume from a variety of sources in order to support investment and contracting decisions, while the operational optimization continuously forecasts network flows based on real-time streams of data. DHL Parcel Volume Prediction operating personnel to scale capacity up or down in each particular location. But theres more to it than that. A precise forecast also reveals upcoming congestions on routes or at transit points that cannot be addressed by local scaling. For example, a freight aircraft that is working to capacity must leave behind any further expedited shipments at the airport of origin. Simulation results give early warning of this type of congestion, enabling shipments to be reassigned to uncongested routes, mitigating the local shortfall. This is an excellent example of how Big Data analytics can turn the distribution network into a self-optimizing infrastructure. Analytic tool to measure influences of external factors on the expected volume of parcels Correlates external data with internal network data Results in a Big Data Prediction Model that significantly increases operational capacity planning Ongoing research project by DHL Solutions amp Innovation 21 22 Big Data in Logistics 3.3 Use Cases Customer Experience The aspect of Big Data analytics that currently attracts the most attention is acquisition of customer insight. For every business, it is vitally important to learn about customer demand and satisfaction. But as organizations experience increased business success, the individual customer can blur into a large and anonymous customer base. Big Data analytics help to win back individual customer insight and to create targeted customer value. 3.3.1 Customer value management Clearly, data from the distribution network carries significant value for the analysis and management of customer relations. With the application of Big Data techniques, and enriched by public Internet mining, this data can be used to minimize customer attrition and understand customer demand. 5 Customer loyalty management For most business models, the cost of winning a new customer is far higher than the cost of retaining an existing customer. But it is increasingly difficult to trace and analyze individual customer satisfaction because there are more and more indirect customer touch points (e. g. portals, apps, and indirect sales channels). Because of this, many businesses are failing to establish effective customer retention programs. Smart use of data enables the identification of valuable customers who are on the point of leaving to join the competition. Big Data analytics allow a comprehensive assessment of customer satisfaction by merging multiple extensive data sources. For logistics providers, this materializes in a combined evaluation of records from customer touch points, operational data on logistics service quality, and external data. How do these pieces fit together Imagine the scenario of a logistics provider noticing a customer who lowers shipment volumes despite concurrently publishing steady sales records through newswire. The provider then checks delivery records, and realizes that this customer recently experienced delayed shipments. Looking at the bigger picture, this information suggests an urgent need for customer retention activity. To achieve this insight not just with one customer but across the entire customer base, the logistics provider must tap multiple data sources and use Big Data analytics. Customer touch points include responses to sales and marketing activities, customer service inquiries, and complaint management details. This digital customer trail is correlated with data from the distribution network comprising statistical series on shipping volume and received service quality levels. In addition, the Internet provides useful customer insight: Publicly available information from news agencies, annual reports, stock trackers, or even sentiments from social media sites enrich the logistics providers internal perspective of each customer. From this comprehensive information pool, the logistics provider can extract the attrition potential of every single customer by applying techniques such as semantic text analytics, natural-language processing, and pattern recognition. On automatically generated triggers, the provider then initiates proactive counter-measures and customer loyalty programs. Although business relationships in logistics usually relate to the sender side, loyalty management must also target the recipient side. Recipients are even more affected by poor service quality, and their feedback influences sender selection for future shipments. A good example of this is Internet or catalog shopping: Recurring customer complaints result in the vendor considering a switch of logistics provider. But to include recipients into loyalty management requires yet more data to be processed, especially in B2C markets. Big Data analytics are essential, helping to produce an integrated view of customer interactions and operational performance, and ensure sender and recipient satisfaction. Big Data in Logistics 6 Continuous service improvement and product innovation Logistics providers collect customer feedback as this provides valuable insight into service quality and customer expectations and demands. This feedback is a major source of information for continuous improvement in service quality. It is also important input for the ideation of new service innovations. To get solid results from customer feedback evaluation, it is necessary to aggregate information from as many touch points as possible. In the past, the single source of data has been ingests from CRM systems and customer surveys. But today, Big Data solutions provide access to gargantuan volumes of useful data stored on public Internet sites. In social networks and on 3.3.2 Suppy chain risk management discussion forums, people openly and anonymously share their service experiences. But extracting by hand relevant customer feedback from the natural-language content created by billions of Internet users is like looking for that proverbial needle in a haystack. The uninterrupted direct supply of materials is essential to businesses operating global production chains. Lost, delayed, or damaged goods have an immediate negative impact on revenue streams. Whereas logistics providers are prepared to control their own operational risk in supply chain services, an increasing number of disruptions result from major events such as civil unrest, natural disasters, or sudden economic developments.25 To anticipate supply chain disruptions and mitigate the effect of unforeseen incidents, global enterprises seek to deploy business continuity management (BCM) measures.26 Sophisticated Big Data techniques such as text mining and semantic analytics allow the automated retrieval of customer sentiment from huge text and audio repositories. In addition, this unsolicited feedback on quality and demand can be broken down by region and time. This enables identification of correlation with one-time incidents and tracking the effect of any initiated action. In summary, meticulous review of the entire public Internet brings unbiased customer feedback to the logistics provider. This empowers product and operational managers to design services capable of meeting customer demand. This demand for improved business continuity creates an opportunity for logistics providers to expand their customer value in outsourced supply chain operations. Rapid analysis of various information streams can be used to forecast events with a potentially significant or disastrous impact on customer business. In response to arising critical conditions, counter-measures can be initiated early to tackle arising business risks. Are you ready for anything, DHL Supply Chain Matters, 2011, cf. dhlsupplychainmatters. dhlefficiencyarticle24are-you-ready - 25 for-anything Making the right risk decisions to strengthen operations performance, PriceWaterhouseCoopers and MIT Forum for Supply Chain Innovation, 2013 26 23 24 Big Data in Logistics 7 Risk evaluation and resilience planning Contract logistics providers know their customers supply chains in great detail. To cater for the customer need for predictive risk assessment, two things must be linked and continuously checked against each other: A model describing all elements of the supply chain topology, and monitoring of the forces that affect the performance of this supply chain. Data on local developments in politics, economy, nature, health, and more must be drawn from a plethora of sources (e. g. social media, blogs, weather forecasts, news sites, stock trackers, and many other publically available sites), and then aggregated and analyzed. Most of this information stream is unstructured and continuously updated, so Big Data analytics power the retrieval of input that is meaningful in the detection of supply chain risks. Both semantic analytics and complex event processing techniques are required to detect patterns in this stream of interrelated information pieces.27 The customer is notified when a pattern points to a critical condition arising for one of the supply chain elements (e. g. a tornado warning in the region where a transshipment point is located). This notification includes a report on the probability and impact of this risk, and provides suitable counter-measures to mitigate potential disruption. Equipped with this information, the customer can re-plan transport routes or ramp up supplies from other geographies. Robust supply chains that are able to cope with unforeseen events are a vital business capability in todays rapidly changing world. In addition to a resilient and flexible supply chain infrastructure, businesses need highly accurate risk detection to keep running when disaster strikes. With Big Data tools and techniques, logistics providers can secure customer operations by performing predictive analytics on a global scale. Coming Soon A New Supply Chain Risk Management Solution by DHL A unique consultancy and software solution that improves the resilience of your entire supply chain Designed to reduce emergency costs, maintain service levels, protect sales, and enable fast post-disruption recovery Protects your brand and market share, informs your inventory decisions, and creates competitive advantage The Power of Events: An Introduction to Complex Event Processing in Distributed Enterprise Systems, David C. Luckham, Addison-Wesley Long - 27 man, 2001 Big Data in Logistics 3.4 Use Cases New Business Models 3.4.1 B2B demand and supply chain forecast The logistics sector has long been a macroeconomic indicator, and the global transportation of goods often acts as a benchmark for future economic development. The type of goods and shipped volumes indicate regional demand and supply levels. The predictive value of logistics data for the global economy is constituted by existing financial indices measuring the macroeconomic impact of the logistics sector. Examples are the Baltic Dry Index28, a price index for raw materials shipped, and the Dow Jones Transportation Average29, showing the economic stability of the 20 largest U. S. logistics providers. By applying the power of Big Data analytics, logistics providers have a unique opportunity to extract detailed microeconomic insights from the flow of goods through their distribution networks. They can exploit the huge digital asset that is piled up from the millions of daily shipments by capturing demand and supply figures in various geographical and industry segments. 8 The result has high predictive value and this compound market intelligence is therefore a compelling service that can be offered by third parties. To serve a broad range of potential customers, the generated forecasts are segmented by industry, region, and product category. The primary target groups for advanced data services such as these are small and medium-sized enterprises that lack capacity to conduct their own customized market research. Market intelligence for small and medium-sized enterprises The aggregation of shipment records (comprising origin, destination, type of goods, quantity, and value) is an extensive source of valuable market intelligence. As long as postal privacy is retained, logistics providers can refine this data in order to substantiate existing external market research. With regression analysis, DHL Geovista the fine-grained information in a shipment database can significantly enhance the precision of conventional demand and supply forecasts. Online geo marketing tool for SMEs to analyze business potential Provides realistic sales forecast and local competitor analysis based on a scientific model A desired location can be evaluated by using high-quality geodata deutschepost. degeovista Baltic Dry Index, Financial Times Lexicon, cf. lexicon. ftTermtermBaltic-Dry-Index 28 Dow Jones Transportation Average, SampP Dow Jones Indices, cf. djaveragesgotransportation-overview 29 25 26 Big Data in Logistics 9 Financial demand and supply chain analytics Financial analysts depend on data to generate their growth perspectives and stock ratings. Sometimes analysts even perform manual checks on supply chains as the only available source to forecast sales figures or market volumes. So for ratings agencies and advisory firms in the banking and insurance sector, access to the detailed information collected from a global distribution network is particularly valuable. An option for logistics providers is to create a commercial analytics platform allowing a broad range of users to slice and dice raw data according to their field of research effectively creating new revenue streams from the huge amount of information that controls logistics operations. 10 In the above use cases, analytics techniques are applied to vast amounts of shipment data. This illustrates how logistics providers can implement new informationdriven business models. In addition, the monetization of data that already exists adds the potential of highly profitable revenue to the logistics providers top line. 3.4.2 Real-time local intelligence Information-driven business models are frequently built upon existing amounts of data, but this is not a prerequisite. An established product or service can also be extended in order to generate new information assets. For logistics providers, the pickup and delivery of shipments provides a particular opportunity for a complementary new business model. No other industry can provide the equivalent blanket-coverage local presence of a fleet of vehicles that is constantly on the move and geographically distributed. Logistics providers can equip these vehicles with new devices (with camera, sensor, and mobile connectivity miniaturization powered by the Internet of Things) to collect rich sets of information on the go. This unique capability enables logistics providers to offer existing and new customers a completely new set of value-added data services. Address verification The verification of a customers delivery address is a fundamental requirement for online commerce. Whereas address verification is broadly available in industrialized nations, for developing countries and in remote areas the quality of address data is typically poor. This is also partly due to the lack of structured naming schemes for streets and buildings in some locations. Logistics providers can use daily freight, express, and parcel delivery data to automatically verify address data to achieve, for example, optimized route planning with correct geocoding for retail, banking, and public sector entities. DHL Address Management Direct match of input data with reference data Return incomplete or incorrect incoming data with validated data from database Significant increase of data quality for planning purposes (route planning) Big Data in Logistics 11 Environmental intelligence The accelerated growth of urban areas30 increases the importance of city planning activities and environmental monitoring. By using a variety of sensors attached to delivery vehicles, logistics providers can produce rich environmental statistics. Data sets may include measurements of ozone and fine dust pollution, temperature and humidity, as well as traffic density, noise, and parking spot utilization along urban roads. As all of this data can be collected en passant (in passing), it is relatively easy for logistics providers to offer a valuable data service to authorities, environment agencies, and real-estate developers while achieving complementary revenues to subsidize, for example, the maintenance of a large delivery fleet. There are numerous other local intelligence use cases exploiting the ubiquity of a large delivery fleet. From road condition reports that steer plowing or road maintenance squads, to surveys on the thermal insulation of public households, logistics providers are in pole position as search engines in the physical world. Innovative services that provide all kinds of data in microscopic geographical detail are equally attractive to advertising agencies, construction companies, and public bodies such as police and fire departments. Big Data techniques that extract structured information from real-time footage and sensor data are now building a technical backbone for the deployment of new data-driven business models. 3.5 Succcess Factors for Implementing Big Data Analytics Our discussion of Big Data analytics has been focused on the value of information assets and the way in which logistics providers can leverage data for better business performance. This is a good start, as solid use cases are a fundamental requirement for adopting new information-driven business models. But there needs to be more than a positive assessment of business value. The following five success factors must also be in place. 3.5.1 Business and IT alignment In the past, advancements in information management clearly targeted either a business problem or a technology problem. While trends such as CRM strongly affected the way sales and service people work, other trends such as cloud computing have caused headaches for IT teams attempting to operate dynamic IT resources across the Internet. Consequently, business units and the IT department may have different perspectives on which changes are worth adopting and managing. But for an organization to transform itself into an information-driven company one that uses Big Data analytics for competitive advantage both the business units and the IT department must accept and support substantial change. It is therefore essential to demonstrate and align both a business case and an IT case for using Big Data (including objectives, benefits, and risks). To complete a Big Data implementation, there must be a mutual understanding of the challenges as well as a joint commitment of knowledge and talent. According to the United Nations, by 2050 85.9 of the population in developed countries will live in urban areas. Taken from: Open-air computers, 30 The Economist, Oct. 27, 2012 cf. economistnewsspecial-report21564998-cities-are-turning-vast-data-factories-open-air-computers 27 28 Big Data in Logistics 3.5.2 Data transparency and governance Big Data use cases often build upon a smart combination of individual data sources which jointly provide new perspectives and insights. But in many companies the reality is that three major challenges must be addressed to ensure successful implementation. First, to locate data that is already available in the company, there must be full transparency of information assets and ownership. Secondly, to prevent ambiguous data mapping, data attributes must be clearly structured and explicitly defined across multiple databases. And thirdly, strong governance on data quality must be maintained. The validity of mass query results is likely to be compromised unless there are effective cleansing procedures to remove incomplete, obsolete, or duplicate data records. And it is of utmost importance to assure high overall data quality of individual data sources because with the boosted volume, variety, and velocity of Big Data it is more difficult to implement efficient validation and adjustment procedures. 3.5.3 Data privacy In the conceptual phase of every Big Data project, it is essential to consider data protection and privacy issues. Personal data is often revealed when exploiting information assets, especially when attempting to gain customer insight. Use cases are typically elusive in countries with strict data protection laws, yet legislation is not the only constraint. Even when a use case complies with prevailing laws, the large-scale collection and exploitation of data often stirs public debate and this can subsequently damage corporate reputation and brand value. or breaks reliable and meaningful insights. In most industries, the required mathematical and statistical skillset is scarce. In fact, a talent war is underway, as more and more companies recognize they must source missing data science skills externally. Very specialized knowledge is required to deploy the right techniques for each particular data processing problem, so organizations must invest in new HR approaches in support of Big Data initiatives. 3.5.5 Appropriate technology usage Many data processing problems currently hyped as Big Data challenges could, in fact, have been technically solved five years ago. But back then, the required technology investment would have shattered every business case. Now at a fraction of the cost, raw computing power has exponentially increased, and advanced data processing concepts are available, enabling a new dimension of performance. The most prominent approaches are in-memory data storage and distributed computing frameworks. However, these new concepts require adoption of entirely new technologies. 3.5.4 Data science skills For IT departments to implement Big Data projects therefore requires a thorough evaluation of established and new technology components. It needs to be established whether these components can support a particular use case, and whether existing investments can be scaled up for higher performance. For example, in-memory databases (such as the SAP HANA system) are very fast but have a limited volume of data storage, while distributed computing frameworks (such as the Apache Hadoop framework) are able to scale out to a huge number of nodes but at the cost of delayed data consistency across multiple nodes. A key to successful Big Data implementation is mastery of the many data analysis and manipulation techniques that turn vast raw data into valuable information. The skillful application of computational mathematics makes In summary, these are the five success factors that must be in place for organizations to leverage data for better business performance. Big Data is ready to be used. Outlook OUTLOOK Looking ahead, there are admittedly numerous obstacles to overcome (data quality, privacy, and technical feasibility, to name just a few) before Big Data has pervasive influence in the logistics industry. But in the long run, these obstacles are of secondary importance because, first and foremost, Big Data is driven by entrepreneurial spirit. Several organizations have led the way for us Google, Amazon, Facebook, and eBay, for example, have already succeeded in turning extensive information into business. Now we are beginning to see first movers in the logistics sector. These are the entrepreneurial logistics providers that refuse to be left behind the opportunity-oriented organizations prepared to exploit data assets in pursuit of the applications described in this trend report. But apart from the leading logistics providers that implement specific Big Data opportunities, how will the entire logistics sector transform into a data-driven industry What evolution can we anticipate in a world where virtually every single shipped item is connected to the Internet We may not know all of the answers right now. But this trend report has shown there is plenty of headroom for valuable Big Data innovation. Joining resources, labor, and capital, it is clear that information has become the fourth production factor and essential to competitive differentiation. It is time to tap the potential of Big Data to improve operational efficiency and customer experience, and create useful new business models. It is time for a shift of mindset, a clear strategy and application of the right drilling techniques. Over the next decade, as data assumes its rightful place as a key driver in the logistics sector, every activity within DHL is bound to get smarter, faster, and more efficient. 29 FOR MORE INFORMATION About Big Data in Logistics, contact: RECOMMENDED READING LOGISTICS TREND RADAR Dr. Markus Kckelhaus DHL Customer Solutions amp Innovation Junkersring 57 53844 Troisdorf, Germany Phone: 49 2241 1203 230 Mobile: 49 152 5797 0580 e-mail: markus. kueckelhausdhl Katrin Zeiler DHL Customer Solutions amp Innovation Junkersring 57 53844 Troisdorf, Germany Phone: 49 2241 1203 235 Mobile: 49 173 239 0335 e-mail: katrin. zeilerdhl dhltrendradar KEY LOGISTICS TRENDS IN LIFE SCIENCES 2020 dhllifesciences2020. View Full Document This document was uploaded on 11302016 for the course MS 6721 at City University of Hong Kong. Click to edit the document details Share this link with a friend: Most Popular Documents for MS 6721 8NetworkReadingSciRep2012.pdf City University of Hong Kong MS 6721 - Winter 2016 Understanding Road Usage Patterns in Urban Areas SUBJECT AREAS: APPLIED PHYSICS CIVIL 7Network. pdf City University of Hong Kong MS 6721 - Winter 2016 1 SUPPLY CHAIN MANAGEMENT Lecture 7 Network and Graph Qingpeng ZHANG SEEM, City Unive 8NetworkReadingIJOPM2011.pdf City University of Hong Kong MS 6721 - Winter 2016 International Journal of Operations amp Production Management A complex network approac reading tasks2.docx City University of Hong Kong MS 6721 - Winter 2016 Summary Of Decision Support Systems nowsdays supply chain risks is becoming increasin MS6721.pdf City University of Hong Kong MS 6721 - Winter 2016 Form 2B City University of Hong Kong Information on a Course offered by Department of 3Demand. pdf City University of Hong Kong MS 6721 - Winter 2016 1 SUPPLY CHAIN MANAGEMENT Lecture 3 Demand Forecasting Qingpeng ZHANG SEEM, City Univ404 means the file is not found. Wenn du die Datei bereits hochgeladen hast, dann kann der Name falsch geschrieben werden oder in einem anderen Ordner. Andere mögliche Ursachen Sie können einen 404 Fehler für Bilder erhalten, weil Sie Hot Link Protection eingeschaltet haben und die Domain nicht auf der Liste der autorisierten Domains ist. Wenn du zu deiner temporären URL (ip username) gehst und diesen Fehler bekommst, gibt es vielleicht ein Problem mit dem Regelsatz, der in einer. htaccess-Datei gespeichert ist. Sie können versuchen, diese Datei in. htaccess-backup umzubenennen und die Website zu aktualisieren, um zu sehen, ob das das Problem behebt. Es ist auch möglich, dass Sie Ihr Dokument root versehentlich gelöscht haben oder Ihr Konto möglicherweise neu erstellt werden muss. So oder so, bitte kontaktieren Sie Ihren Web-Host sofort. Verwenden Sie WordPress Sehen Sie den Abschnitt auf 404 Fehler nach dem Klicken auf einen Link in WordPress. Fehlende oder defekte Dateien Wenn Sie einen 404-Fehler erhalten, sollten Sie die URL, die Sie in Ihrem Browser verwenden möchten, überprüfen. Dies sagt dem Server, welche Ressource es zu beantragen versucht. In diesem Beispiel muss die Datei in publichtmlexampleExample sein. Beachten Sie, dass das CaSe in diesem Beispiel wichtig ist. Auf Plattformen, die die Groß - und Kleinschreibung erzwingen, sind es nicht die gleichen Orte. Für Addon-Domains muss die Datei in publichtmladdondomainexampleExample sein und die Namen sind zwischen Groß - und Kleinschreibung unterschieden. Broken Image Wenn Sie ein fehlendes Bild auf Ihrer Website haben, sehen Sie ein Feld auf Ihrer Seite mit einem roten X, wo das Bild fehlt. Klicken Sie mit der rechten Maustaste auf das X und wählen Sie Eigenschaften. Die Eigenschaften werden Ihnen den Pfad und den Dateinamen angeben, der nicht gefunden werden kann. Dies variiert per Browser, wenn Sie nicht sehen, ein Feld auf Ihrer Seite mit einem roten X versuchen Sie mit der rechten Maustaste auf die Seite, dann wählen Sie View Page Info, und auf die Registerkarte Media. In diesem Beispiel muss die Bilddatei in publichtmlcgi-sysimages sein. Beachten Sie, dass das CaSe in diesem Beispiel wichtig ist. Auf Plattformen, die die Groß - / Kleinschreibung erfordern PNG und png sind nicht die gleichen Standorte. Bei der Arbeit mit WordPress können 404 Page Not Found Fehler oft auftreten, wenn ein neues Thema aktiviert wurde oder wenn die Rewrite-Regeln in der. htaccess-Datei geändert wurden. Wenn du einen 404-Fehler in WordPress findest, hast du zwei Möglichkeiten, sie zu korrigieren. Option 1: Korrigieren Sie die Permalinks Melden Sie sich bei WordPress an. Klicken Sie im linken Navigationsmenü in WordPress auf Einstellungen gt Permalinks (Beachten Sie die aktuelle Einstellung. Wenn Sie eine benutzerdefinierte Struktur verwenden, kopieren oder speichern Sie die benutzerdefinierte Struktur irgendwo.) Wählen Sie Standard. Klicken Sie auf Einstellungen speichern. Ändern Sie die Einstellungen wieder in die vorherige Konfiguration (bevor Sie Standard ausgewählt haben). Setzen Sie die benutzerdefinierte Struktur zurück, wenn Sie eine hatten. Klicken Sie auf Einstellungen speichern. Dies wird die Permalinks zurücksetzen und das Problem in vielen Fällen beheben. Wenn dies nicht funktioniert, müssen Sie Ihre. htaccess-Datei direkt bearbeiten. Option 2: Ändern der. htaccess-Datei Fügen Sie das folgende Snippet von Code an die Spitze Ihrer. htaccess-Datei: BEGIN WordPress ltIfModule modrewrite. cgt RewriteEngine On RewriteBase RewriteRule index. php - L RewriteCond - f RewriteCond - d RewriteRule. Index. php L ltIfModulegt End WordPress Wenn dein Blog den falschen Domainnamen in Links zeigt, auf eine andere Website umleitet oder Bilder und Stil fehlt, sind diese in der Regel mit demselben Problem verknüpft: Du hast den falschen Domainnamen, der in deinem konfiguriert ist WordPress Blog. Die. htaccess-Datei enthält Anweisungen (Anweisungen), die dem Server mitteilen, wie man sich in bestimmten Szenarien verhält und direkt beeinflusst, wie deine Website funktioniert. Redirects und Rewriting URLs sind zwei sehr häufige Richtlinien in einer. Htaccess-Datei gefunden, und viele Scripts wie WordPress, Drupal, Joomla und Magento fügen Sie Anweisungen zum. htaccess hinzu, damit diese Skripts funktionieren können. Es ist möglich, dass Sie die. htaccess-Datei an einem gewissen Punkt aus verschiedenen Gründen bearbeiten müssen. Dieser Abschnitt behandelt, wie die Datei in cPanel zu bearbeiten ist, aber nicht, was möglicherweise geändert werden muss. (Möglicherweise müssen Sie andere Artikel und Ressourcen für diese Informationen.) Es gibt viele Möglichkeiten, eine. htaccess-Datei zu bearbeiten Bearbeiten Sie die Datei auf Ihrem Computer und laden Sie sie auf den Server über FTP Verwenden Sie einen FTP-Programmen Bearbeitungsmodus Verwenden Sie SSH und einen Texteditor Verwenden Sie den Dateimanager in cPanel Am einfachsten Weg, um eine. htaccess-Datei für die meisten Menschen zu bearbeiten ist durch den Dateimanager in cPanel. So bearbeiten Sie. htaccess-Dateien in cPanels File Manager Bevor Sie etwas tun, wird vorgeschlagen, dass Sie Ihre Website sichern, so dass Sie wieder auf eine vorherige Version zurückkehren können, wenn etwas schief geht. Öffnen Sie den Dateimanager-Log in cPanel. Klicken Sie im Abschnitt Dateien auf das Dateimanager-Symbol. Aktivieren Sie das Kontrollkästchen für Dokument Root und wählen Sie aus dem Dropdown-Menü den Domainnamen aus, den Sie aufrufen möchten. Vergewissern Sie sich, dass Hidden Files (dotfiles) markiert ist. Klicken Sie auf Go. Der Dateimanager wird in einem neuen Tab oder Fenster geöffnet. Suchen Sie die. htaccess-Datei in der Liste der Dateien. Möglicherweise müssen Sie blättern, um es zu finden. Um die. htaccess-Datei zu bearbeiten, klicken Sie mit der rechten Maustaste auf die. htaccess-Datei und klicken Sie im Menü auf Code Edit. Alternativ können Sie auf das Symbol für die. htaccess-Datei klicken und dann auf das Code-Editor-Symbol oben auf der Seite klicken. Eine Dialogbox erscheint möglicherweise bei der Codierung. Klicken Sie auf Bearbeiten, um fortzufahren. Der Redakteur wird in einem neuen Fenster geöffnet. Bearbeiten Sie die Datei nach Bedarf. Klicken Sie auf Save Changes in der oberen rechten Ecke, wenn Sie fertig sind. Die Änderungen werden gespeichert. Testen Sie Ihre Website, um sicherzustellen, dass Ihre Änderungen erfolgreich gespeichert wurden. Wenn nicht, korrigieren Sie den Fehler oder kehren Sie zur vorherigen Version zurück, bis Ihre Website wieder funktioniert. Once complete, you can click Close to close the File Manager window. Introduction. Lecture BigData Analytics. Julian M. Kunkel. 1 Introduction Lecture BigData Analytics Julian M. Kunkel University of Hamburg German Climate Computing Center (DKRZ) 2 Outline 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 3 About DKRZ German Climate Computing Center (DKRZ) Partner for Climate Research Maximum Compute Performance. Sophisticated Data Management. Competent Service. Julian M. Kunkel Lecture BigData Analytics, 51 4 Introduction BigData Challenges Analytical Workflow Use Cases Programming Summary Scientific Computing Research Group of Prof. Ludwig at the University of Hamburg Embedded into DKRZ Research Analysis of parallel IO Alternative IO interfaces IO amp energy tracing tools Data reduction techniques Middleware optimization Cost amp energy efficiency Julian M. Kunkel Lecture BigData Analytics, 51 5 Lecture Concept of the lecture The lecture is focussing on applying technology and some theory Theory Data models and processing concepts Algorithms and data structures System architectures Statistics and machine learning Applying technology Learning about various state-of-the art technology Hands-on for understanding the key concepts Languages: Java, Python, R The domain of big data is overwhelming, especially in terms of technology It is a crash course for several topics such as statistics and databases it is not the goal to learn and understand every aspect in this lecture Julian M. Kunkel Lecture BigData Analytics, 51 6 Lecture (2) Slides Many openly accessable sources have been used Citation to them by a number The reference slide provides the link to the source For figures, a reference is indicated by Source: Author 1 title ref In the title, an ref means that this reference has been used for the slide, some text may be taken literally Excercise Weekly delivery, processing time about 8 hours per week estimated Teamwork of 2 or 3 people (groups are mandatory) Supported by: Hans Ole Hatzel 1 If available Julian M. Kunkel Lecture BigData Analytics, 51 7 Idea of BigData Methods of obtaining knowledge (Erkenntnissprozess) Theory (model), hypothesis, experiment, analysis (repeat) Explorative: start theory with observations of phenomena Constructivism: starts with axioms and reason implications The Fourth Paradigm (Big) Data Analytics Insight (prediction of the future) For industry: insight business advantage and money. Analytics: follow an explorative approach and study the data To infer knowledge, use statistics machine learning Construct a theory (model) and validate it with the data Julian M. Kunkel Lecture BigData Analytics, 51 8 Example Models Similarity is a (very) simplistic model and predictor for the world Humans use this approach in their cognitive process Uses the advantage of BigData Weather prediction You may develop and rely on complex models of physics Or use a simple model for a particular day e. g. expect it to be similar to the weather of the day over the last X years Used by humans: rule of thumb for farmers Preferences of Humans Identify a set of people which liked items you like Predict you like also the items those people like (items you haven t rated so far) Julian M. Kunkel Lecture BigData Analytics, 51 9 Relevance of Big Data Big Data Analytics is emerging Relevance increases compared to supercomputing Google Search Trends, relative searches Julian M. Kunkel Lecture BigData Analytics, 51 10 1 Introduction 2 BigData Challenges Volume Velocity Variety Veracity Value 3 Analytical Workflow 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 11 BigData Challenges amp Characteristics Source: MarianVesper 4 Julian M. Kunkel Lecture BigData Analytics, 51 12 Volume: The size of the Data What is Big Data Terrabytes to 10s of petabytes What is not Big Data A few gigabytes Examples Wikipedia corpus with history ca. 10 TByte Wikimedia commons ca. 23 TByte Google search index ca. 46 Gigawebpages 2 YouTube per year 76 PByte ( ) 2 3 sumanrs. wordpress20120414youtube-yearly-costs-for-storagenetworking-estimate Julian M. Kunkel Lecture BigData Analytics, 51 13 Velocity: Data Volume per Time What is Big Data 30 KiB to 30 GiB per second (902 GiByear to 902 PiByear) What is not Big Data A never changing data set Examples LHC (Cern) with all experiments about 25 GBs 4 Square Kilometre Array 700 TBs (in 2018) 5 50k Google searches per s 6 Facebook 30 Billion content pieces shared per month blog. kissmetricsfacebook-statistics Julian M. Kunkel Lecture BigData Analytics, 51 14 Data Sources Enterprise data Serves business objectives, well defined Customer information Transactions, e. g. Purchases ExperimentalObservational data (EOD) Created by machines from sensorsdevices Trading systems, satellites Microscopes, video streams, Smart meters Social media Created by humans Messages, posts, blogs, Wikis Julian M. Kunkel Lecture BigData Analytics, 51 15 Variety: Types of Data Structured data Like tables with fixed attributes Traditionally handled by relational databases Unstructured data Usually generated by humans E. g. natural language, voice, Wikipedia, Twitter posts Must be processed into (semi-structured) data to gain value Semi-structured data What is Big Data Has some structure in tags but it changes with documents E. g. HTML, XML, JSON files, server logs Use data from multiple sources and in multiple forms Involve unstructured and semi-structured data Julian M. Kunkel Lecture BigData Analytics, 51 16 Veracity: Trustworthiness of Data What is Big Data Data involves some uncertainty and ambiguities Mistakes can be introduced by humans and machines People sharing accounts Like sth. today, dislike it tomorrorw Wrong system timestamps Data Quality is vital Analytics and conclusions rely on good data quality Garbage data perfect model gt garbage results Perfect data garbage model gt garbage results GIGO paradigm: Garbage In Garbage Out Julian M. Kunkel Lecture BigData Analytics, 51 17 Value of Data What is Big Data Raw data of Big Data is of low value For example, single observations Analytics and theory about the data increases the value Analytics transform big data into smart data Julian M. Kunkel Lecture BigData Analytics, 51 18 Types of Data Analytics and Value of Data 1 Descriptive analytics (Beschreiben) What happened 2 Diagnostic analytics Why did this happen, what went wrong 3 Predictive analytics (Vorhersagen) What will happen 4 Prescriptive analytics (Empfehlen) What should we do and why The level of insight and value of data increases from step 1 to 4 Julian M. Kunkel Lecture BigData Analytics, 51 19 Introduction BigData Challenges Analytical Workflow Use Cases Programming Summary The Value of Data (alternative view) Source: Dursun Delen, Haluk Demirkan 9 Julian M. Kunkel Lecture BigData Analytics, 51 20 The Value of Data (alternative view 2) Source: Forrester report. Understanding The Business Intelligence Growth Opportunity Julian M. Kunkel Lecture BigData Analytics, 51 21 1 Introduction 2 BigData Challenges 3 Analytical Workflow Value Chain Roles Privacy 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 22 Big Data Analytics Value Chain There are many visualizations of the processing and value chain 8 Source: Andrew Stein 8 Julian M. Kunkel Lecture BigData Analytics, 51 23 Big Data Analytics Value Chain (2) Source: Miller and Mork 7 Julian M. Kunkel Lecture BigData Analytics, 51 24 Roles in the Big Data Business Data scientist Data science is a systematic method dedicated to knowledge discovery via data analysis 1 In business, optimize organizational processes for efficiency In science, analyze experimentalobservational data to derive results Data engineer Data engineering is the domain that develops and provides systems for managing and analyzing big data Build modular and scalable data platforms for data scientists Deploy big data solutions Julian M. Kunkel Lecture BigData Analytics, 51 25 Typical Skills Data scientist Statistics (Mathematics) Computer science Programming e. g. Java, Python, R, (SAS. ) Machine learning Some domain knowledge for the problem to solve Data engineer Computer science Databases Software engineering Massively parallel processing Real-time processing Languages: C, Java, Python Understand performance factors and limitations of systems Julian M. Kunkel Lecture BigData Analytics, 51 26 Data Science vs. Business Intelligence (BI) Characteristics of BI Provides pre-created dashboards for management Repeated visualization of well known analysis steps Deals with structured data Typically data is generated within the organization Central data storage (vs. multiple data silos) Handeled well by specialized database techniques Typical types of insight Customer service data: what business causes the largest customer wait times Sales and marketing data: which marketing is most effective Operational data: efficiency of the help desk Employee performance data: who is mostleast productive Julian M. Kunkel Lecture BigData Analytics, 51 27 Privacy Be aware of privacy issues if you deal with personalprivate information. German privacy laws are more strict than those of other countries Ziel des Datenschutzes Recht auf informationelle Selbstbestimmung Schutz des Einzelnen vor beeintraumlchtigung des Persoumlnlichkeitsrechts durch den Umgang mit seinen personenbezogenen 8 Daten Besonderer Schutz fuumlr Daten uumlber Gesundheit, ethnische Herkunft, religioumlse, gewerkschaftschliche oder sexuelle Orientierung 8 3 BDSG, Einzelangaben uumlber persoumlnliche oder sachliche Verhaumlltnisse einer bestimmten oder bestimmbaren natuumlrlichen Person Julian M. Kunkel Lecture BigData Analytics, 51 28 Wichtige Grundsaumltze des Gesetzes 10 Verbotsprinzip mit Erlaubsnisvorbehalt Erhebung, Verarbeitung, Nutzung und Weitergabe von personenbezogenen Daten sind verboten Nutzung nur mit Rechtsgrundlage oder mit Zustimmung der Person Unternehmen mit 10 Personen benoumltigen Datenschutzbeauftragten Verfahren zur automatischen Verarbeitung sind vom Datenschutzbeauftragten zu pruumlfen und anzeigepflichtig Sitz der verantwortlichen Stelle maszliggeblich Bei einer Niederlassung in D gilt BDSG Prinzipien: Datenvermeidung, - sparsamkeit Schutz vor Zugriffen, Aumlnderungen und Weitergabe Betroffene haben Recht auf Auskunft, Loumlschung oder Sperrung AnonymisierungPseudonymisierung: Ist die Zuordnung zu Einzelpersonen (nahezu) ausgeschlossen, so koumlnnen Daten verabeitet werden Julian M. Kunkel Lecture BigData Analytics, 51 29 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases Overview 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 30 Source: 21 Julian M. Kunkel Lecture BigData Analytics, 51 31 Use Cases for BigData Analytics Increase efficiency of processes and systems Advertisement: Optimize for target audience Product: Acceptance (likedislike) of buyer, dynamic pricing Decrease financial risks: fraud detection, account takeover Insurance policies: Modeling of catastrophes Recommendation engine: Stimulate purchaseconsume Systems: Fault prediction and anomaly detection Supply chain management Science Epidemiology research: Google searches indicate Flu spread Personalized Healthcare: Recommend good treatment Physics: Finding the Higgs-Boson, analyze telescope data Enabler for social sciences: Analyze people s mood Julian M. Kunkel Lecture BigData Analytics, 51 32 Big Data in Industry Source: 20 Julian M. Kunkel Lecture BigData Analytics, 51 33 Example Use Case: Deutschland Card 2 Goals Customer bonus card which tracks purchases Increase scalability and flexibility Previous solution based on OLAP Big Data Characteristics Volume: O(10) TB Variety: mostly structured data, schemes are extended steadily Velocity: data growth rate O(100) GB month Results Much better scalability of the solution From dashboards to ad-hoc analysis within minutes Julian M. Kunkel Lecture BigData Analytics, 51 34 Example Use Case: DM 2 Goals Predict required employees per day and store Prevent staff changes on short-notice Big Data Characteristics Results Input data: Opening hours, incoming goods, empl. preferences, holidays, weather. Model: NeuroBayes (Bayes neuronal networks) Predictions: Sales, employee planning predictions per week Daily updated sales per store Reliable predictions for staff planning Customer and employee satisfaction Julian M. Kunkel Lecture BigData Analytics, 51 35 Example Use Case: OTTO 2 Goals Optimize inventory and prevent out-of-stock situations Big Data Characteristics Input data: product characteristics, advertisement VolumeVelocity: 135 GBweek, 300 million records Model: NeuroBayes (Bayes neuronal networks) 1 billion predictions per year Results Better prognostics of product sales (up to 40) Real time data analytics Julian M. Kunkel Lecture BigData Analytics, 51 36 Example Use Case: Smarter Cities (by KTH) 2 Goals Improve traffic management in Stockholm Prediction of alternative routes Big Data Characteristics Input data: Traffic videossensors, weather, GPS VolumeVelocity: 250k GPS-datas other data sources Results 20 less traffic 50 reduction in travel time 20 less emissions Julian M. Kunkel Lecture BigData Analytics, 51 37 Example Facebook Studies Insight from 11 by exploring posts Young narcissists tweet more likely. Middle-aged narcissists update their status US students post more problematic information than German students US Government checks tweetsfacebook messages for several reasons Human communication graph has an average diameter of 4.74 Manipulation of news feeds 13 News feeds have been changed to analysis people s behavior in subsequent posts Paper: Experimental evidence of massive-scale emotional contagion through social networks Julian M. Kunkel Lecture BigData Analytics, 51 38 From Big Data to the Data Lake 20 With cheap storage costs, people promote the concept of the data lake Combines data from many sources and of any type Allows for conducting future analysis and not miss any opportunity Attributes of the data lake Collect everything: all data, both raw sources over extended periods of time as well as any processed data Decide during analysis which data is important, e. g. no schema until read Dive in anywhere: enable users across multiple business units to refine, explore and enrich data on their terms Flexible access: enable multiple data access patterns across a shared infrastructure: batch, interactive, online, search, and others Julian M. Kunkel Lecture BigData Analytics, 51 39 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases 5 Programming Java Python R 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 40 Programming BigData Analytics High-level concepts SQL and derivatives Domain-specific languages (Cypher, PigLatin) Programming languages Java interfaces are widely available but low-level Python and R have connectors to popular BigData solutions In the exercises, we ll learn and use basics of those languagesinterfaces Julian M. Kunkel Lecture BigData Analytics, 51 41 Introduction to Java Developed by Sun Microsystems in 1995 Object oriented programming language OpenJDK implementation is open source Source code byte code just-in-time compiler Byte code is portable amp platform independent Virtual machine abstracts from systems Strong and static type system Popular language for Enterprise amp Big Data applications Most popular programming language (Pos. 1 on the TIOBE index) Development tools: Eclipse Specialties Good runtime and compile time error reporting Generic data types (vs. templates of C) Introspection via. Reflection Julian M. Kunkel Lecture BigData Analytics, 51 44 Introduction to Python Open source Position 5 on TIOBE index Interpreted language Weak type system (errors at runtime) Development tools: any editor, interactive shell Note: Use and learn python3 explicitly Recommended plotting library: matplotlib 9 Specialties Strong text processing Simple to use Support for object oriented programming Indentation is relevant for code blocks 9 Julian M. Kunkel Lecture BigData Analytics, 51 45 Example Python Program 1 binenv python 2 import re use the module re 3 4 function reading a file 5 def readfile(filename): 6 with open(filename, r ) as f: 7 data f. readlines() 8 f. close() 9 return data 10 return return an empty arraylist the main function 13 if name quot main quot: 14 data readfile( intro. py ) 15 iterate over the array 16 for x in data: 17 extract imports from a python file using a regex 18 m re. match(quotimport t(pltwhatgt )quot, x) 19 if m: 20 print(m. group(quotwhatquot)) 21 dictionary (key value pair) 22 dic m. groupdict() 23 dic. update( ) append a new dict. with one key 24 use format string with dictionary 25 print(quotfound import (WHAT)s in file (FILE)squot dic ) 26 Prints: Found import re in file intro. py Julian M. Kunkel Lecture BigData Analytics, 51 46 Example Python Classes 1 from abc import abstractmethod 2 3 class Animal(): 4 constructor, self are instance methods, else class methods 5 def init (self, weight): 6 self. weight weight private variables start with 7 8 decorator 10 def name(self): 11 return self. class. name reflection like def str (self): 14 return quotI m a s with weight fquot (self. name(), self. weight) class Rabbit(Animal): 17 def init (self): 18 super() is available with python 3 19 super(). init (2.5) def name(self): 22 return quotSmall Rabbitquot override name if name quot main quot: 25 r Rabbit() 26 print(r) print: I m a Small Rabbit with weight Julian M. Kunkel Lecture BigData Analytics, 51 47 Introduction to R Based on S language for statisticians Open source Position 19 on TIOBE index Interpreter with C modules (packages) Easy installation of packages via CRAN 10 Popular language for data analytics Development tools: RStudio (or any editor), interactive shell Recommended plotting library: ggplot2 11 Specialties Vectormatrix operations. Note: Loops are slow, so avoid them Table data structure (data frames) 10 Comprehensive R Archive Network 11 Julian M. Kunkel Lecture BigData Analytics, 51 48 Course for Learning R Programming 1 Run with quotRscript intro. rquot or run quotRquot and copyamppaste into interactive shell 2 Installing a new package is as easy as: 3 install. packages(quotswirlquot) 4 Note: sometimes packages are not available on all mirrors 5 library(swirl) load the package 6 7 help(swirl) read help about the function swirl swirl() start an interactive course to learn R 11 a simple for loop 12 for (x in 1:10) else 18 Julian M. Kunkel Lecture BigData Analytics, 51 49 Example R Program 1 create an array 2 x c(1, 2, 10:12) 3 4 apply an operator on the full vector and output it 5 print( x2 ) prints: slice arrays 8 print ( x3:5 ) prints: print( xc(1,4,8) ) prints: 1 11 NA r runif(100, min0, max100) create array with random numbers 12 m matrix(r, ncol4, byrow TRUE) create a matrix slice matrix rows quotmrow(s), column(s)quot 15 print( m10:12, ) Output: 16 ,1 ,2 ,3 ,4 17 1, 2, 3, slice rows amp columns 22 print ( m10, c(1,4) ) Output: 1 subset the table based on a mask 25 set m (m,1 lt 20 amp m,2 gt 2), Julian M. Kunkel Lecture BigData Analytics, 51 51 Summary Big data analytics Explore data and model causalities to gain knowledge amp value Challenges: 5 Vs Volume, velocity, variety, veracity, value Data sources: Enterprise, humans, Exp. Observational data (EOD) Types of data: Structured, unstructured and semi-structured Levels of analytics: Descriptive, predictive and prescriptive Roles in big data business: Data scientist and engineer Data science business intelligence Julian M. Kunkel Lecture BigData Analytics, 51 52 Bibliography 1 Book: Lillian Pierson. Data Science for Dummies. John Wiley amp Sons 2 Report: Juumlrgen Urbanski et. al. Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte. BITKOM 3 4 Forrester Big Data Webinar. Holger Kisker, Martha Bennet. Big Data: Gold Rush Or Illusion Gilbert Miller, Peter Mork From Data to Decisions: A Value Chain for Big Data. 8 Andrew Stein. The Analytics Value Chain. 9 Dursun Delen, Haluk Demirkan. Decision Support Systems, Data, information and analytics as services. j.mp11bl9b9 10 Wikipedia 11 Kashmir Hill. 46 Things We ve Learned From Facebook Studies. Forbe. 12 Hortonworks Julian M. Kunkel Lecture BigData Analytics, 51
No comments:
Post a Comment