Data Science für Dummies

 
 
Wiley-VCH (Verlag)
  • erschienen am 22. April 2016
  • |
  • 382 Seiten
 
E-Book | ePUB mit Adobe-DRM | Systemvoraussetzungen
978-3-527-80675-1 (ISBN)
 
Daten, Daten, Daten? Sie haben schon Kenntnisse in Excel und Statistik, wissen aber noch nicht, wie all die Datensätze helfen sollen, bessere Entscheidungen zu treffen? Von Lillian Pierson bekommen Sie das dafür notwendige Handwerkszeug: Bauen Sie Ihre Kenntnisse in Statistik, Programmierung und Visualisierung aus. Nutzen Sie Python, R, SQL, Excel und KNIME. Zahlreiche Beispiele veranschaulichen die vorgestellten Methoden und Techniken. So können Sie die Erkenntnisse dieses Buches auf Ihre Daten übertragen und aus deren Analyse unmittelbare Schlüsse und Konsequenzen ziehen.
1. Auflage
  • Deutsch
  • Berlin
  • |
  • Deutschland
  • 18,01 MB
978-3-527-80675-1 (9783527806751)
weitere Ausgaben werden ermittelt
Lillian Pierson arbeitet als Datenanalystin und Umweltingenieurin. Sie gründete die Firma Data Mania, die Inhouse-Schulungen, Onlinekurse und Workshops rund um das Thema Datenanalyse anbietet.
  • Intro
  • Data Science für Dummies - Schummelseite
  • Titel
  • Impressum
  • Über die Autorin
  • Vorwort
  • Einleitung
  • Über dieses Buch
  • Törichte Annahmen
  • In diesem Buch verwendete Symbole
  • Wo Sie starten
  • Teil I: Mit Data Science beginnen
  • Kapitel 1: Bei Data Science durchblicken
  • Schauen, wer von Data Science Gebrauch machen kann
  • Die Teile des Data-Science-Puzzles betrachten
  • Daten sammeln, abfragen und bearbeiten
  • Von der Mathematik und Statistik Gebrauch machen
  • Programmierung: Teil des Spiels
  • Data Science in Ihrem Fachgebiet anwenden
  • Einblicke kommunizieren
  • Die Grundlagen schaffen
  • Mögliche Vorgehensweisen klären
  • Die offensichtlichen Gewinne ermitteln
  • Kapitel 2: Data Engineering: Infrastruktur erkunden
  • Big Data definieren
  • Mit dem Datenvolumen ringen
  • Die Datengeschwindigkeit handhaben
  • Die Datenvielfalt behandeln
  • Den Datenwert erzeugen
  • Big-Data-Datenquellen bestimmen
  • Den Unterschied zwischen Data Science und Data Engineering verstehen
  • Data Science definieren
  • Data Engineering definieren
  • Ein Vergleich zwischen Data Scientists und Data Engineers
  • Datensätze mit MapReduce und Hadoop reduzieren
  • In MapReduce einarbeiten
  • Hadoop verstehen
  • Alternative Lösungen für Probleme mit Big Data betrachten
  • Die Echtzeitverarbeitung einführen
  • Massenparallelrechner verwenden
  • In NoSQL-Datenbanken einarbeiten
  • Data Engineering im Einsatz - Eine Fallstudie
  • Die Geschäftsherausforderung erkennen
  • Geschäftsprobleme mit Data Engineering lösen
  • Erfolge aufweisen
  • Kapitel 3: Data Science in Unternehmen und Industrie einsetzen
  • Datengesteuerte Einblicke in die Geschäftsabläufe einbinden
  • Von geschäftsbezogener Data Science profitieren
  • Datenanalyse zur Umwandlung von Rohdaten in umsetzbare Einsichten
  • Etwas mit den Geschäftsdaten unternehmen
  • Business Intelligence und Data Science unterscheiden
  • Business Intelligence definieren
  • Geschäftsbezogene Data Science definieren
  • Die Hauptunterschiede zwischen BI und geschäftsbezogener Data Science zusammenfassen
  • Wissen, wen man holt, um die Arbeit zu erledigen
  • Data Science im Geschäftsleben: Eine datengesteuerte Erfolgsgeschichte
  • Teil II: Die Bedeutung Ihrer Daten mit Data Science erkennen
  • Kapitel 4: Wahrscheinlichkeit und Statistik einführen
  • Die grundlegenden Konzepte der Wahrscheinlichkeit vorstellen
  • Die Beziehung zwischen Wahrscheinlichkeit und induktiver Statistik
  • Zufallsvariablen, Wahrscheinlichkeitsverteilungen und Erwartungswerte verstehen
  • Gängige Wahrscheinlichkeitsverteilungen kennenlernen
  • Die lineare Regression einführen
  • Einfache Modelle zur linearen Regression
  • Lernen, eine angepasste Regressionsgerade zu erstellen
  • Die Methode der kleinsten Quadrate
  • Simulationen
  • Mit Simulationen Eigenschaften von Testgrößen beurteilen
  • Mit der Monte-Carlo-Simulation einen Schätzwert beurteilen
  • Die Zeitreihenanalyse einführen
  • Muster in Zeitreihen verstehen
  • Die univariate Varianzanalyse modellieren
  • Kapitel 5: Clustering-Verfahren und Klassifikation
  • Die Grundlagen von Cluster-Verfahren und Klassifikation einführen
  • Clustering-Algorithmen kennenlernen
  • Klassifikations-Algorithmen kennenlernen
  • Metriken kennenlernen
  • Cluster in Ihren Daten erkennen
  • Mit dem k-Means-Algorithmus Clusteranalyse betreiben
  • Cluster mit der Kerndichteschätzung abschätzen
  • Hierarchische Algorithmen und Algorithmen zur sortierten Nachbarschaft einsetzen
  • Daten mit Entscheidungsbäumen und Random-Forest-Algorithmen kategorisieren
  • Kapitel 6: Clusteranalyse und Klassifikation mit Nearest-Neighbor-Verfahren
  • Die Bedeutung der Daten mit Nearest-Neighbor-Analysen erkennen
  • Die Wichtigkeit der Clusteranalyse und der Klassifikation erkennen
  • Daten mit Gemittelter-Nearest-Neighbor-Algorithmen klassifizieren
  • Verstehen, wie der Gemittelter-Nearest-Neighbor-Algorithmus funktioniert
  • Die Klassifikation mit k-Nearest-Neighbor-Algorithmen
  • Die Arbeitsweise des k-Nearest-Neighbor-Verfahrens verstehen
  • Wissen, wann man den k-Nearest-Neighbor-Algorithmus einsetzt
  • Gängige Anwendungen von k-Nearest-Neighbor-Algorithmen erkunden
  • Mit den Abständen der nächsten Nachbarn Schlussfolgerungen aus Datenpunkt-Mustern ziehen
  • Probleme der realen Welt mit Nearest-Neighbor-Algorithmen lösen
  • k-Nearest-Neighbor-Algorithmen im Einsatz erleben
  • Gemittelter-Nearest-Neighbor-Algorithmen im Einsatz erleben
  • Kapitel 7: Mathematische Modellierung in der Datenwissenschaft
  • Die multikriterielle Entscheidungsanalyse (MCA) einführen
  • Die MCA im Einsatz betrachten und verstehen
  • Die Fuzzy-MCA anwenden
  • Wissen, wann und wie man die multikriterielle Entscheidungsanalyse einsetzt
  • Die Verwendung von numerischen Methoden in der Data Science
  • Über Taylorpolynome
  • Mit der Bisektion Funktionen halbieren
  • Mathematische Modellierung mit Markov-Ketten und stochastischen Methoden
  • Kapitel 8: Mit der Statistik Geodaten modellieren
  • Oberflächen aus Raumpunktdaten vorhersagen
  • Die Parameter x, y und z bei Geodaten verstehen
  • Kriging einführen
  • Automatische Kriging-Interpolationen
  • Modelle zur explizit definierten Kriging-Interpolation wählen und verwenden
  • Sich intensiver mit dem Kriging beschäftigen
  • Das beste Schätzverfahren beim Kriging wählen
  • Zur Bestimmung des besten Modells das Residuum untersuchen
  • Ihre Wahlmöglichkeiten bei Kriging-Verfahren kennen
  • Trendanalyse von Oberflächen
  • Teil III: Datenvisualisierungen mit klaren Aussagen
  • Kapitel 9: Den Prinzipien der Datenvisualisierung entsprechen
  • Die Arten der Visualisierung verstehen
  • Entscheidungsträgern die Geschichte hinter den Daten erzählen
  • Daten für Analytiker zur Geltung bringen
  • Datenkunst für Aktivisten
  • Ihre Zielgruppe in den Blick nehmen
  • Schritt 1: Ideenfindung für Steffi
  • Schritt 2: Bestimmen Sie Ihr Ziel
  • Schritt 3: Die für Ihr Ziel zweckmäßigste Visualisierungsart wählen
  • Das zweckmäßigste Design wählen
  • Mit dem Design eine analysierende und präzise Reaktion hervorrufen
  • Mit dem Design eine stark emotionale Reaktion hervorrufen
  • Wissen, wann man einen Zusammenhang darstellen muss
  • Daten verwenden, um Zusammenhänge herzustellen
  • Sinnzusammenhänge über Beschriftung herstellen
  • Grafische Elemente zur Herstellung von Sinnzusammenhängen verwenden
  • Wissen, wann man überzeugen muss
  • Eine passende Art von Grafik wählen
  • Standarddiagramme erklären
  • Vergleichende Grafiken erkunden
  • Statistische Diagramme erkunden
  • Topologische Strukturen erkunden
  • Räumliche Darstellungen und Karten erkunden
  • Ihre Grafik auswählen
  • Betrachten der Fragen
  • Berücksichtigung der Nutzer und der Medien
  • Einen letzten Blick auf die Arbeit werfen
  • Kapitel 10: D3.js zur Visualisierung von Daten verwenden
  • Einführung in die Bibliothek D3.js
  • Wissen, wann man D3.js verwenden sollte (und wann nicht)
  • Der Einstieg in D3.js
  • HTML und DOM einführen
  • JavaScript und SVG einführen
  • Cascading Style Sheets (CSS) einführen
  • Webserver und PHP einführen
  • Fortgeschrittene Konzepte und Methoden in D3.js verstehen
  • Kettensyntax kennenlernen
  • Skalen kennenlernen
  • Übergänge und Interaktionen kennenlernen
  • Kapitel 11: Webbasierte Anwendungen zur Daten-Visualisierung
  • Kollaborativ genutzte Visualisierungsplattformen
  • Mit Watson Analytics von IBM arbeiten
  • Visualisieren und Kollaborieren mit Plotly
  • Geodaten mit geografischen Tools visualisieren
  • Schöne Karten mit OpenHeatMap herstellen
  • Das Erstellen von Karten und die Untersuchung von Geodaten mit CartoDB
  • Webbasierte Open-Source-Plattformen zur Datenvisualisierung
  • Mit Google Fusion Tables schöne Grafiken erstellen
  • iCharts zur webbasierten Visualisierung verwenden
  • RAW zur webbasierten Visualisierung verwenden
  • Wissen, wann man Infografiken verwendet
  • Mit Infogr.am fetzige Infografiken erstellen
  • Fetzige Grafiken mit Piktochart erstellen
  • Kapitel 12: Die besten Techniken zum Erstellen eines Dashboards
  • Sich an der Zielgruppe orientieren
  • Mit dem großen Ganzen beginnen
  • Die Einzelheiten gut hinbekommen
  • Ihren Entwurf testen
  • Kapitel 13: Aus Geodaten Karten erstellen
  • In die Grundlagen von GIS einsteigen
  • Geodatenbanken verstehen
  • Dateiformate in GIS verstehen
  • Kartennetzentwürfe und Koordinatensysteme verstehen
  • Geodaten analysieren
  • Geodaten abfragen
  • Buffering und Nachbarschaftsfunktionen
  • Analysen basierend auf der Überlagerung einzelner Layer
  • Reklassifikation von Geodaten
  • Mit der Open-Source-Software QGIS arbeiten
  • Die Benutzeroberfläche von QGIS kennenlernen
  • In QGIS einen Vektorlayer hinzufügen
  • Anzeige der Daten in QGIS
  • Teil IV: Programmieren und Data Science
  • Kapitel 14: Python für Data Science verwenden
  • Die grundlegenden Konzepte von Python verstehen
  • Datentypen in Python
  • Schleifen in Python verwenden
  • Funktionen und Klassen kennenlernen
  • Enge Bekanntschaft mit einigen nützlichen Python-Bibliotheken schließen
  • Die Bibliothek NumPy
  • Mit SciPy vertraut werden
  • Zur Visualisierung von Daten MatPlotLib einbinden
  • Die Verwendung von Python zur Analyse von Daten - ein Beispiel
  • Python auf Mac OS und Windows installieren
  • CSV-Dateien laden
  • Einen gewichteten Mittelwert berechnen
  • Trendlinien zeichnen
  • Kapitel 15: Das frei zugängliche R in der Data Science benutzen
  • Die grundlegenden Konzepte einführen
  • Die grundlegenden Begriffe in R kennenlernen
  • Tiefer in Funktionen und Operatoren eintauchen
  • Iterieren in R
  • Beobachten, wie Objekte arbeiten
  • Vorschau auf die Pakete von R
  • Einige gefragte Pakete zur statistischen Analyse
  • Visualisierung, Kartierung und grafische Darstellung in R
  • Kapitel 16: SQL in Data Science verwenden
  • Mit SQL beginnen
  • Relationale Datenbanken und SQL in den Griff bekommen
  • Datenbanken entwerfen
  • SQL und seine Funktionen in Data Science verwenden
  • SQL, R, Python und Excel in Ihre Data-Science-Strategie integrieren
  • SQL-Funktionen in Data Science verwenden
  • Kapitel 17: Anwendungssoftware für Data Science
  • Das Leben mit Excel vereinfachen
  • Mit Excel die Daten schnell kennenlernen
  • Umformatieren und Zusammenfassen mit Pivot-Tabellen
  • Aufgaben von Excel mit Makros automatisieren
  • KNIME zur fortgeschrittenen Analyse von Daten verwenden
  • Die Kundenabwanderung mit KNIME verringern
  • Das Beste aus Daten sozialer Netzwerke machen
  • KNIME für eine ökologisch gute Verwaltung verwenden
  • Teil V: Probleme aus der Praxis mit Data Science lösen
  • Kapitel 18: Data Science im Journalismus verwenden
  • Die sechs Ws erklären
  • Überprüfen, wer
  • Überlegen, warum Ihr Artikel von Bedeutung ist
  • Zu dem kommen, was Sie sagen wollen
  • Wann ist der richtige Zeitpunkt?
  • Überlegen, wo Ihre Geschichte eine Rolle spielt
  • Überlegen, wie Sie Ihre Reportage entwickeln, formulieren und präsentieren
  • Daten für Ihre Reportage sammeln
  • Screen Scraping für Ihre Reportage nutzen
  • Alert-Dienste einsetzen
  • Die Geschichte hinter den Daten entdecken und erzählen
  • Außergewöhnliche Trends und Ausreißer entdecken
  • Den Kontext untersuchen, um die Signifikanz der Daten zu verstehen
  • Die Geschichte durch Ihre Visualisierung unterstreichen
  • Fesselnde und klar umrissene Reportagen erstellen
  • Den Datenjournalismus lebendig werden lassen: Der Artikel »Schwarze Kassen« in der Washington Post
  • Kapitel 19: Data Science und die Umwelt miteinander verbinden
  • Modellierung der Wechselwirkung zwischen Mensch und Umwelt anhand ökologischer Intelligenz
  • Die zu lösenden Probleme betrachten
  • Ökologische Intelligenz definieren
  • Wichtige Organisationen kennenlernen, die im Bereich der ökologischen Intelligenz arbeiten
  • Mit ökologischer Intelligenz positiven Einfluss ausüben
  • Natürliche Ressourcen im Urzustand modellieren
  • Die Modellierung von natürlichen Ressourcen erkunden
  • Sich an Data Science versuchen
  • Modellierung natürlicher Ressourcen zur Lösung von Umweltproblemen
  • Mit der Geostatistik Umweltbedingungen abhängig vom Raum vorhersagen
  • Mit der vorhersagenden Geoanalyse Umweltfragen behandeln
  • Den Anteil der Data Science erläutern
  • Die Geostatistik zur Behandlung von Umweltthemen verwenden
  • Kapitel 20: Mit Data Science das Wachstum des E-Commerce vorantreiben
  • Daten verstehen und für das Wachstum des E-Commerce einsetzen
  • Optimierung der beim Internethandel verwendeten Systeme
  • Analysemethoden kennenlernen
  • Ihre Strategien überprüfen
  • Segmentierung und Zielgruppenansprache tragen zum Erfolg bei
  • Kapitel 21: Data Science zur Beschreibung und Vorhersage krimineller Aktivitäten einsetzen
  • Räumliche Analyse zur Vorhersage und Verfolgung von Verbrechen
  • Die Kartografierung von Verbrechen mit GIS-Technologien
  • Einen Schritt weitergehen: Die Standortvorhersage
  • Komplexe räumliche Statistik zum besseren Verständnis von Verbrechen verwenden
  • Die Probleme untersuchen, die mit der Verwendung von Data Science zur Analyse von Verbrechen verbunden sind
  • Die Grundrechte berücksichtigen
  • Gegen technische Probleme kämpfen
  • Teil VI: Der Top-Ten-Teil
  • Kapitel 22: Zehn fantastische frei zugängliche Datenquellen
  • Sich in Data.gov vertiefen
  • Die frei zugänglichen Daten in Kanada ausprobieren
  • Die Webseite data.gov.uk untersuchen
  • Das Datenportal für Deutschland kennenlernen
  • Daten der NASA kennenlernen
  • Auf die Daten der Weltbank zugreifen
  • Sich mit Knoema Data bekannt machen
  • Sich bei Quandl Data in die Schlange stellen
  • Die Exversion-Daten erkunden
  • OpenStreetMap zur Kartierung verwenden
  • Kapitel 23: Etwa zehn freie Tools und Anwendungen zur Data Science
  • Das Erstellen individualisierter webbasierter Visualisierungen mit freien R-Paketen
  • Mit RStudio glänzen
  • rCharts zum Visualisieren verwenden
  • Mit rMaps kartieren
  • Weitere Tools zum Auslesen, Sammeln und Verarbeiten von Daten
  • Daten mit import.io extrahieren
  • Mit ImageQuilts Bilder sammeln
  • Sich Daten mit DataWrangler beschaffen
  • Weitere Tools zum Untersuchen von Daten testen
  • Über Tableau Public reden
  • Mit Gephi vorankommen
  • Maschinelles Lernen mit WEKA
  • Weitere webbasierte Visualisierungstools testen
  • Mit Weave arbeiten
  • Die Visualisierungsangebote von Knoema testen
  • Stichwortverzeichnis
  • Wiley End User License Agreement

Kapitel 1

Bei Data Science durchblicken

In diesem Kapitel

Data Science definieren

Data Science mithilfe seiner Schlüsselkomponenten definieren

Machbare Lösungen für Ihre eigenen Datenanforderungen bestimmen

Seit geraumer Zeit werden wir alle mit Daten total überschwemmt. Sie stammen von jedem Computer, jedem mobilen Gerät, jeder Kamera und jedem Sensor - und mittlerweile auch von Uhren und anderen tragbaren technischen Geräten. Sie werden bei jeder Aktion in den sozialen Netzwerken, bei jeder von uns gespeicherten Datei, bei jedem geschossenen Foto, jeder eingereichten Suchanfrage erzeugt. Auch wenn wir so etwas Einfaches machen, wie bei Google nach der nächsten Eisdiele zu suchen, entstehen viele Daten.

Obwohl das Eintauchen in Daten nichts Neues ist, haben Sie sicher bemerkt, dass sich das Phänomen beschleunigt. Seen, Pfützen und Flüsse von Daten haben sich in Fluten und wahre Tsunamis aus strukturierten, halbstrukturierten und nichtstrukturierten Daten verwandelt, die von fast jeder Aktivität ausströmen, die in der digitalen oder realen Welt stattfinden. Willkommen in der Welt von Big Data!

Sie haben sich vielleicht schon gewundert, »Was ist der Sinn dieser Daten? Warum wertvolle Quellen verwenden, um sie zu erzeugen und zu sammeln?« Obwohl schon vor einem Jahrzehnt niemand in der Lage war, groß Gebrauch von den erzeugten Daten zu machen, haben sich die Zeiten heute definitiv geändert. Als Daten-Ingenieure bezeichnete Spezialisten finden fortwährend innovative und leistungsstarke neue Wege, um unvorstellbar gewaltige Datenmengen zu fangen, zuzuordnen und zu verdichten. Andere Spezialisten, Datenforscher genannt, arbeiten daran, wertvolle und verfolgbare Einblicke aus diesen Daten zu gewinnen.

In ihrer reinsten Form steht Data Science für eine Optimierung von Prozessen und Quellen. Anhand von Data Science gewinnen Sie Einblicke in Daten - Einblicke, die Sie verwenden können, um Ihr Unternehmen, Ihre Investitionen, Ihre Gesundheit und auch Ihre Lebensführung und Ihr soziales Leben zu verstehen und zu verbessern. Für jedes vorstellbare Ziel oder Bestreben können Sie mit der Data Science Methoden finden, die Ihnen helfen, den direktesten Weg von dort, wo Sie sind, zu dem Punkt, wo Sie sein wollen, zu kennen und vorherzusagen und jedes Schlagloch auf dem Weg dazwischen vorauszusehen.

Schauen, wer von Data Science Gebrauch machen kann

Die Ausdrücke »Data Science« und »Data Engineering« werden oftmals falsch und inkonsistent verwendet, also lassen Sie mich hier beginnen, indem ich erkläre, dass diese beiden Bereiche in der Tat getrennte und unterschiedliche Fachgebiete sind. Data Science ist die Verwendung von Berechnungsverfahren, um nützliche und verfolgbare Erkenntnisse aus Ausgangsdaten abzuleiten. Data Engineering ist dagegen ein Ingenieurbereich, der den Zweck hat, Engpässe bei der Datenverarbeitung und Probleme bei der Behandlung von Daten für Anwendungen zu überwinden, die große Mengen, Arten und Geschwindigkeiten von Daten nutzen. Sowohl bei der Data Science als auch beim Data Engineering ist es üblich, mit den folgenden drei Arten von Daten zu arbeiten:

Strukturierte Daten: Daten, die in einem herkömmlichen relationalen Datenbanksystem gespeichert und verarbeitet wurden.

Unstrukturierte Daten: Daten, die gewöhnlich durch menschliche Aktivitäten erzeugt wurden und nicht in eine strukturierte Datenbank passen.

Halbstrukturierte Daten: Daten, die nicht in eine strukturierte Datenbank passen, die aber trotzdem durch Markierungen strukturiert sind, die nützlich sind, um eine Form von Ordnung und Hierarchie bei ihnen zu erzeugen.

Viele Leute glauben, dass nur große Organisationen, die über ausreichende finanzielle Mittel verfügen, Methoden der Data Science anwenden, um ihr Unternehmen zu optimieren und zu vervollkommnen, aber das ist nicht der Fall. Die Vermehrung der Daten hat eine Nachfrage nach Einblicken erzeugt, und diese Nachfrage ist in viele Aspekte unserer modernen Kultur eingebettet. Daten und die Notwendigkeit von Einblicken in diese Daten sind allgegenwärtig. Da Organisationen jeder Größe zu erkennen beginnen, dass sie in einer datengesteuerten, auf Wettbewerb ausgerichteten Umgebung mit einer Friss-oder-Stirb-Mentalität eingetaucht sind, entwickelt sich Daten-Fachwissen zum Herzstück und Rüstzeug in nahezu allen Geschäftsbereichen.

Was aber bedeutet das für einen normalen Menschen? Es heißt zunächst, dass sich unsere Kultur verändert hat und Sie sich auf dem Laufenden halten müssen. Das bedeutet nicht, dass Sie zurück in die Schule gehen und einen Abschluss in Statistik, Computerwissenschaften oder Data Science machen müssen. In dieser Hinsicht unterscheidet sich die Datenrevolution nicht so sehr von jeder anderen Veränderung, die die Industrie in der Vergangenheit getroffen hat. Tatsache ist: Um weiter aktuell zu bleiben, müssen Sie nur die Zeit und die Anstrengung aufbringen, um die Fähigkeiten zu erwerben, die Sie auf dem Laufenden halten. Wenn es darauf hinausläuft, zu lernen, wie Data Science anzuwenden ist, können Sie einige Kurse belegen, sich selbst mit im Netz zur Verfügung stehenden Quellen etwas beibringen, Bücher wie dieses lesen und Veranstaltungen besuchen, bei denen Sie lernen, was Sie wissen müssen, um in Bestform zu bleiben.

Wer kann Data Science verwenden? Sie können es. Ihr Betrieb kann es. Ihr Arbeitgeber kann es. Jeder, der ein wenig Verständnis und Übung hat, kann beginnen, Daten-zentrierte Sichtweisen zu verwenden, um sein Leben, seine Karriere und das Wohlergehen seines Unternehmens zu verbessern. Data Science stellt eine Änderung der Art und Weise dar, wie Sie an die Welt herangehen. Menschen sind es gewohnt, zu arbeiten und auf Ergebnisse zu hoffen, aber Dateneinblicke bieten die Vision, die die Menschen benötigen, um Veränderungen starten und Dinge gut ablaufen zu lassen. Sie können eine Daten-zentrierte Sichtweise verwenden, um die folgenden Änderungen zu bewirken:

Optimierung von betrieblichen Systemen und Kapitalrenditen (englisch Return on Investment, ROI) für jede messbare Aktivität.

Verbesserung der Effektivität von Verkäufen und Marketing-Initiativen, ob sie nun Teil einer betrieblichen Marketing-Kampagne oder lediglich ein persönlicher Aufwand sind, um bessere Beschäftigungsmöglichkeiten für sich selbst zu sichern.

Der Konkurrenz bei den allerneuesten Entwicklungen in jedem Bereich eine Nasenlänge voraus zu sein.

Gemeinschaften sicherer zu erhalten.

Die Welt für die zu einem besseren Platz zu machen, die weniger wohlhabend sind.

Die Teile des Data-Science-Puzzles betrachten

Um Data Science im eigentlichen Sinne des Wortes anzuwenden, benötigt man die analytischen Kenntnisse der Mathematik und Statistik, Programmierfertigkeiten und Fachkompetenz. Ohne Fachkompetenz könnten Sie sich auch Mathematiker oder Statistiker nennen. Genauso wie Software-Programmierer ohne Fachkompetenz und analytisches Fachwissen besser als Software-Ingenieur oder -Entwickler denn als Datenwissenschaftler betrachtet werden.

Da die Nachfrage nach einer Daten-zentrierten Sichtweise exponentiell wächst, ist jeder Bereich gezwungen, Data Science anzuwenden. Von daher haben sich verschiedene Richtungen von Data Science herauskristallisiert. Hier folgen nur ein paar Namen, unter denen Experten jeder Disziplin Data Science verwenden: Ad-Tech-Datenwissenschaftler, Banking Digital Analyst, Klinischer Datenwissenschaftler, Datenwissenschaftler der Geo-Ingenieurwissenschaften, Datenwissenschaftler der Geografie, Datenwissenschaftler im Personalbereich des Einzelhandels, Klinischer Informationsanalytiker im Bereich Pharmakometrie. Da es oftmals so scheint, dass man nicht die Übersicht darüber behalten kann, wer ein Datenwissenschaftler ohne Scorecard (= Ergebniskarte) ist, nehme ich mir in den folgenden Abschnitten die Zeit, um die Schlüsselkomponenten hier darzulegen, die ein Teil jeder Anwendung der Data Science sind.

Daten sammeln, abfragen und bearbeiten

Dateningenieure haben die Aufgabe, große Mengen von strukturierten, unstrukturierten und halbstrukturierten Big Data zu erfassen und zu sortieren; Daten, die die Verarbeitungskapazität herkömmlicher Datenbanken übersteigen, da sie zu umfangreich sind, sich zu schnell bewegen oder nicht die strukturellen Anforderungen herkömmlicher Datenbanken erfüllen. Um es noch einmal zu betonen, die Aufgaben von Dateningenieuren unterscheiden sich von der in der Data Science durchgeführten Arbeit, die ihren Schwerpunkt eher in der Analyse, Vorhersage und Sichtbarmachung hat. Trotz dieser Unterscheidung verrichtet ein Datenwissenschaftler, wenn er die zur Analyse notwendigen Daten sammelt, befragt und gebraucht, eine Arbeit, die große Ähnlichkeit mit der eines Dateningenieurs hat.

Obwohl...

Dateiformat: ePUB
Kopierschutz: Adobe-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Installieren Sie bereits vor dem Download die kostenlose Software Adobe Digital Editions (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für "fließenden" Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Adobe-DRM wird hier ein "harter" Kopierschutz verwendet. Wenn die notwendigen Voraussetzungen nicht vorliegen, können Sie das E-Book leider nicht öffnen. Daher müssen Sie bereits vor dem Download Ihre Lese-Hardware vorbereiten.

Bitte beachten Sie bei der Verwendung der Lese-Software Adobe Digital Editions: wir empfehlen Ihnen unbedingt nach Installation der Lese-Software diese mit Ihrer persönlichen Adobe-ID zu autorisieren!

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

23,99 €
inkl. 7% MwSt.
Download / Einzel-Lizenz
ePUB mit Adobe-DRM
siehe Systemvoraussetzungen
E-Book bestellen