Data Science mit Python

Das Handbuch für den Einsatz von IPython, Jupyter, NumPy, Pandas, Matplotlib und Scikit-Learn
 
 
MITP (Verlag)
  • 1. Auflage
  • |
  • erschienen am 30. November 2017
  • |
  • 552 Seiten
 
E-Book | PDF mit Adobe DRM | Systemvoraussetzungen
978-3-95845-696-9 (ISBN)
 
Die wichtigsten Tools für die Datenanalyse und-bearbeitung im praktischen Einsatz
Python effizient für datenintensive Berechnungen einsetzen mit IPython und Jupyter
Laden, Speichern und Bearbeiten von Daten und numerischen Arrays mit NumPy und Pandas
Visualisierung von Daten mit Matplotlib



Python ist für viele die erste Wahl für Data Science, weil eine Vielzahl von Ressourcen und Bibliotheken zum Speichern, Bearbeiten und Auswerten von Daten verfügbar ist. In diesem Buch erläutert der Autor den Einsatz der wichtigsten Tools.
Für Datenanalytiker und Wissenschaftler ist dieses umfassende Handbuch von unschätzbarem Wert für jede Art von Berechnung mit Python sowie bei der Erledigung alltäglicher Aufgaben. Dazu gehören das Bearbeiten, Umwandeln und Bereinigen von Daten, die Visualisierung verschiedener Datentypen und die Nutzung von Daten zum Erstellen von Statistiken oder Machine-Learning-Modellen.
Dieses Handbuch erläutert die Verwendung der folgenden Tools:

IPython und Jupyter für datenintensive Berechnungen
NumPy und Pandas zum effizienten Speichern und Bearbeiten von Daten und Datenarrays in Python
Matplotlib für vielfältige Möglichkeiten der Visualisierung von Daten
Scikit-Learn zur effizienten und sauberen Implementierung der wichtigsten und am meisten verbreiteten Algorithmen des Machine Learnings

Der Autor zeigt Ihnen, wie Sie die zum Betreiben von Data Science verfügbaren Pakete nutzen, um Daten effektiv zu speichern, zu handhaben und Einblick in diese Daten zu gewinnen. Grundlegende Kenntnisse in Python werden dabei vorausgesetzt.

Leserstimme zum Buch:
»Wenn Sie Data Science mit Python betreiben möchten, ist dieses Buch ein hervorragender Ausgangspunkt. Ich habe es sehr erfolgreich beim Unterrichten von Informatik- und Statistikstudenten eingesetzt. Jake geht weit
über die Grundlagen der Open-Source-Tools hinaus und erläutert die grundlegenden Konzepte, Vorgehensweisen und Abstraktionen in klarer Sprache und mit verständlichen Erklärungen.«
- Brian Granger, Physikprofessor, California Polytechnic State University, Mitbegründer des Jupyter-Projekts
2018
  • Deutsch
  • Deutschland
  • 13,75 MB
978-3-95845-696-9 (9783958456969)
3958456960 (3958456960)
weitere Ausgaben werden ermittelt
Jake VanderPlas ist seit Langem User und Entwickler von SciPy. Derzeit ist er als interdisziplinärer Forschungsdirektor an der Universität Washington tätig, führt eigene astronomische Forschungsarbeiten durch und berät dort ansässige Wissenschaftler, die in vielen verschiedenen Fachgebieten arbeiten.
1 - Cover [Seite 1]
2 - Titel [Seite 3]
3 - Impressum [Seite 4]
4 - Inhaltsverzeichnis [Seite 5]
5 - Einleitung [Seite 13]
6 - Über den Autor [Seite 18]
7 - Kapitel 1: Mehr als normales Python: IPython [Seite 19]
7.1 - 1.1 Shell oder Notebook? [Seite 19]
7.1.1 - 1.1.1 Die IPython-Shell starten [Seite 20]
7.1.2 - 1.1.2 Das Jupyter-Notebook starten [Seite 20]
7.2 - 1.2 Hilfe und Dokumentation in IPython [Seite 21]
7.2.1 - 1.2.1 Mit ? auf die Dokumentation zugreifen [Seite 22]
7.2.2 - 1.2.2 Mit ?? auf den Quellcode zugreifen [Seite 23]
7.2.3 - 1.2.3 Module mit der Tab-Vervollständigung erkunden [Seite 24]
7.3 - 1.3 Tastaturkürzel in der IPython-Shell [Seite 26]
7.3.1 - 1.3.1 Tastaturkürzel zum Navigieren [Seite 27]
7.3.2 - 1.3.2 Tastaturkürzel bei der Texteingabe [Seite 27]
7.3.3 - 1.3.3 Tastaturkürzel für den Befehlsverlauf [Seite 28]
7.3.4 - 1.3.4 Sonstige Tastaturkürzel [Seite 29]
7.4 - 1.4 Magische Befehle in IPython [Seite 29]
7.4.1 - 1.4.1 Einfügen von Codeblöcken mit %paste und %cpaste [Seite 29]
7.4.2 - 1.4.2 Externen Code ausführen mit %run [Seite 31]
7.4.3 - 1.4.3 Messung der Ausführungszeit von Code mit %timeit [Seite 31]
7.4.4 - 1.4.4 Hilfe für die magischen Funktionen anzeigen mit ?, %magic und %lsmagic [Seite 32]
7.5 - 1.5 Verlauf der Ein- und Ausgabe [Seite 32]
7.5.1 - 1.5.1 Die IPython-Objekte In und Out [Seite 33]
7.5.2 - 1.5.2 Der Unterstrich als Abkürzung und vorhergehende Ausgaben [Seite 34]
7.5.3 - 1.5.3 Ausgaben unterdrücken [Seite 34]
7.5.4 - 1.5.4 Weitere ähnliche magische Befehle [Seite 35]
7.6 - 1.6 IPython und Shell-Befehle [Seite 35]
7.6.1 - 1.6.1 Kurz vorgestellt: die Shell [Seite 36]
7.6.2 - 1.6.2 Shell-Befehle in IPython [Seite 37]
7.6.3 - 1.6.3 Werte mit der Shell austauschen [Seite 37]
7.7 - 1.7 Magische Befehle für die Shell [Seite 38]
7.8 - 1.8 Fehler und Debugging [Seite 39]
7.8.1 - 1.8.1 Exceptions handhaben: %xmode [Seite 39]
7.8.2 - 1.8.2 Debugging: Wenn das Lesen von Tracebacks nicht ausreicht [Seite 41]
7.9 - 1.9 Profiling und Timing von Code [Seite 44]
7.9.1 - 1.9.1 Timing von Codeschnipseln: %timeit und %time [Seite 45]
7.9.2 - 1.9.2 Profiling kompletter Skripte: %prun [Seite 46]
7.9.3 - 1.9.3 Zeilenweises Profiling mit %lprun [Seite 47]
7.9.4 - 1.9.4 Profiling des Speicherbedarfs: %memit und %mprun [Seite 48]
7.10 - 1.10 Weitere IPython-Ressourcen [Seite 50]
7.10.1 - 1.10.1 Quellen im Internet [Seite 50]
7.10.2 - 1.10.2 Bücher [Seite 50]
8 - Kapitel 2: Einführung in NumPy [Seite 51]
8.1 - 2.1 Die Datentypen in Python [Seite 52]
8.1.1 - 2.1.1 Python-Integers sind mehr als nur ganzzahlige Werte [Seite 53]
8.1.2 - 2.1.2 Python-Listen sind mehr als nur einfache Listen [Seite 54]
8.1.3 - 2.1.3 Arrays feststehenden Typs in Python [Seite 56]
8.1.4 - 2.1.4 Arrays anhand von Listen erzeugen [Seite 56]
8.1.5 - 2.1.5 Neue Arrays erzeugen [Seite 57]
8.1.6 - 2.1.6 NumPys Standarddatentypen [Seite 58]
8.2 - 2.2 Grundlagen von NumPy-Arrays [Seite 59]
8.2.1 - 2.2.1 Attribute von NumPy-Arrays [Seite 60]
8.2.2 - 2.2.2 Indizierung von Arrays: Zugriff auf einzelne Elemente [Seite 61]
8.2.3 - 2.2.3 Slicing: Teilmengen eines Arrays auswählen [Seite 62]
8.2.4 - 2.2.4 Arrays umformen [Seite 65]
8.2.5 - 2.2.5 Arrays verketten und aufteilen [Seite 66]
8.3 - 2.3 Berechnungen mit NumPy-Arrays: universelle Funktionen [Seite 68]
8.3.1 - 2.3.1 Langsame Schleifen [Seite 68]
8.3.2 - 2.3.2 Kurz vorgestellt: UFuncs [Seite 70]
8.3.3 - 2.3.3 NumPys UFuncs im Detail [Seite 70]
8.3.4 - 2.3.4 UFunc-Features für Fortgeschrittene [Seite 75]
8.3.5 - 2.3.5 UFuncs: mehr erfahren [Seite 77]
8.4 - 2.4 Aggregationen: Minimum, Maximum und alles dazwischen [Seite 77]
8.4.1 - 2.4.1 Summieren der Werte eines Arrays [Seite 77]
8.4.2 - 2.4.2 Minimum und Maximum [Seite 78]
8.4.3 - 2.4.3 Beispiel: Durchschnittliche Größe der US-Präsidenten [Seite 80]
8.5 - 2.5 Berechnungen mit Arrays: Broadcasting [Seite 82]
8.5.1 - 2.5.1 Kurz vorgestellt: Broadcasting [Seite 82]
8.5.2 - 2.5.2 Für das Broadcasting geltende Regeln [Seite 84]
8.5.3 - 2.5.3 Broadcasting in der Praxis [Seite 87]
8.6 - 2.6 Vergleiche, Maskierungen und boolesche Logik [Seite 88]
8.6.1 - 2.6.1 Beispiel: Regentage zählen [Seite 89]
8.6.2 - 2.6.2 Vergleichsoperatoren als UFuncs [Seite 90]
8.6.3 - 2.6.3 Boolesche Arrays verwenden [Seite 91]
8.6.4 - 2.6.4 Boolesche Arrays als Maskierungen [Seite 94]
8.7 - 2.7 Fancy Indexing [Seite 97]
8.7.1 - 2.7.1 Fancy Indexing im Detail [Seite 97]
8.7.2 - 2.7.2 Kombinierte Indizierung [Seite 98]
8.7.3 - 2.7.3 Beispiel: Auswahl zufälliger Punkte [Seite 99]
8.7.4 - 2.7.4 Werte per Fancy Indexing modifizieren [Seite 101]
8.7.5 - 2.7.5 Beispiel: Daten gruppieren [Seite 102]
8.8 - 2.8 Arrays sortieren [Seite 104]
8.8.1 - 2.8.1 Schnelle Sortierung in NumPy: np.sort und np.argsort [Seite 105]
8.8.2 - 2.8.2 Teilsortierungen: Partitionierung [Seite 107]
8.8.3 - 2.8.3 Beispiel: k nächste Nachbarn [Seite 107]
8.9 - 2.9 Strukturierte Daten: NumPys strukturierte Arrays [Seite 112]
8.9.1 - 2.9.1 Strukturierte Arrays erzeugen [Seite 113]
8.9.2 - 2.9.2 Erweiterte zusammengesetzte Typen [Seite 114]
8.9.3 - 2.9.3 Record-Arrays: strukturierte Arrays mit Pfiff [Seite 115]
8.9.4 - 2.9.4 Weiter mit Pandas [Seite 115]
9 - Kapitel 3: Datenbearbeitung mit Pandas [Seite 117]
9.1 - 3.1 Pandas installieren und verwenden [Seite 117]
9.2 - 3.2 Kurz vorgestellt: Pandas-Objekte [Seite 118]
9.2.1 - 3.2.1 Das Pandas-Series-Objekt [Seite 118]
9.2.2 - 3.2.2 Das Pandas-DataFrame-Objekt [Seite 122]
9.2.3 - 3.2.3 Das Pandas-Index-Objekt [Seite 126]
9.3 - 3.3 Daten indizieren und auswählen [Seite 127]
9.3.1 - 3.3.1 Series-Daten auswählen [Seite 127]
9.3.2 - 3.3.2 DataFrame-Daten auswählen [Seite 131]
9.4 - 3.4 Mit Pandas-Daten arbeiten [Seite 135]
9.4.1 - 3.4.1 UFuncs: Indexerhaltung [Seite 136]
9.4.2 - 3.4.2 UFuncs: Indexanpassung [Seite 137]
9.4.3 - 3.4.3 UFuncs: Operationen mit DataFrame und Series [Seite 139]
9.5 - 3.5 Handhabung fehlender Daten [Seite 140]
9.5.1 - 3.5.1 Überlegungen zu fehlenden Daten [Seite 141]
9.5.2 - 3.5.2 Fehlende Daten in Pandas [Seite 141]
9.5.3 - 3.5.3 Mit null-Werten arbeiten [Seite 145]
9.6 - 3.6 Hierarchische Indizierung [Seite 149]
9.6.1 - 3.6.1 Mehrfach indizierte Series [Seite 149]
9.6.2 - 3.6.2 Methoden zum Erzeugen eines MultiIndex [Seite 153]
9.6.3 - 3.6.3 Indizierung und Slicing eines MultiIndex [Seite 156]
9.6.4 - 3.6.4 Multi-Indizes umordnen [Seite 159]
9.6.5 - 3.6.5 Datenaggregationen mit Multi-Indizes [Seite 162]
9.7 - 3.7 Datenmengen kombinieren: concat und append [Seite 164]
9.7.1 - 3.7.1 Verkettung von NumPy-Arrays [Seite 165]
9.7.2 - 3.7.2 Einfache Verkettungen mit pd.concat [Seite 165]
9.8 - 3.8 Datenmengen kombinieren: Merge und Join [Seite 169]
9.8.1 - 3.8.1 Relationale Algebra [Seite 170]
9.8.2 - 3.8.2 Join-Kategorien [Seite 170]
9.8.3 - 3.8.3 Angabe der zu verknüpfenden Spalten [Seite 173]
9.8.4 - 3.8.4 Mengenarithmetik bei Joins [Seite 176]
9.8.5 - 3.8.5 Konflikte bei Spaltennamen: das Schlüsselwort suffixes [Seite 177]
9.8.6 - 3.8.6 Beispiel: Daten von US-Bundesstaaten [Seite 178]
9.9 - 3.9 Aggregation und Gruppierung [Seite 183]
9.9.1 - 3.9.1 Planetendaten [Seite 183]
9.9.2 - 3.9.2 Einfache Aggregationen in Pandas [Seite 184]
9.9.3 - 3.9.3 GroupBy: Aufteilen, Anwenden und Kombinieren [Seite 186]
9.10 - 3.10 Pivot-Tabellen [Seite 195]
9.10.1 - 3.10.1 Gründe für Pivot-Tabellen [Seite 195]
9.10.2 - 3.10.2 Pivot-Tabellen von Hand erstellen [Seite 196]
9.10.3 - 3.10.3 Die Syntax von Pivot-Tabellen [Seite 197]
9.10.4 - 3.10.4 Beispiel: Geburtenraten [Seite 199]
9.11 - 3.11 Vektorisierte String-Operationen [Seite 204]
9.11.1 - 3.11.1 Kurz vorgestellt: String-Operationen in Pandas [Seite 204]
9.11.2 - 3.11.2 Liste der Pandas-Stringmethoden [Seite 206]
9.11.3 - 3.11.3 Beispiel: Rezeptdatenbank [Seite 211]
9.12 - 3.12 Zeitreihen verwenden [Seite 215]
9.12.1 - 3.12.1 Kalenderdaten und Zeiten in Python [Seite 215]
9.12.2 - 3.12.2 Zeitreihen in Pandas: Indizierung durch Zeitangaben [Seite 219]
9.12.3 - 3.12.3 Datenstrukturen für Zeitreihen in Pandas [Seite 220]
9.12.4 - 3.12.4 Häufigkeiten und Abstände [Seite 222]
9.12.5 - 3.12.5 Resampling, zeitliches Verschieben und geglättete Statistik [Seite 224]
9.12.6 - 3.12.6 Mehr erfahren [Seite 229]
9.12.7 - 3.12.7 Beispiel: Visualisierung von Fahrradzählungen in Seattle [Seite 229]
9.13 - 3.13 Leistungsstarkes Pandas: eval() und query() [Seite 236]
9.13.1 - 3.13.1 Der Zweck von query() und eval(): zusammengesetzte Ausdrücke [Seite 236]
9.13.2 - 3.13.2 Effiziente Operationen mit pandas.eval() [Seite 237]
9.13.3 - 3.13.3 DataFrame.eval() für spaltenweise Operationen [Seite 239]
9.13.4 - 3.13.4 Die DataFrame.query()-Methode [Seite 241]
9.13.5 - 3.13.5 Performance: Verwendung von eval() und query() [Seite 242]
9.14 - 3.14 Weitere Ressourcen [Seite 242]
10 - Kapitel 4: Visualisierung mit Matplotlib [Seite 245]
10.1 - 4.1 Allgemeine Tipps zu Matplotlib [Seite 246]
10.1.1 - 4.1.1 Matplotlib importieren [Seite 246]
10.1.2 - 4.1.2 Stil einstellen [Seite 246]
10.1.3 - 4.1.3 show() oder kein show()? - Anzeige von Diagrammen [Seite 246]
10.1.4 - 4.1.4 Grafiken als Datei speichern [Seite 248]
10.2 - 4.2 Zwei Seiten derselben Medaille [Seite 250]
10.3 - 4.3 Einfache Liniendiagramme [Seite 251]
10.3.1 - 4.3.1 Anpassen des Diagramms: Linienfarben und -stile [Seite 254]
10.3.2 - 4.3.2 Anpassen des Diagramms: Begrenzungen [Seite 256]
10.3.3 - 4.3.3 Diagramme beschriften [Seite 258]
10.4 - 4.4 Einfache Streudiagramme [Seite 260]
10.4.1 - 4.4.1 Streudiagramme mit plt.plot() erstellen [Seite 260]
10.4.2 - 4.4.2 Streudiagramme mit plt.scatter() erstellen [Seite 263]
10.4.3 - 4.4.3 plot kontra scatter: eine Anmerkung zur Effizienz [Seite 265]
10.5 - 4.5 Visualisierung von Fehlern [Seite 265]
10.5.1 - 4.5.1 Einfache Fehlerbalken [Seite 265]
10.5.2 - 4.5.2 Stetige Fehler [Seite 267]
10.6 - 4.6 Dichtediagramme und Konturdiagramme [Seite 268]
10.6.1 - 4.6.1 Visualisierung einer dreidimensionalen Funktion [Seite 268]
10.7 - 4.7 Histogramme, Binnings und Dichte [Seite 272]
10.7.1 - 4.7.1 Zweidimensionale Histogramme und Binnings [Seite 274]
10.8 - 4.8 Anpassen der Legende [Seite 277]
10.8.1 - 4.8.1 Legendenelemente festlegen [Seite 279]
10.8.2 - 4.8.2 Legenden mit Punktgrößen [Seite 280]
10.8.3 - 4.8.3 Mehrere Legenden [Seite 282]
10.9 - 4.9 Anpassen von Farbskalen [Seite 283]
10.9.1 - 4.9.1 Farbskala anpassen [Seite 284]
10.9.2 - 4.9.2 Beispiel: Handgeschriebene Ziffern [Seite 288]
10.10 - 4.10 Untergeordnete Diagramme [Seite 290]
10.10.1 - 4.10.1 plt.axes: Untergeordnete Diagramme von Hand erstellen [Seite 290]
10.10.2 - 4.10.2 plt.subplot: Untergeordnete Diagramme in einem Raster anordnen [Seite 292]
10.10.3 - 4.10.3 plt.subplots: Das gesamte Raster gleichzeitig ändern [Seite 293]
10.10.4 - 4.10.4 plt.GridSpec: Kompliziertere Anordnungen [Seite 294]
10.11 - 4.11 Text und Beschriftungen [Seite 296]
10.11.1 - 4.11.1 Beispiel: Auswirkungen von Feiertagen auf die Geburtenzahlen in den USA [Seite 296]
10.11.2 - 4.11.2 Transformationen und Textposition [Seite 299]
10.11.3 - 4.11.3 Pfeile und Beschriftungen [Seite 300]
10.12 - 4.12 Achsenmarkierungen anpassen [Seite 303]
10.12.1 - 4.12.1 Vorrangige und nachrangige Achsenmarkierungen [Seite 304]
10.12.2 - 4.12.2 Markierungen oder Beschriftungen verbergen [Seite 305]
10.12.3 - 4.12.3 Anzahl der Achsenmarkierungen verringern oder erhöhen [Seite 306]
10.12.4 - 4.12.4 Formatierung der Achsenmarkierungen [Seite 307]
10.12.5 - 4.12.5 Zusammenfassung der Formatter- und Locator-Klassen [Seite 310]
10.13 - 4.13 Matplotlib anpassen: Konfigurationen und Stylesheets [Seite 311]
10.13.1 - 4.13.1 Diagramme von Hand anpassen [Seite 311]
10.13.2 - 4.13.2 Voreinstellungen ändern: rcParams [Seite 312]
10.13.3 - 4.13.3 Stylesheets [Seite 314]
10.14 - 4.14 Dreidimensionale Diagramme in Matplotlib [Seite 318]
10.14.1 - 4.14.1 Dreidimensionale Punkte und Linien [Seite 319]
10.14.2 - 4.14.2 Dreidimensionale Konturdiagramme [Seite 320]
10.14.3 - 4.14.3 Drahtgitter- und Oberflächendiagramme [Seite 322]
10.14.4 - 4.14.4 Triangulation von Oberflächen [Seite 323]
10.15 - 4.15 Basemap: geografische Daten verwenden [Seite 326]
10.15.1 - 4.15.1 Kartenprojektionen [Seite 328]
10.15.2 - 4.15.2 Zeichnen eines Kartenhintergrunds [Seite 332]
10.15.3 - 4.15.3 Daten auf einer Karte anzeigen [Seite 334]
10.15.4 - 4.15.4 Beispiel: Kalifornische Städte [Seite 335]
10.15.5 - 4.15.5 Beispiel: Oberflächentemperaturen [Seite 337]
10.16 - 4.16 Visualisierung mit Seaborn [Seite 339]
10.16.1 - 4.16.1 Seaborn kontra Matplotlib [Seite 339]
10.16.2 - 4.16.2 Seaborn-Diagramme [Seite 341]
10.17 - 4.17 Weitere Ressourcen [Seite 357]
10.17.1 - 4.17.1 Matplotlib [Seite 357]
10.17.2 - 4.17.2 Weitere Grafikbibliotheken für Python [Seite 357]
11 - Kapitel 5: Machine Learning [Seite 359]
11.1 - 5.1 Was ist Machine Learning? [Seite 360]
11.1.1 - 5.1.1 Kategorien des Machine Learnings [Seite 360]
11.1.2 - 5.1.2 Qualitative Beispiele für Machine-Learning-Anwendungen [Seite 361]
11.1.3 - 5.1.3 Zusammenfassung [Seite 369]
11.2 - 5.2 Kurz vorgestellt: Scikit-Learn [Seite 369]
11.2.1 - 5.2.1 Datenrepräsentierung in Scikit-Learn [Seite 370]
11.2.2 - 5.2.2 Scikit-Learns Schätzer-API [Seite 372]
11.2.3 - 5.2.3 Anwendung: Handgeschriebene Ziffern untersuchen [Seite 380]
11.2.4 - 5.2.4 Zusammenfassung [Seite 385]
11.3 - 5.3 Hyperparameter und Modellvalidierung [Seite 385]
11.3.1 - 5.3.1 Überlegungen zum Thema Modellvalidierung [Seite 385]
11.3.2 - 5.3.2 Auswahl des besten Modells [Seite 389]
11.3.3 - 5.3.3 Lernkurven [Seite 396]
11.3.4 - 5.3.4 Validierung in der Praxis: Rastersuche [Seite 399]
11.3.5 - 5.3.5 Zusammenfasssung [Seite 401]
11.4 - 5.4 Merkmalserstellung [Seite 401]
11.4.1 - 5.4.1 Kategoriale Merkmale [Seite 402]
11.4.2 - 5.4.2 Texte als Merkmale [Seite 403]
11.4.3 - 5.4.3 Bilder als Merkmale [Seite 404]
11.4.4 - 5.4.4 Abgeleitete Merkmale [Seite 405]
11.4.5 - 5.4.5 Vervollständigung fehlender Daten [Seite 407]
11.4.6 - 5.4.6 Pipelines mit Merkmalen [Seite 408]
11.5 - 5.5 Ausführlich: Naive Bayes-Klassifikation [Seite 409]
11.5.1 - 5.5.1 Bayes-Klassifikation [Seite 409]
11.5.2 - 5.5.2 Gauß'sche naive Bayes-Klassifikation [Seite 410]
11.5.3 - 5.5.3 Multinomiale naive Bayes-Klassifikation [Seite 413]
11.5.4 - 5.5.4 Einsatzgebiete für naive Bayes-Klassifikation [Seite 416]
11.6 - 5.6 Ausführlich: Lineare Regression [Seite 417]
11.6.1 - 5.6.1 Einfache lineare Regression [Seite 417]
11.6.2 - 5.6.2 Regression der Basisfunktion [Seite 419]
11.6.3 - 5.6.3 Regularisierung [Seite 423]
11.6.4 - 5.6.4 Beispiel: Vorhersage des Fahrradverkehrs [Seite 427]
11.7 - 5.7 Ausführlich: Support Vector Machines [Seite 432]
11.7.1 - 5.7.1 Gründe für Support Vector Machines [Seite 433]
11.7.2 - 5.7.2 Support Vector Machines: Maximierung des Randbereichs [Seite 434]
11.7.3 - 5.7.3 Beispiel: Gesichtserkennung [Seite 443]
11.7.4 - 5.7.4 Zusammenfassung Support Vector Machines [Seite 447]
11.8 - 5.8 Ausführlich: Entscheidungsbäume und Random Forests [Seite 448]
11.8.1 - 5.8.1 Gründe für Random Forests [Seite 448]
11.8.2 - 5.8.2 Schätzerensembles: Random Forests [Seite 454]
11.8.3 - 5.8.3 Random-Forest-Regression [Seite 455]
11.8.4 - 5.8.4 Beispiel: Random Forest zur Klassifikation handgeschriebener Ziffern [Seite 457]
11.8.5 - 5.8.5 Zusammenfassung Random Forests [Seite 459]
11.9 - 5.9 Ausführlich: Hauptkomponentenanalyse [Seite 460]
11.9.1 - 5.9.1 Kurz vorgestellt: Hauptkomponentenanalyse [Seite 460]
11.9.2 - 5.9.2 Hauptkomponentenanalyse als Rauschfilter [Seite 467]
11.9.3 - 5.9.3 Beispiel: Eigengesichter [Seite 469]
11.9.4 - 5.9.4 Zusammenfassung Hauptkomponentenanalyse [Seite 472]
11.10 - 5.10 Ausführlich: Manifold Learning [Seite 473]
11.10.1 - 5.10.1 Manifold Learning: »HELLO« [Seite 473]
11.10.2 - 5.10.2 Multidimensionale Skalierung (MDS) [Seite 475]
11.10.3 - 5.10.3 MDS als Manifold Learning [Seite 477]
11.10.4 - 5.10.4 Nichtlineare Einbettungen: Wenn MDS nicht funktioniert [Seite 479]
11.10.5 - 5.10.5 Nichtlineare Mannigfaltigkeiten: lokal lineare Einbettung [Seite 480]
11.10.6 - 5.10.6 Überlegungen zum Thema Manifold-Methoden [Seite 482]
11.10.7 - 5.10.7 Beispiel: Isomap und Gesichter [Seite 483]
11.10.8 - 5.10.8 Beispiel: Visualisierung der Strukturen in Zifferndaten [Seite 487]
11.11 - 5.11 Ausführlich: k-Means-Clustering [Seite 490]
11.11.1 - 5.11.1 Kurz vorgestellt: der k-Means-Algorithmus [Seite 490]
11.11.2 - 5.11.2 k-Means-Algorithmus: Expectation-Maximization [Seite 492]
11.11.3 - 5.11.3 Beispiele [Seite 497]
11.12 - 5.12 Ausführlich: Gauß'sche Mixture-Modelle [Seite 503]
11.12.1 - 5.12.1 Gründe für GMM: Schwächen von k-Means [Seite 503]
11.12.2 - 5.12.2 EM-Verallgemeinerung: Gauß'sche Mixture-Modelle [Seite 507]
11.12.3 - 5.12.3 GMM als Dichteschätzung [Seite 511]
11.12.4 - 5.12.4 Beispiel: GMM zum Erzeugen neuer Daten verwenden [Seite 515]
11.13 - 5.13 Ausführlich: Kerndichteschätzung [Seite 518]
11.13.1 - 5.13.1 Gründe für Kerndichteschätzung: Histogramme [Seite 518]
11.13.2 - 5.13.2 Kerndichteschätzung in der Praxis [Seite 522]
11.13.3 - 5.13.3 Beispiel: Kerndichteschätzung auf Kugeloberflächen [Seite 524]
11.13.4 - 5.13.4 Beispiel: Nicht ganz so naive Bayes-Klassifikation [Seite 527]
11.14 - 5.14 Anwendung: Eine Gesichtserkennungs-Pipeline [Seite 532]
11.14.1 - 5.14.1 HOG-Merkmale [Seite 533]
11.14.2 - 5.14.2 HOG in Aktion: eine einfache Gesichtserkennung [Seite 534]
11.14.3 - 5.14.3 Vorbehalte und Verbesserungen [Seite 539]
11.15 - 5.15 Weitere Machine-Learning-Ressourcen [Seite 541]
11.15.1 - 5.15.1 Machine Learning in Python [Seite 541]
11.15.2 - 5.15.2 Machine Learning im Allgemeinen [Seite 541]
12 - Stichwortverzeichnis [Seite 543]

Dateiformat: PDF
Kopierschutz: Adobe-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Installieren Sie bereits vor dem Download die kostenlose Software Adobe Digital Editions (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat PDF zeigt auf jeder Hardware eine Buchseite stets identisch an. Daher ist eine PDF auch für ein komplexes Layout geeignet, wie es bei Lehr- und Fachbüchern verwendet wird (Bilder, Tabellen, Spalten, Fußnoten). Bei kleinen Displays von E-Readern oder Smartphones sind PDF leider eher nervig, weil zu viel Scrollen notwendig ist. Mit Adobe-DRM wird hier ein "harter" Kopierschutz verwendet. Wenn die notwendigen Voraussetzungen nicht vorliegen, können Sie das E-Book leider nicht öffnen. Daher müssen Sie bereits vor dem Download Ihre Lese-Hardware vorbereiten.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

42,99 €
inkl. 19% MwSt.
Download / Einzel-Lizenz
PDF mit Adobe DRM
siehe Systemvoraussetzungen
E-Book bestellen

Unsere Web-Seiten verwenden Cookies. Mit der Nutzung dieser Web-Seiten erklären Sie sich damit einverstanden. Mehr Informationen finden Sie in unserem Datenschutzhinweis. Ok