Deep Learning Kochbuch

Praxisrezepte für einen schnellen Einstieg
 
 
O'Reilly (Verlag)
  • 1. Auflage
  • |
  • erschienen am 11. Februar 2019
  • |
  • 262 Seiten
 
E-Book | PDF mit Wasserzeichen-DRM | Systemvoraussetzungen
978-3-96010-264-9 (ISBN)
 
Lassen Sie sich von Deep Learning nicht abschrecken! Dank Frameworks wie Keras und TensorFlow ist der schnelle Einstieg in die Entwicklung von Deep-Learning-Anwendungen nun auch für Softwareentwickler ohne umfassende Machine-Learning-Kenntnisse möglich. Mit den Rezepten aus diesem Buch lernen Sie, typische Aufgabenstellungen des Deep Learning zu lösen, wie etwa die Klassifizierung und Generierung von Texten, Bildern und Musik.
Jedes Kapitel behandelt ein Projekt, wie z.B. das Trainieren eines Empfehlungssystems für Musik. Schritt für Schritt wird gezeigt, wie das jeweilige Projekt umgesetzt wird. Darüber hinaus beschreibt der Autor Douwe Osinga zahlreiche Techniken, die Ihnen helfen, wenn Sie einmal nicht mehr weiterwissen. Alle Codebeispiele sind in Python geschrieben und auf GitHub als Python-Notebooks frei verfügbar.
Aus dem Inhalt:

- Entwickeln Sie Deep-Learning-Anwendungen, die Nutzern einen echten Mehrwert bieten
- Berechnen Sie Ähnlichkeiten von Texten mithilfe von Word-Embeddings
- Erstellen Sie ein Empfehlungssystem für Filme basierend auf Wikipedia-Links
- Visualisieren Sie die internen Vorgänge einer künstlichen Intelligenz, um nachvollziehen zu können, wie diese arbeitet
- Entwickeln Sie ein Modell, das passende Emojis für Textpassagen vorschlägt
- Realisieren Sie einen Reverse-Image-Search-Dienst mithilfe von vortrainierten Netzwerken
- Vergleichen Sie, wie Generative Adversarial Networks, Autoencoder und LSTM-Netzwerke Icons erzeugen
- Trainieren Sie ein Klassifikationsmodell für Musikstile und lassen Sie es Musikstücke dementsprechend zuordnen
  • Deutsch
  • Heidelberg
  • |
  • Deutschland
  • 7,41 MB
978-3-96010-264-9 (9783960102649)
weitere Ausgaben werden ermittelt
Douwe Osinga ist ein erfahrener Softwareentwickler, früher bei Google, Globetrotter und Gründer von drei Startups. Auf seiner beliebten Website für Software-Projekte beschäftigt er sich neben anderen spannenden Themen auch mit dem Machine Learning: douweosinga.com/projects
1 - Inhalt [Seite 5]
2 - Vorwort [Seite 9]
3 - Kapitel 1: Werkzeuge und Techniken [Seite 17]
3.1 - 1.1 Arten neuronaler Netze [Seite 17]
3.2 - 1.2 Datenbeschaffung [Seite 28]
3.3 - 1.3 Vorverarbeitung von Daten [Seite 35]
4 - Kapitel 2: Fehlerbehebung [Seite 43]
4.1 - 2.1 Probleme bemerken [Seite 43]
4.2 - 2.2 Laufzeitfehler beheben [Seite 44]
4.3 - 2.3 Zwischenergebnisse überprüfen [Seite 47]
4.4 - 2.4 Wählen der richtigen Aktivierungsfunktion (für die letzte Schicht) [Seite 48]
4.5 - 2.5 Regularisierung und Drop-out [Seite 49]
4.6 - 2.6 Netzwerkstruktur, Batch-Größe und Lernrate [Seite 51]
5 - Kapitel 3: Die Ähnlichkeit von Texten mithilfe von Worteinbettungen berechnen [Seite 53]
5.1 - 3.1 Wortähnlichkeiten mithilfe vortrainierter Worteinbettungen finden [Seite 54]
5.2 - 3.2 Word2vec-Mathematik [Seite 56]
5.3 - 3.3 Worteinbettungen visualisieren [Seite 58]
5.4 - 3.4 Objektklassen in Einbettungen finden [Seite 60]
5.5 - 3.5 Semantische Abstände innerhalb einer Klasse berechnen [Seite 63]
5.6 - 3.6 Länderdaten auf einer Landkarte visualisieren [Seite 65]
6 - Kapitel 4: Ein Empfehlungssystem anhand ausgehender Wikipedia-Links erstellen [Seite 67]
6.1 - 4.1 Sammeln der Daten [Seite 67]
6.2 - 4.2 Trainieren von Filmeinbettungen [Seite 71]
6.3 - 4.3 Ein Filmempfehlungssystem erstellen [Seite 74]
6.4 - 4.4 Vorhersagen einfacher Filmmerkmale [Seite 75]
7 - Kapitel 5: Text im Stil eines Beispieltexts generieren [Seite 79]
7.1 - 5.1 Den Text von gemeinfreien Büchern beschaffen [Seite 79]
7.2 - 5.2 Texte im Stil von Shakespeare generieren [Seite 80]
7.3 - 5.3 Code mit RNNs erzeugen [Seite 84]
7.4 - 5.4 Steuerung der Temperatur des Outputs [Seite 86]
7.5 - 5.5 Visualisierung der Aktivierungen eines rekurrenten Netzwerks [Seite 88]
8 - Kapitel 6: Übereinstimmende Fragen [Seite 91]
8.1 - 6.1 Daten aus Stack Exchange beschaffen [Seite 91]
8.2 - 6.2 Erkundung der Daten mit Pandas [Seite 93]
8.3 - 6.3 Textkodierung in Keras [Seite 94]
8.4 - 6.4 Ein Frage-Antwort-Modell entwickeln [Seite 95]
8.5 - 6.5 Training eines Modells mit Pandas [Seite 97]
8.6 - 6.6 Überprüfung von Gemeinsamkeiten [Seite 98]
9 - Kapitel 7: Emojis vorschlagen [Seite 101]
9.1 - 7.1 Einen einfachen Stimmungsklassifikator entwickeln [Seite 101]
9.2 - 7.2 Inspizieren eines einfachen Klassifikators [Seite 104]
9.3 - 7.3 Ein Konvolutionsnetz zur Stimmungsanalyse verwenden [Seite 105]
9.4 - 7.4 Twitter-Daten sammeln [Seite 108]
9.5 - 7.5 Ein simples Vorhersagemodell für Emojis [Seite 109]
9.6 - 7.6 Drop-out und variierende Fenstergröße [Seite 111]
9.7 - 7.7 Ein wortbasiertes Modell erstellen [Seite 112]
9.8 - 7.8 Eigene Einbettungen erzeugen [Seite 114]
9.9 - 7.9 Ein rekurrentes neuronales Netzwerk zur Klassifikation verwenden [Seite 116]
9.10 - 7.10 Übereinstimmung visualisieren [Seite 118]
9.11 - 7.11 Modelle miteinander kombinieren [Seite 120]
10 - Kapitel 8: Sequenz-zu-Sequenz-Mapping [Seite 123]
10.1 - 8.1 Trainieren eines einfachen Sequenz-zu-Sequenz-Modells [Seite 123]
10.2 - 8.2 Dialoge aus Texten extrahieren [Seite 125]
10.3 - 8.3 Einen frei verfügbaren Wortschatz handhaben [Seite 127]
10.4 - 8.4 Einen seq2seq-Chatbot trainieren [Seite 128]
11 - Kapitel 9: Ein vortrainiertes Netzwerk zur Bilderkennung verwenden [Seite 133]
11.1 - 9.1 Ein vortrainiertes Netzwerk laden [Seite 133]
11.2 - 9.2 Vorverarbeitung der Bilder [Seite 134]
11.3 - 9.3 Vorhersagen des Bildinhalts (Inferenz) [Seite 136]
11.4 - 9.4 Einen gelabelten Bilddatensatz mit der Flickr-API sammeln [Seite 137]
11.5 - 9.5 Einen Hund-Katze-Klassifikator erstellen [Seite 138]
11.6 - 9.6 Suchergebnisse verbessern [Seite 140]
11.7 - 9.7 Trainieren vortrainierter Netzwerke zur Bilderkennung [Seite 142]
12 - Kapitel 10: Eine Reverse-Image-Suchmaschine erstellen [Seite 145]
12.1 - 10.1 Zugriff auf Bilder von Wikipedia [Seite 145]
12.2 - 10.2 Projektion von Bildern in einen N-dimensionalen Raum [Seite 148]
12.3 - 10.3 Nächste Nachbarn in hochdimensionalen Räumen finden [Seite 149]
12.4 - 10.4 Lokale Nachbarschaften in Einbettungen erkunden [Seite 150]
13 - Kapitel 11: Mehrere Bildinhalte erkennen [Seite 153]
13.1 - 11.1 Erkennen mehrerer Bildinhalte mithilfe eines vortrainierten Klassifikators [Seite 153]
13.2 - 11.2 Bilderkennung mithilfe eines Faster RCNN [Seite 157]
13.3 - 11.3 Eigene Bilder in einem Faster RCNN verwenden [Seite 160]
14 - Kapitel 12: Mit Bildstilen arbeiten [Seite 163]
14.1 - 12.1 Aktivierungen eines CNN visualisieren [Seite 164]
14.2 - 12.2 Oktaven und Vergrößerung [Seite 167]
14.3 - 12.3 Veranschaulichen, was ein neuronales Netzwerk in etwa wahrnimmt [Seite 169]
14.4 - 12.4 Den Stil eines Bilds erfassen [Seite 172]
14.5 - 12.5 Verbessern der Verlustfunktion zur Erhöhung der Bildkohärenz [Seite 175]
14.6 - 12.6 Einen Stil auf ein anderes Bild übertragen [Seite 177]
14.7 - 12.7 Stilinterpolation [Seite 178]
15 - Kapitel 13: Bilder mit Autoencodern erzeugen [Seite 181]
15.1 - 13.1 Zeichnungen aus Google Quick Draw importieren [Seite 182]
15.2 - 13.2 Einen Autoencoder für Bilder erstellen [Seite 183]
15.3 - 13.3 Visualisierung der Ergebnisse von Autoencodern [Seite 186]
15.4 - 13.4 Sampling von Bildern aus einer korrekten Verteilung [Seite 187]
15.5 - 13.5 Den latenten Raum eines Variational Autoencoders visualisieren [Seite 191]
15.6 - 13.6 Conditional Variational Autoencoder [Seite 192]
16 - Kapitel 14: Piktogramme mithilfe von neuronalen Netzwerken erzeugen [Seite 197]
16.1 - 14.1 Piktogramme zum Trainieren beschaffen [Seite 198]
16.2 - 14.2 Piktogramme in eine Tensor-Darstellung umwandeln [Seite 200]
16.3 - 14.3 Piktogramme mithilfe eines Variational Autoencoders erzeugen [Seite 201]
16.4 - 14.4 Datenanreicherung zur Verbesserung der Leistung des Autoencoders [Seite 204]
16.5 - 14.5 Ein Generative Adversarial Network aufbauen [Seite 205]
16.6 - 14.6 Generative Adversarial Networks trainieren [Seite 207]
16.7 - 14.7 Mit einem GAN erzeugte Piktogramme anzeigen [Seite 209]
16.8 - 14.8 Piktogramme als Zeichenanleitung kodieren [Seite 211]
16.9 - 14.9 Trainieren eines RNN zum Zeichnen von Piktogrammen [Seite 212]
16.10 - 14.10 Piktogramme mithilfe eines RNN erzeugen [Seite 213]
17 - Kapitel 15: Musik und Deep Learning [Seite 217]
17.1 - 15.1 Einen Trainingsdatensatz zur Musikklassifikation erstellen [Seite 218]
17.2 - 15.2 Einen Musikgenre-Detektor trainieren [Seite 220]
17.3 - 15.3 Visualisierung von Klassifikationsirrtümern [Seite 222]
17.4 - 15.4 Indexierung vorhandener Musik [Seite 224]
17.5 - 15.5 Die Spotify-API einrichten [Seite 226]
17.6 - 15.6 Playlisten und Musikstücke von Spotify sammeln [Seite 227]
17.7 - 15.7 Ein Musikempfehlungssystem trainieren [Seite 230]
17.8 - 15.8 Musikstücke empfehlen mithilfe eines Word2vec-Modells [Seite 231]
18 - Kapitel 16: Machine-Learning-Systeme in Produktion bringen [Seite 235]
18.1 - 16.1 Ein Nächste-Nachbarn-Klassifikationsmodell für Einbettungen mit scikit-learn verwenden [Seite 236]
18.2 - 16.2 Postgres zum Speichern von Einbettungen verwenden [Seite 237]
18.3 - 16.3 Einpflegen und Abfragen von in Postgres gespeicherten Einbettungen [Seite 238]
18.4 - 16.4 Hochdimensionale Modelle in Postgres speichern [Seite 239]
18.5 - 16.5 Microservices in Python erstellen [Seite 241]
18.6 - 16.6 Keras-Modelle als Microservice bereitstellen [Seite 242]
18.7 - 16.7 Einen Microservice aus einem Web-Framework aufrufen [Seite 243]
18.8 - 16.8 seq2seq-Modelle in TensorFlow [Seite 244]
18.9 - 16.9 Deep-Learning-Modelle im Browser ausführen [Seite 246]
18.10 - 16.10 Ein Keras-Modell mit TensorFlow Serving ausführen [Seite 248]
18.11 - 16.11 Ein Keras-Modell unter iOS verwenden [Seite 251]
19 - Index [Seite 253]
20 - Über den Autor [Seite 261]
21 - Über die Übersetzer [Seite 261]
22 - Kolophon [Seite 261]

Dateiformat: PDF
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie zum Lesen die kostenlose Software Adobe Reader, Adobe Digital Editions oder einen anderen PDF-Viewer Ihrer Wahl (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie die kostenlose App Adobe Digital Editions oder eine andere Lese-App für E-Books (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nur bedingt: Kindle)

Das Dateiformat PDF zeigt auf jeder Hardware eine Buchseite stets identisch an. Daher ist eine PDF auch für ein komplexes Layout geeignet, wie es bei Lehr- und Fachbüchern verwendet wird (Bilder, Tabellen, Spalten, Fußnoten). Bei kleinen Displays von E-Readern oder Smartphones sind PDF leider eher nervig, weil zu viel Scrollen notwendig ist. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

27,99 €
inkl. 5% MwSt.
Download / Einzel-Lizenz
PDF mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
E-Book bestellen