Neuronale Netze programmieren mit Python

Ihre Einführung in die Künstliche Intelligenz. Inkl. KI-Lernumgebung und Einstieg in TensorFlow
 
 
Rheinwerk (Verlag)
  • 1. Auflage
  • |
  • erschienen im Mai 2019
 
  • Buch
  • |
  • Softcover
  • |
  • 447 Seiten
978-3-8362-6142-5 (ISBN)
 

Geniale Ideen einfach erklärt

  • Schneller Einstieg mit allen Python- und Mathegrundlagen
  • Lernalgorithmen, Aktivierungsfunktionen, Backpropagation
  • Inkl. Online-Lernumgebung und Einstieg in TensorFlow
Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung. Um sie gewinnbringend einzusetzen oder um zu verstehen, worauf ihr Erfolg beruht, lernen Sie sie gründlich kennen: Programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse.

Aus dem Inhalt:

  • Die Grundidee hinter Neuronalen Netzen
  • Ein einfaches Neuronales Netz aufbauen
  • Neuronale Netze trainieren
  • Überwachtes und unüberwachtes Lernen
  • Einführung in TensorFlow
  • Kompaktkurs Python
  • Wichtige mathematische Grundlagen
  • Reinforcement Learning
  • Verschiedene Netzarten und ihre Anwendungsbereiche
  • Back Propagation
  • Deep Learning
  • Werkzeuge für Data Scientists
  • Deutsch
  • Bonn
  • |
  • Deutschland
Rheinwerk
  • Neue Ausgabe
  • Klappenbroschur
  • Höhe: 231 mm
  • |
  • Breite: 172 mm
  • |
  • Dicke: 27 mm
  • 820 gr
978-3-8362-6142-5 (9783836261425)
weitere Ausgaben werden ermittelt
Dr. Roland Schwaiger studierte an der Bowling Green State University, OH (USA) Computer Science und an der Universität Salzburg (Österreich) Angewandte Informatik und Mathematik und promovierte dort im Bereich Mathematik. Nach mehrjähriger Assistententätigkeit an der Universität Salzburg kam er 1996 als Softwareentwickler zur SAP AG und entfaltete dort seine Fähigkeiten für drei Jahre im Bereich Human Resources in einem anregenden und inspirierenden Umfeld.
Seit 1999 ist er als freiberuflicher Trainer, Lektor, Berater und Entwickler tätig (Zertifizierter Development Consultant SAP NetWeaver 2004 - Application Development Focus ABAP). Er setzt seine akademische Vorbildung und das bei SAP erworbene Wissen, abgerundet durch einen MBA in Prozess- und Projektmanagement, für die Softwareentwicklung in konkreten Entwicklungsprojekten und SAP-Schulungen ein. Die dort wiederum erworbenen Erkenntnisse trägt er zurück in die akademische Welt und verknüpft so Theorie und Praxis.


Materialien zum Buch ... 12


Vorwort ... 13


1. Einleitung ... 17


1.1 ... Wozu neuronale Netze? ... 17

1.2 ... Über dieses Buch ... 18

1.3 ... Der Inhalt kompakt ... 19

1.4 ... Ist die Biene eine Königin? ... 23

1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24

1.6 ... Von der Biologie zum künstlichen Neuron ... 28

1.7 ... Einordnung und der Rest ... 33

1.8 ... Zusammenfassung ... 40

1.9 ... Referenzen ... 41




Teil I Up and running ... 43



2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45


2.1 ... Die technische Entwicklungsumgebung ... 45

2.2 ... Zusammenfassung ... 62



3. Ein einfaches neuronales Netz ... 63


3.1 ... Vorgeschichte ... 63

3.2 ... Her mit dem neuronalen Netz! ... 63

3.3 ... Neuron-Zoom-in ... 67

3.4 ... Stufenfunktion ... 71

3.5 ... Perceptron ... 73

3.6 ... Punkte im Raum - Vektorrepräsentation ... 75

3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81

3.8 ... Die gewichtete Summe ... 84

3.9 ... Schritt für Schritt - Stufenfunktionen ... 84

3.10 ... Die gewichtete Summe reloaded ... 85

3.11 ... Alles zusammen ... 86

3.12 ... Aufgabe - Roboterschutz ... 88

3.13 ... Zusammenfassung ... 91

3.14 ... Referenzen ... 91



4. Lernen im einfachen Netz ... 93


4.1 ... Vorgeschichte: Man lässt planen ... 93

4.2 ... Lernen im Python-Code ... 95

4.3 ... Perceptron-Lernen ... 95

4.4 ... Trenngerade für einen Lernschritt ... 99

4.5 ... Perceptron-Lernalgorithmus ... 100

4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105

4.7 ... scikit-learn-kompatibler Estimator ... 109

4.8 ... scikit-learn-Perceptron-Estimator ... 116

4.9 ... Adaline ... 118

4.10 ... Zusammenfassung ... 126

4.11 ... Referenzen ... 128



5. Mehrschichtige neuronale Netze ... 129


5.1 ... Ein echtes Problem ... 129

5.2 ... XOR kann man lösen ... 131

5.3 ... Vorbereitungen für den Start ... 135

5.4 ... Der Plan für die Umsetzung ... 137

5.5 ... Das Setup (»class«) ... 138

5.6 ... Die Initialisierung (»__init__«) ... 140

5.7 ... Was für zwischendurch (»print«) ... 142

5.8 ... Die Auswertung (»predict«) ... 143

5.9 ... Die Verwendung ... 145

5.10 ... Zusammenfassung ... 147



6. Lernen im mehrschichtigen Netz ... 149


6.1 ... Wie misst man einen Fehler? ... 149

6.2 ... Gradientenabstieg an einem Beispiel ... 151

6.3 ... Ein Netz aus sigmoiden Neuronen ... 160

6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162

6.5 ... Ein »fit«-Durchlauf ... 175

6.6 ... Zusammenfassung ... 184

6.7 ... Referenz ... 184



7. Convolutional Neural Networks ... 185


7.1 ... Aufbau eines CNN ... 187

7.2 ... Der Detektionsteil ... 188

7.3 ... Der Identifikationsteil ... 195

7.4 ... Trainieren von Convolutional Neural Networks ... 197

7.5 ... Zusammenfassung ... 206

7.6 ... Referenzen ... 206



8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207


8.1 ... Einführung in TensorFlow ... 207

8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215

8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228

8.4 ... Zusammenfassung ... 237

8.5 ... Referenzen ... 237




Teil II Deep Dive ... 239



9. Vom Hirn zum Netz ... 241


9.1 ... Ihr Gehirn in Aktion ... 241

9.2 ... Das Nervensystem ... 242

9.3 ... Das Gehirn ... 243

9.4 ... Neuronen und Gliazellen ... 245

9.5 ... Eine Übertragung im Detail ... 247

9.6 ... Darstellung von Zellen und Netzen ... 250

9.7 ... Zusammenfassung ... 252

9.8 ... Referenzen ... 253



10. Die Evolution der neuronalen Netze ... 255


10.1 ... 1940er ... 255

10.2 ... 1950er ... 258

10.3 ... 1960er ... 260

10.4 ... 1970er ... 260

10.5 ... 1980er ... 261

10.6 ... 1990er ... 274

10.7 ... 2000er ... 275

10.8 ... 2010er ... 275

10.9 ... Zusammenfassung ... 277

10.10 ... Referenzen ... 278



11. Der Machine-Learning-Prozess ... 279


11.1 ... Das CRISP-DM-Modell ... 279

11.2 ... Feature Engineering ... 283

11.3 ... Zusammenfassung ... 312

11.4 ... Referenzen ... 312



12. Lernverfahren ... 313


12.1 ... Lernstrategien ... 313

12.2 ... Werkzeuge ... 350

12.3 ... Zusammenfassung ... 355

12.4 ... Referenzen ... 355



13. Anwendungsbereiche und Praxisbeispiele ... 357


13.1 ... Warmup ... 357

13.2 ... Bildklassifikation ... 360

13.3 ... Erträumte Bilder ... 381

13.4 ... Zusammenfassung ... 391

13.5 ... Referenzen ... 392



A. Python kompakt ... 393


B. Mathematik kompakt ... 421


Index ... 435


Sofort lieferbar

29,90 €
inkl. 7% MwSt.
in den Warenkorb