Wie kann lernendes Verhalten in neuronalen Netzen durch Algorithmen beschrieben werden? Dieses Buch betrachtet Lernen in neuronalen Strukturen aus der Sicht der Komplexitätstheorie. Es wird gezeigt, wie sich mit der Gewichtskomplexität die Schwierigkeit erfassen läßt, Beispielmengen neuronal zu repräsentieren. Mit Hilfe von Identifikationskriterien werden einfache Lernregeln auf die Zahl der Lernschritte untersucht. Eine Betrachtung der Feinstruktur von Lernproblemen führt zu neuen Erkenntnissen über die Komplexität des Lernens in neuronalen Architekturen.
Reihe
Thesis
Sprache
Verlagsort
Frankfurt a.M.
Deutschland
Zielgruppe
Editions-Typ
Illustrationen
Maße
Höhe: 21 cm
Breite: 14.8 cm
Gewicht
ISBN-13
978-3-631-49906-1 (9783631499061)
Schweitzer Klassifikation
Der Autor: Michael Schmitt studierte Informatik an der Universität Karlsruhe. Er war Stipendiat am Institut für Theoretische Hirnforschung der Universität Düsseldorf und Wissenschaftlicher Mitarbeiter der Abteilung Neuroinformatik der Universität Ulm. Die Promotion an der Fakultät für Informatik der Universität Ulm erfolgte im Jahre 1994. Er ist nun Universitätsassistent am Institut für Grundlagen der Informationsverarbeitung der Technischen Universität Graz.
Aus dem Inhalt: Gewichtskomplexität linear trennbarer Mengen - Einfache Lernregeln für das Lernen aus Fehlern - Konsistenzprobleme in neuronalen Architekturen.