Die Berechnung der Welt

Von der Weltformel zu Big Data
 
 
C.H. Beck (Verlag)
  • 1. Auflage
  • |
  • erschienen am 9. Mai 2014
  • |
  • 352 Seiten
 
E-Book | ePUB mit Wasserzeichen-DRM | Systemvoraussetzungen
E-Book | PDF mit Wasserzeichen-DRM | Systemvoraussetzungen
978-3-406-66131-0 (ISBN)
 
Klaus Mainzer zeigt in diesem Buch, wie es bei dem Vorhaben, die Welt zu berechnen, zu einer Revolution der Denkart kam. Während Generationen von Mathematikern, Physikern und Philosophen auf der Suche nach der Weltformel mit Gleichungen arbeiteten und in den Kategorien von Ursache und Wirkung dachten, ist die «new science» dadurch charakterisiert, dass an die Stelle mathematischer Beweise und Theorien Computerexperimente und Algorithmen treten. «Korrelation» statt «Begründung», lautet die Devise des neuen Denkens. Die Korrelationen in Big Data sollen bislang verborgene Zusammenhänge aufdecken. Nach diesem Prinzip, schreibt das US-Magazin Time, will die 2013 von Google neu gegründete Medizinfirma Calico an der Lebensverlängerung des Menschen arbeiten, indem nicht die Ursachen von Alter und Krankheit untersucht, sondern Unmengen medizinischer Daten mit Algorithmen ausgewertet werden. Eine beispiellose Erfolgsgeschichte also? Mainzer stellt in diesem Buch die faszinierende neue Art der Wissensgewinnung vor, aber er macht auch die Gegenrechnung auf. Sein Buch ist ein Plädoyer für die Besinnung auf die Grundlagen, Theorien, Gesetze und die Geschichte, die zu der Welt führen, in der wir heute leben.
  • Deutsch
  • München
  • |
  • Deutschland
mit 52 Abbildungen
  • 8,32 MB
978-3-406-66131-0 (9783406661310)
weitere Ausgaben werden ermittelt
Klaus Mainzer war Professor für Philosophie und Wissenschaftstheorie an der Universität Konstanz und der Universität Augsburg. Seit 2008 hat er den Lehrstuhl für Philosophie und Wissenschaftstheorie und ist Direktor der Carl von Linde-Akademie an der Technischen Universität München. Seit 2012 ist er Gründungsdirektor des Munich Center for Technology in Society.
  • Cover
  • Titel
  • Impressum
  • Inhalt
  • Vorwort
  • Einführung
  • Kapitel 1: Auf der Suche nach der Weltformel
  • Weltformel der Platonischen Körper
  • Mathematische Symmetrie
  • Globale Symmetrie physikalischer Gesetze
  • Lokale Symmetrie physikalischer Gesetze
  • Eichsymmetrie und Große Vereinigungstheorie
  • Eichsymmetrie als Weltformel?
  • Spontane Symmetriebrechung
  • Symmetrie und Eleganz von Formeln
  • Feynman-Diagramme und abstrakte Formeln
  • Big Data und vorläufige Erfolgsrezepte
  • Big Data und fundamentale Symmetriegesetze
  • Kapitel 2: «Nichts wäre ungewiss .» (Laplacescher Geist)
  • Formeln analytischer Geometrie
  • Formeln analytischer Mechanik
  • Formeln der Verwaltung?
  • Laplace und Gott
  • Laplacescher Geist und Berechenbarkeit der Welt
  • Berechenbarkeit in der Politik?
  • Erbe von Laplace
  • Kapitel 3: «Wir müssen wissen - wir werden wissen» (David Hilbert)
  • Euklids Axiomensystem der Geometrie
  • Hilberts formales Axiomensystem der Geometrie
  • Modelle formaler Axiomensysteme
  • Unabhängigkeit formaler Axiome
  • Widerspruchsfreiheit formaler Axiome
  • Vollständigkeit formaler Axiome
  • Grundlagenkrise der Mathematik
  • Cantors Axiomensystem der Mengenlehre
  • Mathematischer Intuitionismus und Konstruktivismus
  • Hilberts Programm finiter Formalismen
  • Axiomatische Methode und Weltformel
  • Kapitel 4: Unvollständigkeit und Unentscheidbarkeit (Gödel und Turing)
  • Gödels unentscheidbare Aussagen und unvollständige Formalismen
  • Formalismen und Computersprachen
  • Turings Beiträge zur Theorie und Praxis der Berechenbarkeit
  • Berechenbarkeit und Turingmaschine
  • Universelle Turingmaschine
  • Churchsche These und Berechenbarkeit
  • Komplexität der Berechenbarkeit
  • Berechenbarkeit und Leibniz' Programm der Mathesis Universalis
  • Effektive Entscheidbarkeit
  • Effektive Aufzählbarkeit
  • Unentscheidbarkeit und Halteproblem einer Turingmaschine
  • Unentscheidbarkeit und nicht-berechenbare Zahlen
  • Formales System der Prädikatenlogik
  • Logische Wahrheiten
  • Vollständigkeit und Unentscheidbarkeit der Prädikatenlogik
  • Unvollständigkeit und Turings Halteproblem
  • Widerspruchsfreiheitsbeweise und Hilberts finite Methoden
  • Kapitel 5: Von der Beweistheorie zu Computerprogrammen (Gentzen und Turing)
  • Von der Turingmaschine zur Gödelmaschine
  • Widerspruchsfreiheitsbeweise und Gentzens transfinite Methoden
  • Turings ordinale Beweistheorie
  • Grade der Entscheidbarkeit
  • Hyper-Berechenbarkeit
  • Turings Orakelmaschine
  • Orakelmaschinen und Intuition
  • Big Data und Orakelmaschinen
  • Orakelmaschinen in der Wissenschaft
  • Vom logisch-mathematischen Formalismus zum Software-Engineering
  • Theorembeweiser und Gentzen-Kalkül
  • Churchs ?-Kalkül und mathematische Funktionen
  • Von mathematischen Funktionen zum funktionalen Programmieren
  • Kapitel 6: Die Welt als Automat (John von Neumann, Konrad Zuse et al.)
  • Leibniz' Welt der göttlichen Automaten
  • Kluge Frauen über Automaten
  • Die Erfindung zellulärer Automaten
  • Umgebungsfunktionen einer Zelle
  • Computersimulation zellulärer Automaten
  • Selbstreproduktion zellulärer Automaten
  • Zelluläre Automaten und Churchsche These
  • Zelluläre Automaten und biologische Evolution
  • Konrad Zuse und John von Neumann
  • Zuses «Rechnender Raum»
  • Zuse-Fredkin-Hypothese
  • 1-dimensionale zelluläre Automaten
  • Stephen Wolframs «A New Kind of Science»
  • Computerexperimente reichen nicht!
  • Boolesche Gesetze der Musterbildung
  • Platonische Würfel als Bausteine des Universums zellulärer Automaten
  • Komplexitätsgrade zellulärer Automaten
  • Symmetriegesetze im Universum zellulärer Automaten
  • Symmetrie und Berechenbarkeit im Universum zellulärer Automaten
  • Zeitpfeil und Zeitsymmetrie im Universum der Physik und zellulärer Automaten
  • Zeitsymmetrie im Universum zellulärer Automaten
  • Zeitpfeil im Universum zellulärer Automaten
  • Zelluläre Automaten als dynamische Systeme
  • Berechenbarkeit der Automatenwelt und der physikalischen Wirklichkeit
  • Kapitel 7: Quantenwelt und Quantencomputer (Feynman et al.)
  • Quantenzustände und Superpositionen
  • Verschränkte Zustände und EPR-Experimente
  • Quantencomputer und Quantenparallelismus
  • Quantenbits und Hilberträume
  • Quanten-Turingmaschine und Churchsche These
  • Zelluläre Quantenautomaten
  • Digitale Quantenwelt
  • It from Bit?
  • Quantencomputer und Big Data
  • Kapitel 8: Chaos und Komplexität (Poincaré et al.)
  • Definition dynamischer Systeme
  • Lineare Dynamik
  • Zustandsraum dynamischer Systeme
  • Nichtlineare Dynamik
  • Mehrkörperprobleme und Grenzen der Berechenbarkeit
  • KAM-Theorem und Grenzen der Berechenbarkeit
  • Rekursionsverfahren und Differenzengleichungen
  • Zeitreihen und Komplexitätsgrade
  • Attraktoren im Zustandsraum
  • Zufall und Chaos
  • Strömungsdynamik und stochastische Gleichungen
  • Kapitel 9: Big Data - Die Berechnung von Leben und Gehirn
  • Turings Modell zellulärer Strukturbildung
  • Stephen Smales Modell zellulärer Strukturbildung
  • Selbstorganisation komplexer dynamischer Systeme
  • Das Prinzip lokaler Aktivität erklärt komplexe Struktur- und Musterbildung
  • Reaktions-Diffusionsgleichungen und zelluläre Dynamik
  • Testverfahren für lokale Aktivität
  • Parameterraum für Struktur- und Musterbildung
  • Struktur- und Musterbildung am Rand des Chaos
  • Struktur- und Musterbildung in der Chemie
  • Struktur- und Musterbildung in Zoologie und Botanik
  • Struktur- und Musterbildung in der Gehirnforschung
  • Berechnung neuronaler Musterbildung durch FitzHugh-Nagumo-Gleichungen
  • Elektrotechnisches Modell eines Axons
  • Elektrotechnisches Modell einer Hodgkin-Huxley-Zelle
  • Memristoren
  • Berechnung neuronaler Musterbildung durch Hodgkin-Huxley (HH)-Reaktions-Diffusionsgleichungen
  • Prinzip lokaler Aktivität als Ursache neuronaler Musterbildung
  • Von der Selbstwahrnehmung zum Selbstbewusstsein
  • Neurotechnische Erklärung von Semantik
  • Von Daten über Information zu Wissen
  • Vom Wissen über Informations- zur Datenverarbeitung
  • Architektur von Gehirnen und Computern
  • Theory of Mind: Erklärung sozialer Kompetenz
  • Kartographierung und Vermessung des Gehirns
  • Totale Berechnung des Gehirns?
  • Kapitel 10: Vom Internet zu soziotechnischen Systemen
  • Komplexe Kommunikationsnetze der Evolution
  • Komplexe Kommunikationsnetze der Technik
  • Struktur und Dynamik von Computernetzen
  • Internet als komplexes sich selbst organisierendes Informationssystem
  • Analogien von Computernetzen und Gehirnen
  • Big Data in Computernetzen und Gehirnen
  • World Wide Web als virtuelle Maschine
  • Mobilfunk und Kommunikationsnetze
  • Mooresches Gesetz
  • Ubiquitous Computing
  • Von Virtual Reality zu Augmented Reality
  • Cyberphysical Systems und Big Data
  • Smart Grids und Big Data
  • Cloud Computing und Big Data
  • Mathematik komplexer Netze
  • Komplexitätsgrade von Signalmustern
  • Evolution von Versorgungs-, Kontroll- und Informationssystemen
  • Vereinigte Theorie komplexer Netzwerke
  • Grade der Berechenbarkeit und Orakelmaschinen
  • Komplexität und logische Tiefe
  • Smart Cities und Big Data
  • Cyberphysical Systems realisieren soziotechnische Systeme
  • Modellierung von Informationsinfrastrukturen
  • Ethos von Informationsinfrastrukturen
  • Informationsinfrastrukturen und Demokratie
  • Kapitel 11: Berechenbarkeit von Risiken und Wahrscheinlichkeit
  • Leibniz über Risiken und Wahrscheinlichkeit
  • Fairer Münzwurf und das Gesetz der großen Zahl
  • Gaußsche Glockenkurve
  • Normalverteilung und Big Data
  • Laplacescher Geist und Wahrscheinlichkeit
  • Wahrscheinlichkeit als Grenzwert regelloser Zufallsfolgen
  • Kolmogorovs Axiomensystem des Wahrscheinlichkeitsbegriffs
  • Beispiele von Wahrscheinlichkeitsverteilungen
  • Seltene Ereignisse und das Gesetz der kleinen Zahl
  • Zentraler Grenzwertsatz und Normalverteilung
  • Extreme Ereignisse und Nicht-Gaußverteilungen
  • Berechnung von Risiken auf Versicherungsmärkten
  • Bacheliers Modell zur Berechnung des Börsenmarkts
  • Voraussetzungen von Bacheliers Modell
  • Berechnung von Portfolios
  • Black-Scholes-Formel zur Berechnung von Call-Optionen
  • Universelle Berechenbarkeit von Turbulenzen in Natur und Gesellschaft?
  • Risikomanagement durch Verbriefung
  • Berechnungsmodell für Risiken durch VaR (Value at Risk)
  • Krise der Risikoberechnung
  • Axiomatische Definition kohärenter Risikomaße
  • Konvexe Risikomaße und Modellunsicherheit
  • Beschränkte Rationalität und Big Data
  • Karl Popper und der schwarze Schwan
  • Bertrand Russell und der naive Truthahn
  • Nassim Taleb und das «Ende der Theorie»
  • Der Aberglaube an ein Perpetuum Mobile der Gewinnmaximierung
  • Skeptische Philosophie und Big Data
  • Berechenbarkeit der Soziodynamik
  • Komplexitätsmanagement und Berechenbarkeit
  • Verhaltensökonomie und Berechenbarkeit
  • Was macht die Mathematisierung der sozialen Welt so schwierig?
  • Kapitel 12: Big Data - Die Berechnung der sozialen Welt
  • Internet der Dinge
  • Soziale Netzwerke
  • Facebook, Twitter und Big Data
  • Prinzip lokaler Aktivität und Big Data
  • Datenexplosion und Big Data
  • Big Data und das «Ende der Theorie»?
  • Definition von Big Data
  • Big Data-Algorithmen
  • Metadaten und Big Data
  • Metadaten und Datenkontext
  • Big Data im Gesundheitssystem
  • Big Data in der Ökonomie
  • Industrie 4.0 und Big Data
  • Big Data in Staat und Verwaltung
  • Big Data in Geistes- und Kulturwissenschaften («Digital Humanities»)
  • Automatische Schreibprogramme und Big Data
  • Partnersuche, Liebe und Big Data
  • Big Data und Intuition
  • Big Data im Fußball
  • Big Data und die totale Überwachung
  • Big Data und «A New Kind of Science»?
  • WolframAlpha-Wissensmaschine
  • Mathematische Gesetze in Mathematica-Software
  • Datenkompression oder Irreduzibilität der Rechenzeit?
  • Werte und Gewissen in der Big-Data-Welt
  • Berechenbarkeit in der Politik?
  • Sind Kriege berechenbar?
  • Drohnen und Big Data
  • Big Data und die Illusion von der Berechenbarkeit des Tötens
  • Big Data und die schöne neue Welt der Spionage
  • Big Data und Gödels Entdeckung der Unvollständigkeit der Demokratie
  • Kapitel 13: «Formeln zur Macht» oder Berechenbarkeit unserer Zukünfte?
  • «Formeln zur Macht» - oder wer wird Supermacht?
  • Macht der Algorithmen im Zweiten Weltkrieg
  • Wie berechenbar ist die Zukunft?
  • Szenarien von Zukünften
  • Delphi-Verfahren
  • Zukunft der Menschheit
  • Energieskala zukünftiger Zivilisationen
  • Weltraumtechnologie zukünftiger Zivilisationen
  • Zuses Vision sich selbst reproduzierender Weltraumroboter
  • Zukünfte von Cyberphysical Systems
  • Zukünfte des Lebens
  • Informationsskala zukünftiger Zivilisationen
  • «Datengetriebene» (data driven) Prognosen
  • Bedeutung der Naturgesetze
  • Erkenntnisschema mathematischer Naturgesetze
  • Big Data in den Lebenswissenschaften reicht nicht
  • Vermessung und Berechnung des Lebens auf der Grundlage von Gesetzen
  • Prognosepotential in Wirtschafts- und Sozialwissenschaften
  • Kapitel 14: Wieso passt die Mathematik so gut auf die Welt?
  • Vom Zählen zum Zahlbegriff
  • Beweis des Unendlichen: die Macht der Theorie
  • Mathematische Welten jenseits des Abzählbaren
  • Von geometrischen Konstruktionen zur Idealität geometrischer Formen
  • Lösung mathematischer Probleme durch Abstraktion: die Macht der Theorie
  • Die Gesetze der Mathematik gelten im strengen logischen Sinn unabhängig von der physikalischen Raum-Zeit
  • Mathematische Abstraktion und physikalische Anwendung
  • Formale Axiomensysteme, Modelle und Datenmuster
  • Invarianz- und Symmetriegesetze der Natur
  • Sind mathematische Strukturen Konstruktionen des menschlichen Geistes oder reale Strukturen der Welt?
  • Symmetrie und Symmetriebrechung
  • Digitale Struktur der physikalischen Welt
  • Kritik der Urteilskraft und Big Data
  • Das Lachen der thrakischen Magd und Big Data
  • Anhang
  • Anmerkungen
  • Literaturverzeichnis
  • Abbildungsnachweis
  • Sachverzeichnis
  • Personenverzeichnis
  • Zum Buch
  • Über den Autor

 

 

Einführung


Epidemien, Marktprodukte und Verbrechen lassen sich, so melden Zeitungen und Medien, immer besser vorausberechnen. Grund sind exponentiell steigende Datenmengen, die immer preiswerter gespeichert und mit gigantisch wachsender Rechenpower immer schneller verarbeitet werden können. Es sind nicht nur die Daten, die viele Millionen von Nutzern in Informations- und Kommunikationsnetzen hinterlassen. Bücher, Musik, Fotografien und Videos gehören ebenso dazu wie Telefonanrufe oder Navigationssysteme unserer Fahrzeuge. Im Internet der Dinge beobachtet die Welt sich selber und produziert über Sensoren Milliarden von Dateneinheiten. Informationskonzerne wie z.B. Google und Facebook vermessen damit die Welt, berechnen Persönlichkeitsprofile und bestimmen unsere Zukunft.

Einige dieser Strategen verkündigen bereits das «Ende der Theorie» – ein radikaler und neuer Paradigmenwechsel, so glaubt man, der die Ursachen und Wirkungen von Krankheiten, Märkten und Verbrechen nicht mehr verstehen muss, sondern durch blitzschnelles Durchforsten von riesigen Datenmengen Muster und Korrelationen erkennt, die Voraussagen in Echtzeit erlauben. Gemeint ist dabei keine wahrscheinlichkeitstheoretisch begründete Hochrechnung aus repräsentativen Stichproben. Gemeint ist die Berechnung von Korrelationen aus nahezu allen Daten eines gesamten Datensatzes. Tatsächlich waren es nur Korrelationen über Anfragen und Kaufverhalten im Internet, die Google 2009 den Ausbruch einer Epidemie voraussagen ließen, ohne langwierige Datenerhebungen von z.B. Gesundheitsämtern und repräsentative Stichproben abwarten oder sogar medizinisch begründete Modelle des Krankheitsverlaufs kennen zu müssen.

Ebenso lassen sich Markttrends und Profile von Produkten aus scheinbar zufälligen und nicht zusammenhängenden Daten über Personen, ihre Themen und Präferenzen schneller und verlässlicher erschließen als über gezielte Befragungen. Bemerkenswerte Erfolge gelangen in der Prävention von Verbrechen, indem aufgrund von automatischen Datenanalysen die Wahrscheinlichkeit von Diebstahl, Einbrüchen und Tötungsdelikten in bestimmten Straßen berechnet wurde und präventiv Polizei vor Ort die Straftaten verhinderte: Das kommt dem Science-Fiction-Film «Minority Report» erstaunlich nahe, in dem in einer total vernetzten Welt eine Art von Gedankenpolizei Strafdaten vollständig ausschalten wollte.

Technisch bezeichnet man mit dem Schlagwort «Big Data» gigantische Datenmengen, die in konventionellen Datenbanken nicht mehr bearbeitet werden können. Dazu wurden neue Softwarewerkzeuge entwickelt, die nicht mehr wie klassische Computerprogramme mit einem Rechnerprozessor auskommen. Vielmehr werden in Parallelrechnung Hunderte oder Tausende von Prozessoren in Superrechnern gleichzeitig eingesetzt, um so eine Reduktion der Komplexität in der Bearbeitung zu erreichen. In diesem Sinn lassen sich mit «Big Data» konkrete Geschäftsmodelle für Firmen aller Art entwickeln, die möglichst adaptiv, trendsicher und schnell auf Märkte reagieren sollen. Die deutsche Industrie sieht daher durchaus das Potential solcher Art von Big Data-Technologie, gibt sich aber bescheiden und bedeckt gegenüber den weitreichenden Visionen von jenseits des Atlantiks.

Es wäre allerdings leichtfertig und fahrlässig, den Big Data-Hype als typisch amerikanische Marketingstrategie herunterzuspielen, um sich auf derzeit vorhandene Software-Technologien zu beschränken. Tatsächlich wird hier ein Trend sichtbar, der bereits die Dynamik menschlicher Zivilisation maßgeblich bestimmt und auch die Wissenschaften erfasst hat: Was wäre, wenn in Zukunft tatsächlich neue Erkenntnis und die Lösung unserer Probleme nur von der schieren Steigerung von Datenmenge, Datenanalyse und Rechenpower abhängen? Ist die Suche nach Erklärungen, Ursachen und kausalen Zusammenhängen, Gesetzen und Theorien angesichts der steigenden Komplexität der Probleme nicht völlig überholt? Können wir uns angesichts des Tempos zivilisatorischer Entwicklung und der Notwendigkeit schneller Entscheidungen überhaupt noch solche zeitraubende Grundlagenforschung leisten? Sollten wir nicht die «Warum»-Frage vergessen und uns auf das «Was» der Daten beschränken?

Historisch steht die «Warum»-Frage am Anfang menschlichen Denkens in Wissenschaft und Philosophie. Warum bewegen sich Sterne und Planeten in regelmäßigen Bahnen? Ist die Vielfalt der Stoffe aus einfachen Grundbausteinen aufgebaut? In griechischer Tradition entstand eine faszinierende Idee, die den weiteren Entwicklungsgang von Forschung grundlegend beeinflusste. Der scheinbar chaotischen Vielfalt der Sinneseindrücke liegen einfache Gesetze der Symmetrie, Regelmäßigkeit und Harmonie zugrunde, die mathematisch beschreibbar sind. Diese Entwicklung begann mit den regulären Körpern Piatons und führte zur Suche nach Symmetrien in den Grundgesetzen der modernen Elementarteilchenphysik. Die Suche nach der Weltformel ist der Versuch, die Komplexität der Welt durch einfache Symmetriegesetze zu bewältigen (Kapitel 1). Das ist der Trend einer theoriegeleiteten («hypotheses-driven») Forschung. Dahinter steht die Überzeugung: Erst wenn wir eine gute Theorie haben, können wir wissen, wonach wir suchen, um die Vielfalt der Welt zu verstehen und zu bewältigen.

Aber auch die datengetriebene («data-driven») Forschungsperspektive ist keineswegs neu, wie leider historisch wenig gebildete Trendmacher von Big Data glauben machen wollen. Vielmehr ist dieser Trend tief in den Anfängen der Wissenschaftsentwicklung verwurzelt. In einer technisch-wissenschaftlich geprägten Zivilisation bekommen die dahinterstehenden wissenschaftlichen und philosophischen Traditionen eine dramatische Bedeutung. Die Forderung, auf Fakten und Messdaten zu setzen und Hypothesen zu misstrauen, findet sich von Francis Bacon bis Isaac Newton. Der schottische Aufklärungsphilosoph David Hume kritisiert kausale Verknüpfungen von Ereignissen als Hirngespinste und führt sie auf Korrelationen von Sinneseindrücken zurück. Mit Auguste Comtes Positivismus zieht der Glaube an Fakten und Daten auch in die Sozialwissenschaften ein.

Daten werden Zahlen zugeordnet und damit berechenbar. Gesetze werden zu Rechenregeln, um mathematische Gleichungen zu lösen. Ende des 18. Jahrhunderts ist für den Mathematiker und Astronomen Pierre Simon Laplace die Welt durch Anfangsdaten und Bewegungsgleichungen vollständig bestimmt. Daher kommt es nur auf die Berechnung von Gleichungslösungen an, um zu präzisen Voraussagen zu gelangen. Wenn also, so argumentiert Laplace, einer «Intelligenz» alle diese Daten und Gleichungen gegeben wären, müsste für sie die Welt total berechenbar sein. Diese von Laplace unterstellte «Intelligenz» geht als Laplacescher Geist in die Geschichte ein (Kapitel 2). Naheliegend ist es heute, sich darunter einen Superrechner vorzustellen. Berechnungen sind nach Laplace keineswegs auf deterministische Abläufe beschränkt. Die Wahrscheinlichkeit von abhängigen und unabhängigen Ereignissen und ihre Erwartungswerte sind Thema seines zweibändigen Werks über Wahrscheinlichkeitsrechnung von 1812.

Sind Gesetze aber tatsächlich überflüssig, ein Relikt aus einer Zeit, als Naturgesetze noch wie bei Galilei und Newton als «Gedanken Gottes» in der Sprache der Mathematik aufgefasst wurden? Von Nietzsches «Gott ist tot» zum «Tod der Gesetze» als unumkehrbarer Trend der modernen Welt? Massen von Daten und Zahlen alleine sind für uns aber ebenso sinnlos wie die Milliarden von Sinneseindrücken, die unsere Sinnesorgane tagtäglich bombardieren. Seit frühster Jugend haben wir gelernt, uns an Mustern und Regelmäßigkeiten dieser Daten zu orientieren. Stellen wir uns ein Gerät vor, das eine Folge von Werten aus den Ziffern 0 und 1 (Bits) generiert. In der Bitfolge 01010101010101010101 erkennen wir die periodische Abfolge des Paares 01. Es ist daher kürzer, die Regel «10 mal 01» zu notieren und mit dieser Regel die nächsten Schritte dieser Abfolge vorauszusagen. In der Datenfolge 01100010111001011110 ist kein Muster zu erkennen und damit auch keine Möglichkeit der Voraussage. Um diese Abfolge zu beschreiben, gibt es keine kürzere Darstellung als die Folge selber. Regeln und Gesetze sind also zunächst Datenkompressionen, die ein Muster zum Ausdruck bringen.

Unser Gehirn wurde während seiner Evolution auf Datenkompression und Reduktion von Komplexität trainiert. Blitzschnelle Entscheidungen hängen von dieser Fähigkeit ab. Das traf nicht nur im Überlebenskampf während der Steinzeit zu. Auch im heutigen Geschäftsleben und in der Politik stehen wir unter dem Druck häufig reflexartiger Entscheidungen. Superrechner und Big Data scheinen diesen Trend zur schnellen Entscheidung zu bedienen. Gelegentlich bilden wir uns aber auch Zusammenhänge und Muster ein, denen nur scheinbare Korrelationen von Ereignissen zugrunde liegen. Wetterregeln unserer Vorfahren waren häufig nicht besser begründet als das Zockerverhalten von Börsenspekulanten. Aber die Muster und Korrelationen von Big Data bleiben zufällig, wenn wir die zugrunde liegenden Zusammenhänge nicht verstehen. Natürlich greift...

Dateiformat: EPUB
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie eine Lese-Software, die das Dateiformat EPUB verarbeiten kann: z.B. Adobe Digital Editions oder FBReader - beide kostenlos (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat EPUB ist sehr gut für Romane und Sachbücher geeignet - also für "fließenden" Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Dateiformat: PDF
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie zum Lesen die kostenlose Software Adobe Reader, Adobe Digital Editions oder einen anderen PDF-Viewer Ihrer Wahl (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie die kostenlose App Adobe Digital Editions oder eine andere Lese-App für E-Books (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nur bedingt: Kindle)

Das Dateiformat PDF zeigt auf jeder Hardware eine Buchseite stets identisch an. Daher ist eine PDF auch für ein komplexes Layout geeignet, wie es bei Lehr- und Fachbüchern verwendet wird (Bilder, Tabellen, Spalten, Fußnoten). Bei kleinen Displays von E-Readern oder Smartphones sind PDF leider eher nervig, weil zu viel Scrollen notwendig ist. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

19,99 €
inkl. 19% MwSt.
Download / Einzel-Lizenz
ePUB mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
PDF mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
Hinweis: Die Auswahl des von Ihnen gewünschten Dateiformats und des Kopierschutzes erfolgt erst im System des E-Book Anbieters
E-Book bestellen