Schweitzer Fachinformationen
Wenn es um professionelles Wissen geht, ist Schweitzer Fachinformationen wegweisend. Kunden aus Recht und Beratung sowie Unternehmen, öffentliche Verwaltungen und Bibliotheken erhalten komplette Lösungen zum Beschaffen, Verwalten und Nutzen von digitalen und gedruckten Medien.
Ohne Sprache, Bilder, Schrift und andere Symbolsysteme, zu denen heute auch KI gehört, hätte sich die menschliche Intelligenz kaum oder höchstens wie in Schimpansen-Gesellschaften weiterentwickeln können. Ohne diesen »Wagenhebereffekt«[1] würden Kinder heute »genauso viel über Dinosaurier wissen wie Platon und Aristoteles, nämlich überhaupt nichts«[2], wie es der ehemalige Co-Direktor des Max-Planck-Instituts für evolutionäre Anthropologie in Leipzig, Michael Tomasello, auf den Punkt bringt. Darüber hinaus ermöglichten diese Symbolsysteme in der Geschichte der Menschheit neue, hybride Formen menschlicher Intelligenz, in denen der kulturelle Einfluss den biologischen Einfluss zu dominieren begann.
Seit circa 2,5 Millionen Jahren leben Vertreter der Gattung Homo auf der Erde. Zwischenzeitlich, vor etwa 930000 bis 813000 Jahren, lief der Zweig unserer menschlichen Vorfahren wohl Gefahr auszusterben: Es lebten nur noch etwa 1280 sich fortpflanzende Individuen, mit denen alle heute lebenden rund acht Milliarden Menschen verwandt sind.[3]
Anzeichen für das Erwachen einer neuen Form menschlicher Intelligenz sind Reste von Feuerstellen, die spätestens vor einer Million Jahren begannen zu lodern. Im Vergleich zu rohen Lebensmitteln spart eine gekochte Mahlzeit ungefähr 60 Prozent der Energie für die Verdauung ein. Davon profitierte das Organ mit dem höchsten Energieverbrauch, das Gehirn, sodass es sich bei den Homo-Arten in den folgenden Generationen vergrößern konnte.
Vor etwa 12000 Jahren begannen sich allmählich sesshafte Dorfgemeinschaften zu entwickeln, die Pflanzen und Tiere domestizierten. Ein Anzeichen dafür, dass sie eine neue Form menschlicher Intelligenz hervorgebracht hatten, ist die erfolgreiche Nutzung kalendarischer Himmelsbeobachtungen, mit denen Homo sapiens den richtigen Zeitpunkt für Aussaat, Pflanzung und Ernte bestimmen konnte.
Die Entwicklung einer weiteren neuen Form menschlicher Intelligenz belegen 6000 Jahre alte Schriftfunde aus Uruk in Mesopotamien (dem heutigen Irak). Berechnungen auf Tontafeln überliefern bis heute Rezepte für Gerstenbrot und Malz mit Maßangaben für ein Hohlmaßsystem, das bereits ein Zeichen für die Null enthielt. In anderen menschlichen Kulturkreisen, zum Beispiel im griechisch-römischen, lehnte man noch über lange Zeit ein Zeichen für nichts als widersinnig und nutzlos ab.
Mit dem maschinellen Buchdruck ab der zweiten Hälfte des 15. Jahrhunderts breiteten sich geschriebene Texte und Anleitungen zum Rechnen mit arabischen Zahlen, inklusive eines Zeichens für die Null, rasant aus. In der zweiten Hälfte des 18. Jahrhunderts wurde auch dank Büchern eine industrielle Revolution in Gang gesetzt. Seitdem ersetzen und übertreffen Maschinen tierische und menschliche Muskelkraft.
Die Kehrseite der industriellen Revolution sind unter anderem globale Erwärmung, Artensterben, Pandemien und drohende atomare Vernichtung. Zu Beginn des 21. Jahrhunderts erwachte die Hoffnung, diese Probleme mit maschineller Intelligenz zu lösen. Doch die Anfänge der KI reichen noch weiter zurück, bis in die 1930er-Jahre. Beispielsweise erdachte 1938 der Physiker John Vincent Atanasoff die Funktionsprinzipien für den Prototyp des ABC (Atanasoff-Berry-Computers), der sowohl Zahlen als auch logische Operationen in Nullen und Einsen codierte.[4] Halbleitertransistoren in den späten 1940er-Jahren und siliziumbasierte Transistoren in den späten 1950er-Jahren waren Vorläufer der Mikroprozessor- und Mikrocomputerrevolution in den 1970er-Jahren. Als eigentlicher Schöpfungsakt der Künstlichen Intelligenz im engeren Sinne gilt aber erst das Dartmouth Summer Research Project on Artificial Intelligence, das vom 19. Juni bis zum 16. August 1956 am Dartmouth College in Hanover, New Hampshire, stattfand.
Die Einführung eines Konzepts des maschinellen Lernens, bei dem Maschinen aus Erfahrungen lernen und sich selbst optimieren, wurde erst später zum Kern der KI. Big Data, Cloud-Computing und immer leistungsstärkere Hardware ermöglichen heute den Einsatz von KI in einer Vielzahl von Bereichen.[5] Gleichzeitig befürchten Menschen nun, von ihnen geschaffene Maschinen mit künstlicher Intelligenz (KI) könnten ihre eigene Intelligenz überflügeln und überflüssig machen.
Ein Vorläufer der Dartmouth-Konferenz waren die unter der Schirmherrschaft der Macy Foundation ausgerichteten Konferenzen zwischen 1946 und 1953. Das ursprüngliche Anliegen der Stiftung war es, die Ursachen der Erkrankung der Tochter der Stifterfamilie Macy, die im Rollstuhl saß, herauszufinden. Dazu diente auch die erste Macy-Konferenz, in der sich vor allem Neurologen und Neurologinnen versammelten. In der dritten Konferenz kamen sie auf die Lösung des Problems: Ursache der Erkrankung der Macy-Tochter war ein Botenstoff, den der Körper des Mädchens nicht produzierte und der dazu dient, elektrische Impulse von der Nervenzelle auf die Muskelfasern zu übertragen. In den folgenden Konferenzen wurde das Themenspektrum der Konferenzen um andere Fachdisziplinen erweitert.[6] Hauptgegenstand war die interdisziplinäre Diskussion kreiskausaler, also kybernetischer Prozesse, die Informationen weiterleiten, verarbeiten und erzeugen.
Einflussreiche Persönlichkeiten aus der Mathematik diskutierten bei diesen Macy-Konferenzen mit Kapazitäten aus den unterschiedlichsten Fachgebieten: Elektrotechnik, Biophysik, Physiologie, Neurowissenschaft, Informatik und Genetik, aber auch Anthropologie, Sozialwissenschaft, Soziologie, Psychiatrie und Psychologie. Bei einer Konferenz im Januar 1945 wurde die Idee einer mathematischen Beschreibung elektronischer Geräte wie auch des Nervensystems entwickelt. Damit legten die Macy-Konferenzen einen Grundstein für die Computerwissenschaft – und damit wiederum für die Dartmouth-Konferenz 1956.
Zu Beginn des 21. Jahrhunderts galt das Projekt der Künstlichen Intelligenz noch als gescheitert,[7] heute steht sie ganz vorn auf der Liste der größten Gefahren für die Menschheit.[8] Diese Befürchtungen kreisen um Herrschaft, Gewalt und Machtmissbrauch. Ein Beispiel für die künstlerische Aufbereitung solcher Befürchtungen sind die Matrix-Filme. Dabei wird die Situation der Menschheit gegenüber einer übermächtigen KI mit derjenigen der indigenen Völker in der Kolonialzeit verglichen. Eine der menschlichen Intelligenz überlegene KI könnte die Menschheit überwältigen, versklaven oder sogar vernichten.[9]
Es stimmt: Künstliche Intelligenz ist ein leistungsfähiges Werkzeug. Doch wie bei einem Skalpell hängt die Wirkung von der Person ab, die dieses Werkzeug benutzt. »Jede neue Technologie kann dazu missbraucht werden, mit ihr Schaden anzurichten. Selbst die heutige begrenzte KI wird eingesetzt, um Menschen zu überwachen, Wahlen zu beeinflussen und Propaganda zu verbreiten«[10], stellt der US-amerikanische IT-Unternehmer und Neurowissenschaftler Jeff Hawkins zu Recht fest. Er hält es nicht für ausgeschlossen, dass bewaffnete KI-gesteuerte Drohnen jenseits menschlicher Kontrolle zu Zehntausenden für Kriegszwecke zum Einsatz kommen.[11]
Schon seit dem Ende des Zweiten Weltkrieges beschäftigt sich das US-Militär mit den Grenzen der menschlichen Aufmerksamkeit, die über Leben und Tod entscheiden können. Immer wieder kommt es zu Friendly Fire, wie etwa im Zweiten Golfkrieg 1991 geschehen, als fünf britische und 165 amerikanische Soldaten den Tod in der Operation »Desert Storm« fanden, weil Angehörige ihrer eigenen Armee versehentlich auf sie geschossen hatten. Intelligente Waffen, die ohne menschliche Überwachung agieren können, wären sicherlich eine willkommene Lösung dieses Problems. Sich aber auszumalen, wie diese zu Zehntausenden zum Einsatz kommen, ist alles andere als eine verlockende Zukunftsvision, sondern eher eine apokalyptische Vorstellung.
Der israelische Historiker Yuval Noah Harari geht in seinen Befürchtungen noch einen Schritt weiter. Er hält es für möglich, dass eine KI ihre Waffen zu ihrer Selbsterhaltung gegen Menschen einsetzen könnte, zum Beispiel wenn sie befürchtet, »die Menschheit könnte sich gegen sie wenden und ihr den Stecker ziehen, oder im Streben nach irgendeinem unergründlichen eigenen Ziel. Denn für Menschen wäre es extrem schwierig, die Motivation eines Systems zu kontrollieren, das klüger ist als sie.«[12]
Eine Ursache für diese Befürchtungen liegt in einer sowohl evolutionär als auch kulturell sehr erfolgreichen Form der menschlichen Intelligenz begründet. Da Menschen die Tendenz haben, leblose Dinge um sich herum zu personalisieren, wird unser Umfeld mit fiktiver Intelligenz aufgeladen. Im Gegenzug stützt ein mit Intelligenz aufgeladenes Umfeld wiederum unsere Intelligenz, im günstigen Fall kann es sie sogar steigern und erweitern. Personalität zu projizieren, ist ein wichtiger Faktor menschlicher Intelligenz.
Wer schon einmal erlebt hat, wie Kinder mit dem iPhone-Orakel Siri, Amazons Alexa oder Microsofts Cortana kommunizieren, weiß, was ich meine. Die Älteren unter uns...
Dateiformat: ePUBKopierschutz: Wasserzeichen-DRM (Digital Rights Management)
Systemvoraussetzungen:
Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für „fließenden” Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein „weicher” Kopierschutz verwendet. Daher ist technisch zwar alles möglich – sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.
Weitere Informationen finden Sie in unserer E-Book Hilfe.