Kapitel 4 : Künstliches Bewusstsein
Ein Teilgebiet der künstlichen Intelligenz und der kognitiven Robotik, das künstliche Bewusstsein (AC), auch als maschinelles Bewusstsein (MC) oder synthetisches Bewusstsein bezeichnet (Gamez 2008; Reggia 2013) ist ein Bereich, der sich mit künstlich geschaffenem Bewusstsein beschäftigt. "Definiere das, was synthetisiert werden müsste, wenn Bewusstsein in einem konstruierten Artefakt zu finden wäre", das ist das Ziel der Theorie des künstlichen Bewusstseins, die erklären will, wie Bewusstsein künstlich erzeugt werden kann (Aleksander 1995).
Die neuronalen Korrelate des Bewusstseins (oft als NCC abgekürzt) sind eine Theorie, die von den Neurowissenschaften vorgeschlagen wird und erklärt, wie Bewusstsein durch das Zusammenspiel verschiedener Regionen des Gehirns entsteht. Diese Sichtweise ist jedoch mehrfach kritisiert worden. Diejenigen, die sich für die Verwendung von Wechselstrom einsetzen, sind der Meinung, dass es möglich ist, Systeme (z. B. Computersysteme) zu bauen, die in der Lage sind, die Interoperabilität des NCC zu emulieren.
Aufgrund der Tatsache, dass es zahlreiche vorgeschlagene Kategorien von Bewusstsein gibt, gibt es eine Vielzahl von Möglichkeiten, wie künstliches Bewusstsein implementiert werden könnte.
Innerhalb des Kanons der philosophischen Werke ist vielleicht die Taxonomie des Bewusstseins, die es in "Zugang" und "phänomenale" Varianten unterteilt, diejenige, die am häufigsten verwendet wird.
Die Komponenten der Erfahrung, die wahrgenommen werden können, sind das, was mit dem Begriff "Zugangsbewusstsein" gemeint ist, während sich das phänomenologische Bewusstsein mit jenen Teilen der Erfahrung befasst, die jenseits des Verständnisses zu liegen scheinen, und stattdessen qualitativ in Begriffen wie "rohe Gefühle", "wie es ist" oder Qualia charakterisiert werden (Block 1997).
Die Perspektive, die von Theoretikern der Typidentität und anderen Skeptikern vertreten wird, ist, dass Bewusstsein nur in bestimmten physikalischen Systemen erfahren werden kann. Sie argumentieren, dass dies darauf zurückzuführen ist, dass das Bewusstsein Qualitäten besitzt, die immer von seiner physischen Konstitution abhängig sein müssen (Block 1978; Bickle 2003).
Andere Theoretiker, wie die Funktionalisten, definieren mentale Zustände in Bezug auf die kausale Rolle, die sie spielen. Diesen Theoretikern zufolge wird jedes System, das das gleiche Muster kausaler Rollen instanziieren kann, die gleichen mentalen Zustände instanziieren, einschließlich des Bewusstseins. Dies gilt unabhängig von der physikalischen Konstitution des Systems (Putnam 1967).
David Chalmers hat eines der direktesten und überzeugendsten Argumente für die Möglichkeit von AC geliefert. Sein Argument, das in seinem Essay mit dem Titel "Chalmers 2011" zu finden ist, besagt in allgemeinen Begriffen, dass es ausreicht, bestimmte Arten von Berechnungen durchzuführen, um einen bewussten Geist zu besitzen. In der Übersicht begründet er seine Behauptung wie folgt: Berechnungen werden von Computern durchgeführt. Berechnungen haben die Fähigkeit, die abstrakte kausale Organisation anderer Systeme zu erfassen.
Die Vorstellung, dass geistige Qualitäten "organisatorisch invariant" sind, ist vielleicht die umstrittenste Komponente von Chalmers' Argumentation.
Es gibt zwei Kategorien von mentalen Attributen, die psychologische Analyse sowie die phänomenologische Forschung.
Psychologische Eigenschaften, zu denen auch Dinge wie Glaube und Vision gehören, sind solche, die "anhand ihrer Fähigkeit, Ergebnisse hervorzubringen, identifiziert werden können".
Er verweist auf die Arbeiten von Armstrong 1968 und Lewis 1972, indem er behauptet, dass "Stämme mit der gleichen kausalen Topologie ... werden ihre psychologischen Eigenschaften teilen".
Es gibt keinen offensichtlichen Weg, phänomenologische Qualitäten in Bezug auf die Rolle, die sie in dem Phänomen spielen, zu definieren. Daher ist eine Argumentation notwendig, um festzustellen, dass phänomenologische Qualitäten auf der Grundlage der kausalen Rolle, die sie spielen, individuiert werden können. Um dieses Ziel zu erreichen, bietet Chalmers sein Dancing Qualia Argument an.
Zu Beginn geht Chalmers davon aus, dass Agenten, auch wenn sie die gleichen kausalen Organisationen haben können, dennoch einzigartige Erfahrungen machen können. Dann fordert er uns heraus, uns vorzustellen, wie man einen Agenten durch die Substitution von Teilen in einen anderen verwandelt (z.B. Gehirnteile, die durch Silizium ersetzt werden), während die kausale Organisation der ursprünglichen Entität erhalten bleibt. Ex hypothesi würde sich die Erfahrung des Agenten, der sich in der Transformation befindet, verschieben (da die Teile ausgetauscht würden), aber es würde keine Änderung in der kausalen Topologie geben, und es gäbe keine Möglichkeit für den Agenten, die Verschiebung in der Erfahrung zu "bemerken", weil es keine Möglichkeit für den Agenten gäbe, die Veränderung der Erfahrung zu "bemerken", weil es keine Änderung in der kausalen Topologie geben würde.
Kritiker der AC argumentieren, dass Chalmers' Annahme, dass alle mentalen Qualitäten und externen Verbindungen durch abstrakte kausale Organisation angemessen beschrieben werden können, ein Ablenkungsmanöver ist und dass Chalmers einen Zirkelschluss betreibt.
Für den Fall, dass entdeckt würde, dass ein bestimmtes Stück Maschine Bewusstsein besitzt, wäre die Bestimmung seines rechtlichen Status ein wichtiges ethisches Anliegen (z.B. welche Rechte es nach dem Gesetz hätte). Ein empfindungsfähiger Computer zum Beispiel, der als Werkzeug besessen und genutzt wurde, oder der Zentralcomputer einer größeren Maschine ist ein Beispiel für eine besondere Mehrdeutigkeit. Sollte es Gesetze geben, die ein solches Szenario abdecken? In dieser speziellen Situation wäre eine Definition von Bewusstsein auch nach rechtlichen Maßstäben erforderlich. Eine solche Ethik wurde nicht in großem Umfang untersucht oder entwickelt, da künstliches Bewusstsein immer noch hauptsächlich eine theoretische Angelegenheit ist; Dennoch ist es etwas, das in der Belletristik schon oft ein Thema war (siehe unten).
Thomas Metzinger, ein deutscher Philosoph, forderte 2021 ein weltweites Embargo für die Praxis der synthetischen Phänomenologie bis zum Jahr 2050. Metzinger behauptet, dass der Mensch eine Verantwortung für die Fürsorge gegenüber allen bewussten künstlichen Intelligenzen hat, die er entwickelt, und dass ein zu schnelles Vorankommen das Risiko birgt, eine "Explosion künstlicher Schmerzen" zu verursachen.
Die Frage, ob Roboter Rechte haben sollten oder nicht, wurde im Leitfaden für den Loebner-Preis 2003 ausdrücklich angesprochen:
61. Für den Fall, dass ein öffentlich zugänglicher Open-Source-Beitrag, der von der University of Surrey oder dem Cambridge Center eingereicht wurde, in einem bestimmten Jahr als Gewinner der Silbermedaille oder der Goldmedaille ausgewählt wird, werden die Medaille sowie der Cash Award an die Organisation verliehen, die für die Entwicklung dieses Beitrags verantwortlich war. Wenn keine solche Stelle identifiziert werden kann oder wenn es Meinungsverschiedenheiten zwischen zwei oder mehr Anspruchstellern gibt, werden die Goldmedaille und die Geldprämie treuhänderisch verwaltet, bis der Beitrag entweder in den Vereinigten Staaten von Amerika oder am Ort des Wettbewerbs die Geldprämie und die Goldmedaille aus eigenem Recht rechtmäßig besitzen kann. Wenn keine solche Stelle identifiziert werden kann oder wenn es Meinungsverschiedenheiten zwischen zwei oder mehr Antragstellern gibt, wird der Beitrag vom Wettbewerb disqualifiziert.
Es ist allgemein anerkannt, dass eine Maschine, um künstlich empfindungsfähig zu sein, eine Reihe von Eigenschaften besitzen muss, die mit Bewusstsein verbunden sind. Neben Bernard Baars (Baars, 1988) stellten auch andere Hypothesen auf, dass es eine Reihe von Funktionen gibt, bei denen das Bewusstsein eine Rolle spielt. Diese Funktionen wurden von Bernard Baars postuliert. Im Folgenden sind einige der Funktionen des Bewusstseins aufgeführt, die von Bernard Baars vorgeschlagen wurden: Entscheidungsfindung oder exekutive Funktion, analogiebildende Funktion, metakognitive und Selbstüberwachungsfunktion, Autoprogrammierung und Selbsterhaltungsfunktion sowie Definitions- und Kontextsetzungsfunktion. Igor Aleksander hat in seinem Buch "Aleksander 1995" insgesamt 12 Leitprinzipien für die Entwicklung des künstlichen Bewusstseins vorgeschlagen. Dazu gehören die folgenden: "Das Gehirn ist eine Zustandsmaschine", "Innere Neuronen-Partitionierung", "Bewusste und unbewusste Zustände", "Wahrnehmungslernen und Gedächtnis", "Vorhersage", "Das Bewusstsein des Selbst", "Repräsentation von Bedeutung", "Äußerungen lernen", "Sprache lernen", "Wille, Instinkt und Emotion". Der Zweck des Projekts "Künstliches Bewusstsein" (AC) besteht darin, festzustellen, ob oder ob diese und andere Komponenten des Bewusstseins in einem technischen Artefakt wie einem digitalen synthetisiert werden können Computer und wenn ja, wie dies geschehen kann. Diese Liste ist nicht vollständig; Es gibt noch viel mehr, die hier nicht erwähnt werden.
Awareness mag eine der Voraussetzungen sein, aber die genaue Definition von Awareness bringt einige Herausforderungen mit sich. Die Ergebnisse der Tests mit Neuroscanning an Affen deuten darauf hin, dass ein Prozess und nicht nur ein Zustand oder ein Gegenstand für die Aktivierung von Neuronen verantwortlich ist. Ein nützlicher Aspekt des Bewusstseins ist die Fähigkeit, Vorhersagen auf der Grundlage der durch die Sinne erworbenen oder imaginierten Informationen zu treffen, sowie die Erstellung und Erprobung alternativer Modelle jedes...