Kapitel 2 : Künstliche Intelligenz
Im Gegensatz zur natürlichen Intelligenz von Tieren, einschließlich des Menschen, bezieht sich Künstliche Intelligenz (KI) auf die Intelligenz, die Roboter demonstrieren. Die Forschung im Bereich der künstlichen Intelligenz (KI) wurde als das Forschungsgebiet der intelligenten Agenten beschrieben, das sich auf jedes System bezieht, das seine Umgebung wahrnimmt und Aktionen ausführt, die seine Möglichkeiten zur Erreichung seiner Ziele optimieren. Mit anderen Worten: Die KI-Forschung ist eine Disziplin, die sich mit intelligenten Agenten beschäftigt. Der Begriff "KI-Auswirkungen" bezieht sich auf den Prozess, bei dem Aktivitäten, von denen früher angenommen wurde, dass sie "Intelligenz" benötigen, aber mit fortschreitender Technologie nicht mehr in das Konzept der künstlichen Intelligenz einbezogen werden. KI-Forscher haben eine Vielzahl von Ansätzen zur Lösung von Problemen angepasst und integriert, darunter Suche und mathematische Optimierung, formale Logik, künstliche neuronale Netze und Methoden, die auf Statistik, Wahrscheinlichkeit und Wirtschaft basieren, um diese Schwierigkeiten zu bewältigen. Informatik, Psychologie, Linguistik, Philosophie und viele andere akademische Disziplinen tragen zur Entwicklung der KI bei.
Die Theorie, dass der menschliche Intellekt "so genau charakterisiert werden kann, dass ein Computer so konstruiert werden kann, dass er ihn nachahmt", war das Leitprinzip hinter der Etablierung dieser Disziplin. Dies löste philosophische Debatten über den Verstand und die ethischen Implikationen aus, die es mit sich bringt, künstliche Organismen mit einem Intellekt auszustatten, der mit dem des Menschen vergleichbar ist; Dies sind Themen, die seit der Antike von Mythen, Literatur und Philosophie untersucht werden.
In der Antike wurden künstliche Kreaturen mit künstlicher Intelligenz in verschiedenen narrativen Mitteln eingesetzt.
und sind häufig in literarischen Werken zu sehen, wie in Mary Shelleys Frankenstein oder Karel Capeks R.U.R.
Das formale Design für Turing-vollständige "künstliche Neuronen", das McCullouch und Pitts 1943 entwickelten, war die erste Arbeit, die heute weithin als Beispiel für künstliche Intelligenz verstanden wird.
Die Teilnehmer der Konferenz wurden zu Pionieren auf dem Gebiet der KI-Forschung.
Sie waren in der Lage, zusammen mit ihren Schülern Programme zu entwickeln, die von der Presse als "erstaunlich" bezeichnet wurden. Zu diesen Programmen gehörten Maschinen, die in der Lage waren, Dametechniken zu erlernen, Textaufgaben in Algebra zu lösen, logische Theoreme zu demonstrieren und die englische Sprache gut zu beherrschen.
Um die Mitte des Jahrzehnts der 1960er Jahre wurden in den Vereinigten Staaten
erhielt eine beträchtliche Summe an Finanzmitteln vom Verteidigungsministerium, und Einrichtungen wurden auf der ganzen Welt eingerichtet.
sowie des anhaltenden Drucks des Kongresses der Vereinigten Staaten, in fruchtbarere Unternehmungen zu investieren, Die Vereinigten Staaten von Amerika
Sowohl die kanadische als auch die britische Regierung haben die Finanzierung der explorativen Forschung im Bereich der künstlichen Intelligenz eingestellt.
Die folgenden Jahre sollten in Zukunft als "KI-Winter" bezeichnet werden.
Eine Zeit, in der es schwierig war, Finanzmittel für Initiativen der künstlichen Intelligenz zu erhalten.
Eine Art Software mit künstlicher Intelligenz, die das Wissen und die analytischen Fähigkeiten menschlicher Fachleute nachahmt.
1985 wurden bereits über eine Milliarde Dollar im Geschäft mit künstlicher Intelligenz umgesetzt.
Währenddessen haben die Vereinigten Staaten und das Vereinigte Königreich die Unterstützung für die universitäre Forschung als unmittelbare Folge des japanischen Computerprogramms für die fünfte Generation wieder aufgenommen.
Als jedoch 1987 der Markt für Lisp-Maschinen zusammenbrach, war dies der Beginn einer Abwärtsspirale.
Die KI fiel erneut in Ungnade, und ein weiterer, länger anhaltender Winter begann.
Geoffrey Hinton wird zugeschrieben, das Interesse an neuronalen Netzen und dem Konzept des "Konnektionismus" wiederbelebt zu haben.
Um die Mitte der 1980er Jahre waren David Rumelhart und einige andere daran beteiligt. In den 1980er Jahren wurden viele Soft-Computing-Tools entwickelt.
Dazu gehören Dinge wie neuronale Netze, Fuzzy-Systeme, die Theorie des grauen Systems, der Einsatz von evolutionärem Rechnen sowie eine Reihe von Methoden, die aus der statistischen oder mathematischen Optimierung abgeleitet sind.
In den späten 1990er Jahren und bis in das frühe 21. Jahrhundert hinein arbeitete die KI daran, ihr Image schrittweise zu rehabilitieren, indem sie Lösungen entwickelte, die auf bestimmte Herausforderungen zugeschnitten waren. Aufgrund der engen Fokussierung konnten die Forscher Schlussfolgerungen entwickeln, die überprüft werden konnten, eine größere Anzahl mathematischer Ansätze verwenden und mit Experten aus anderen Bereichen (wie Statistik, Wirtschaft und Mathematik) zusammenarbeiten. In den 1990er Jahren wurden die Lösungen, die von KI-Forschern entwickelt wurden, nie als "künstliche Intelligenz" bezeichnet, aber im Jahr 2000 wurden sie weltweit in großem Umfang eingesetzt. Laut Jack Clark von Bloomberg war das Jahr 2015 ein Wendejahr für künstliche Intelligenz. Dies ist auf die Tatsache zurückzuführen, dass die Anzahl der Softwareprojekte, die KI bei Google einsetzen, von "sporadischer Nutzung" im Jahr 2012 auf mehr als 2.700 Projekte im Jahr 2015 gestiegen ist.
Die übergeordnete Herausforderung, Intelligenz zu emulieren (oder zu fabrizieren), wurde in eine Vielzahl spezifischerer Herausforderungen unterteilt. Dies sind bestimmte Eigenschaften oder Fähigkeiten, die Forscher von einem intelligenten System erwarten. Das größte Gewicht wurde auf die Eigenschaften gelegt, die im Folgenden beschrieben werden.
In den Anfängen der Informatik entwickelten Forscher Algorithmen, die das Schritt-für-Schritt-Denken widerspiegelten, das Menschen verwenden, wenn sie Probleme lösen oder logische Schlussfolgerungen ziehen. Die Forschung im Bereich der künstlichen Intelligenz hatte in den späten 1980er und frühen 1990er Jahren Strategien für den Umgang mit unsicheren oder unvollständigen Informationen entwickelt. Diese Ansätze bedienten sich an Begriffen aus der Wahrscheinlichkeit und der Ökonomie. Selbst beim Menschen ist die Art von Schritt-für-Schritt-Schlussfolgerung, die frühe Studien zur künstlichen Intelligenz replizieren konnten, unüblich. Sie sind in der Lage, die meisten ihrer Probleme anzugehen, indem sie schnelle Entscheidungen treffen, die auf ihrer Intuition basieren.
Information Engineering und die Repräsentation dieses Wissens ermöglichen es Systemen der künstlichen Intelligenz, intelligent auf Anfragen zu reagieren und Rückschlüsse auf reale Ereignisse zu ziehen.
Eine Ontologie ist eine Sammlung von Objekten, Beziehungen, Ideen und Attributen, die formal charakterisiert werden, um sicherzustellen, dass Softwareagenten in der Lage sind, sie zu verstehen. Eine Ontologie ist eine Beschreibung dessen, "was existiert". Obere Ontologien sind Ontologien, die versuchen, eine Grundlage für alle anderen Informationen zu bieten und als Vermittler zwischen Domänenontologien fungieren, die spezialisiertes Wissen über eine bestimmte Wissensdomäne abdecken. Obere Ontologien sind die am weitesten gefassten Ontologien und werden auch als Ontologien (Field of Interest oder Area of Concern) bezeichnet. Eine Software, die wirklich intelligent ist, würde auch Zugang zu gesundem Menschenverstand benötigen, d. h. zu einer Sammlung von Fakten, die dem typischen Menschen bekannt sind. In den meisten Fällen wird die Beschreibungslogik einer Ontologie, wie z. B. die Web Ontology Language, verwendet, um die Semantik einer Ontologie auszudrücken. Zusätzlich zu anderen Bereichen, Situationen, Ereignissen, Zuständen und Zeiten; Ursachen und Wirkungen; Wissen über Wissen (was wir über das wissen, was andere Menschen wissen); Standardargumentation (Dinge, von denen Menschen annehmen, dass sie wahr sind, bis sie eines Besseren belehrt werden, und die auch dann noch wahr sein werden, wenn sich andere Fakten ändern); und Wissen über Wissen über Wissen sind Beispiele für Domänen. Die Breite der Informationen über den gesunden Menschenverstand (die Anzahl der atomaren Fakten, die dem typischen Menschen bekannt sind, ist immens) und die subsymbolische Natur des Großteils des Wissens des gesunden Menschenverstandes sind zwei der größten Herausforderungen in der künstlichen Intelligenz (vieles von dem, was die Menschen wissen, wird nicht als "Fakten" oder "Aussagen" dargestellt, die sie verbal ausdrücken könnten). Bildinterpretation, therapeutische Entscheidungsunterstützung, Wissensentdeckung (die Extraktion von "interessanten" und umsetzbaren Erkenntnissen aus großen Datensätzen) und andere Disziplinen sind alles Bereiche, die von künstlicher Intelligenz profitieren könnten.
Ein intelligenter Agent, der in der Lage ist zu planen, erstellt eine Repräsentation des aktuellen Zustands der Welt, macht Vorhersagen darüber, wie sich seine Handlungen auf die Umwelt auswirken werden, und trifft Entscheidungen, die den Nutzen (oder "Wert") der verfügbaren Optionen maximieren. Bei traditionellen Planungsproblemen kann der Agent davon ausgehen, dass es das einzige funktionierende System auf der Welt ist. Auf diese Weise kann sich der Agent auf die Ergebnisse verlassen, die sich aus den von ihm ergriffenen Maßnahmen ergeben. Wenn der Agent jedoch nicht der einzige Akteur ist, ist es notwendig, dass der Agent unter Unklarheiten argumentiert, seine Umgebung ständig neu bewertet und...