Schweitzer Fachinformationen
Wenn es um professionelles Wissen geht, ist Schweitzer Fachinformationen wegweisend. Kunden aus Recht und Beratung sowie Unternehmen, öffentliche Verwaltungen und Bibliotheken erhalten komplette Lösungen zum Beschaffen, Verwalten und Nutzen von digitalen und gedruckten Medien.
Über KI zu sprechen kann verwirrend sein - schon allein, weil »KI« so viele verschiedene Bedeutungen hat und sie alle irgendwie in einen Topf geworfen werden. Siri, die auf Kommando einen Witz erzählt. Der Terminator, der einen Schädel zertritt. Algorithmen, die Kreditwürdigkeitswerte prognostizieren.
Schon seit langer Zeit sind wir fasziniert von Maschinen, die denken können. Die Erfindung des ersten mechanischen Schachautomaten im Jahr 1770 versetzte die Betrachter in Staunen - ein Schachbrett auf einem kunstvoll gearbeiteten Tischchen, dessen Figuren von einem Roboter in der Kleidung eines ottomanischen Zauberers bewegt wurden. Von 1770 bis 1838 reiste er um die Welt. Die Maschine, auch als mechanischer Türke9 bekannt, schlug Benjamin Franklin und Napoleon bei Schachpartien und veranlasste Edgar Allan Poe zu Spekulationen über die Möglichkeiten künstlicher Intelligenz, nachdem er sie in den 1830er-Jahren gesehen hatte. Das war natürlich alles Schwindel - in der vorgetäuschten Konstruktion der Maschine verbarg sich raffiniert ein echter Schachmeister, doch unsere Fähigkeit zu glauben, dass Maschinen zum Denken imstande sein könnten, führte ein dreiviertel Jahrhundert lang die besten Köpfe der Welt in die Irre.
Spulen wir vor ins Jahr 1950. Ein Spielzeug und ein Gedankenexperiment, jeweils von unterschiedlichen Genies der noch in Entwicklung befindlichen Computerwissenschaft, führten zu einer neuen Auffassung von künstlicher Intelligenz. Das Spielzeug war eine zurechtgebastelte mechanische Maus namens Theseus,10 entwickelt vom Erfinder, Witzbold und größten Informationstheoretiker des 20. Jahrhunderts Claude Shannon. In einem Film aus dem Jahr 1950 zeigte er, dass Theseus, der von zweckentfremdeten Telefonsteckern angetrieben wurde, durch ein komplexes Labyrinth navigieren konnte - das erste echte Beispiel für maschinelles Lernen. Das Gedankenexperiment war das Imitationsspiel, bei dem der Computerpionier Alan Turing11 erstmals Theorien darüber aufstellte, wie eine Maschine ein hinlängliches Maß an Funktionalität entwickeln könnte, um einen Menschen nachzuahmen. Computer waren zwar noch eine ganz neue Erfindung, aber Turings einflussreiche Arbeit trug dazu bei, das gerade entstehende Gebiet der künstlichen Intelligenz voranzutreiben.
Theorien allein reichten nicht aus und eine Handvoll Computerwissenschaftler begann an Programmen zu arbeiten, die die Möglichkeiten dessen ausloteten, was bald als künstliche Intelligenz bezeichnet werden sollte - ein Begriff, der 1956 durch John McCarthy vom MIT geprägt wurde. Die Fortschritte waren zu Beginn rasant, denn Computer waren darauf programmiert, logische Probleme zu lösen und Dame zu spielen - führende Wissenschaftler rechneten damit, dass eine KI binnen zehn Jahren gegen Schachgroßmeister gewinnen würde. Doch die KI hatte immer schon ein Problem mit Wellen des übertriebenen Hochjubelns, und als diese Versprechen uneingelöst blieben, machte sich Desillusionierung breit und es brach einer jener vielen »KI-Winter« an, in denen der KI-Fortschritt zum Stillstand kam und die Forschungsgelder versiegten. Es folgten weitere Zyklen von Hoch- und Tiefphasen, wobei jedes Hoch von wichtigen technologischen Neuerungen begleitet wurde, zum Beispiel künstlichen neuronalen Netzwerken, die das menschliche Gehirn imitierten, gefolgt von einem Zusammenbruch, da die KI die erwarteten Ziele nicht erreichen konnte.
Der jüngste KI-Boom begann in den 2010er-Jahren mit dem Versprechen, maschinelles Lernen für die Datenanalyse und -prognose zu verwenden. Viele dieser Anwendungen nutzten eine Technik, die als überwachtes Lernen bezeichnet wird. Diese Formen der KI benötigten kategorisierte Daten, um daraus zu lernen. Kategorisierte Daten sind Daten, die mit den korrekten Antworten oder Ergebnissen für eine konkrete Aufgabe versehen sind. Wenn Sie beispielsweise ein KI-System für die Gesichtserkennung trainieren wollen, müssen Sie ihm Bilder von Gesichtern zur Verfügung stellen, die nach den Namen oder Identitäten der darauf gezeigten Personen kategorisiert sind. Diese Phase der KI war die Domäne größerer Organisationen, die über große Datenmengen verfügten. Sie nutzten diese Instrumente als leistungsstarke Prognosesysteme12 beispielsweise zur Optimierung der Versandlogistik oder um zu entscheiden, welche Art von Content dem Nutzer nach Maßgabe seines Browserverlaufs angezeigt werden sollte. Vielleicht haben Sie schon Schlagwörter wie Big Data oder Algorithmische Entscheidungen gehört, die solche Verwendungen bezeichnen. Zumeist erkannten die Verbraucher die Vorteile des maschinellen Lernens, wenn diese Techniken in Tools wie Spracherkennungssysteme oder Übersetzungs-Apps integriert wurden. KI war eine unzulängliche (wenn auch werbewirksame) Bezeichnung dafür, was derartige Software leistete, denn es gab nur sehr wenig an diesen Systemen, das wirklich intelligent oder schlau zu sein schien - zumindest in dem Sinne, wie Menschen intelligent und schlau sind.
Wenn Sie ein Beispiel wollen, wie diese Art KI funktioniert, stellen Sie sich ein Hotel vor, das versucht, seine Nachfrage für das kommende Jahr zu prognostizieren, und dafür lediglich die vorhandenen Daten und eine einfache Excel-Tabelle zur Verfügung hat. Vor dem Aufkommen der prognostischen KI blieb den Hoteleigentümern, die häufig genug mit Ineffizienz und Ressourcenverschwendung zu kämpfen hatten, kaum eine andere Wahl, als die zu erwartende Nachfrage aufs Geratewohl zu schätzen. Die prognostische KI aber gestattete es ihnen nun, eine Vielzahl von Daten einzugeben - Wettermuster, lokale Ereignisse und Wettbewerbspreise - und weitaus präzisere Vorhersagen zu erzielen. Die Folgen waren ein effizienterer Betrieb und letztlich ein profitableres Geschäft. Bevor maschinelles Lernen und die Verarbeitung natürlicher Sprache allgemein üblich wurden, konzentrierten die Organisationen ihre Bemühungen darauf, mit ihren Schätzungen zumindest im Schnitt richtig zu liegen - nach heutigen Maßstäben ein ziemlich rudimentärer Ansatz. Durch die Einführung von KI-Algorithmen13 hat sich der Schwerpunkt verlagert auf statistische Analysen und Varianzminimierung. Statt im Schnitt richtig zu liegen, konnten sie nunmehr in jedem Einzelfall richtig liegen, was zu genaueren Vorhersagen führte und viele Back-Office-Tätigkeiten revolutionierte - vom Kundendienst bis zur reibungslosen Lieferkette.
Diese prognostischen KI-Technologien haben ihre ultimative Ausdrucksform wohl beim Einzelhandelsgiganten Amazon gefunden, der in den 2010er-Jahren diese Form der KI in großem Umfang zu nutzen begann. Den Kern von Amazons logistischer Leistungsfähigkeit bilden KI-Algorithmen, die jede Phase der Lieferkette im Hintergrund orchestrieren. Amazon hat die KI in die Nachfrageprognose, die Lagerstrukturoptimierung und die Warenauslieferung integriert. Auch die Warenbestände werden auf der Grundlage von Echtzeitdaten intelligent organisiert und neu angeordnet, was dafür sorgt, dass beliebte Produkte für einen schnellen Versand leicht verfügbar sind. KI steuerte auch Amazons Kiva-Roboter, die Produktregale zu den Lagermitarbeitern transportierten, was den Pack- und Versandvorgang effizienter machte. Die Roboter selbst stützen sich wiederum auf andere KI-Fortschritte etwa im Bereich von Computer Vision und automatisiertem Fahren.
Allerdings hatten diese Arten von KI-Systemen auch ihre Grenzen. So taten sie sich beispielsweise schwer mit der Vorhersage von »unbekannten Unbekannten« oder Situationen, die Menschen intuitiv verstehen, Maschinen jedoch nicht. Probleme bereiteten ihnen zudem auch Daten, denen sie im Rahmen des überwachten Lernens noch nicht begegnet waren und die deshalb ihre Anpassungsfähigkeit auf die Probe stellten. Und das Wichtigste: Die meisten KI-Modelle waren nur begrenzt in der Lage, schlüssige und kontextsensitive Texte zu verstehen beziehungsweise zu generieren. Diese KI-Anwendungen sind daher zwar heute noch wichtig, waren aber nichts, was die meisten Menschen direkt zu sehen bekamen oder in ihrem Alltag bemerkten.
Doch aus den zahlreichen, von Branchen- und Fachexperten veröffentlichten Arbeiten zu verschiedenen Formen der KI ragte ein Artikel aus dem Jahr 2017 mit dem einprägsamen Titel »Attention Is All You Need« heraus. Darin berichteten Google-Wissenschaftler von einem signifikanten Wandel in der Welt der KI, der insbesondere die Art und Weise betraf, wie Computer menschliche Sprache verstehen und verarbeiten. Der Beitrag verwies auf eine neue Architektur namens »Transformer«, die es Computern ermöglichte, die menschliche Kommunikation besser zu verarbeiten. Zuvor waren andere Methoden genutzt worden, um Computern das Verstehen von Sprache beizubringen, die jedoch ihre Grenzen hatten und sich als nur bedingt brauchbar erwiesen. Der Transformer nun löste diese Probleme durch den Einsatz eines »Aufmerksamkeitsmechanismus«. Diese Technik veranlasst die KI, sich auf die relevantesten Teile eines Textes zu fokussieren, und erleichtert es ihr damit, Sprache auf »menschlichere« Art und Weise zu verstehen und mit ihr zu arbeiten.
Wenn wir lesen, dann wissen wir, dass das letzte Wort in einem Satz nicht immer das wichtigste ist....
Dateiformat: ePUBKopierschutz: Wasserzeichen-DRM (Digital Rights Management)
Systemvoraussetzungen:
Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für „fließenden” Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein „weicher” Kopierschutz verwendet. Daher ist technisch zwar alles möglich – sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.
Weitere Informationen finden Sie in unserer E-Book Hilfe.