Schweitzer Fachinformationen
Wenn es um professionelles Wissen geht, ist Schweitzer Fachinformationen wegweisend. Kunden aus Recht und Beratung sowie Unternehmen, öffentliche Verwaltungen und Bibliotheken erhalten komplette Lösungen zum Beschaffen, Verwalten und Nutzen von digitalen und gedruckten Medien.
Über den Autor 7
Einführung 21
Teil I: Erste Schritte mit KI im Marketing 25
Kapitel 1: Eine kurze Geschichte der KI 27
Kapitel 2: Anwendungsfälle für KI in Unternehmen 41
Kapitel 3: Start in die Ära des KI-Marketings 61
Teil II: Grundlegende KI-Strukturen und -Konzepte 79
Kapitel 4: Sammeln, Organisieren und Transformieren von Daten 81
Kapitel 5: Verbindungen herstellen: Maschinelles Lernen und neuronale Netzwerke 95
Kapitel 6: Natürliche Sprachverarbeitung und Stimmungsanalyse 111
Kapitel 7: Zusammenarbeit bei Prognosen, Verfahren, Systemen und Filtern 123
Kapitel 8: Sich mit generativer KI vertraut machen 137
Teil III: Mit KI Kunden besser kennenlernen 151
Kapitel 9: Segmentierung und Persona-Entwicklung 153
Kapitel 10: Lead Scoring, Lifetime Value und dynamische Preisgestaltung 169
Kapitel 11: Churn-Modellierung und -Messung mit KI 183
Teil IV: Transformation von Markeninhalten und Kampagnenentwicklung 201
Kapitel 12: Ideenfindung und Planung mit KI 203
Kapitel 13: Die besten Prompts für Conversational User Interfaces 215
Kapitel 14: Entwicklung kreativer Assets 229
Kapitel 15: Suchmaschinenoptimierung (SEO) im KI-Zeitalter 247
Kapitel 16: A/B-Tests mit KI durchführen 261
Kapitel 17: Feintuning der Inhalte durch Lokalisierung und Übersetzung 271
Teil V: KI in Wachstumsmarketing und Kundenorientierung 283
Kapitel 18: KI im Performance-Marketing 285
Kapitel 19: KI im E-Mail- und SMS-Marketing 303
Kapitel 20: Deep Dive in personalisiertes Marketing 313
Kapitel 21: Ihr Unternehmen ins KI-Zeitalter führen 331
Kapitel 22: Ethische, rechtliche und datenschutzbezogene Bedenken im Zusammenhang mit KI 345
Teil VI: Der Top-Ten-Teil 365
Kapitel 23: Zehn Fallstricke, die Sie beim Einsatz von KI im Marketing vermeiden sollten 367
Kapitel 24: Zehn KI-Trends, die Sie im Auge behalten sollten 373
Stichwortverzeichnis 379
Kapitel 1
IN DIESEM KAPITEL
Um die Rolle der künstlichen Intelligenz (KI) in Wirtschaft und Gesellschaft vollständig zu verstehen, müssen wir erst einmal ihre faszinierende Geschichte nachvollziehen. Denn diese Spurensuche wirft nicht nur ein Licht auf die enormen Fortschritte der KI, sie verdeutlicht auch ihren Nutzen für das Marketing.
Die ersten Vorstellungen von künstlicher Intelligenz gehen auf die griechische Mythologie zurück, in der Talos, ein 2,44 Meter großer Riese aus Bronze, die Insel Kreta bewachte, um sie vor Piraten und anderen Eindringlingen zu schützen. Talos warf Felsbrocken auf Schiffe und patrouillierte jeden Tag auf der Insel. Der Legende nach wurde er schließlich besiegt, als ein Bronzenagel aus der Ferse seines Fußes entfernt wurde, sodass das Ichor (Blut der Götter) aus seinem Körper fließen konnte.
Von diesem Zeitpunkt an rankten sich zahlreiche Geschichten um automatisierte Wesen in der griechischen Mythologie, was die Fantasie von Wissenschaftlern, Mathematikern und Erfindern anregte. Die moderne Wissenschaft hat inzwischen einige dieser Mythen tatsächlich verwirklichen können. In diesem Kapitel stelle ich Ihnen diese Fortschritte vor, darunter den Turing-Test, maschinelles Lernen, Expertensysteme und generative KI.
Wissenschaftler führen die Anfänge der Automatisierung auf das 17. Jahrhundert und die Erfindung der Pascaline zurück, einer mechanischen Rechenmaschine. Dieses Gerät, das der französische Erfinder Blaise Pascal zwischen 1642 und 1644 konstruierte, verfügte über einen kontrollierten Übertragsmechanismus. Dieser erleichterte Rechenoperationen mit Addition und Subtraktion, indem er die Ziffer »1« effektiv in die nächste Spalte übertrug. Die Rechenmaschine arbeitete vor allem bei der Verarbeitung großer Zahlen effizient. Der deutsche Mathematiker Wilhelm Leibniz baute auf dieser Idee auf und erfand 1694 eine neue Rechenmaschine. Diese erweiterte das Konzept der Pascaline, indem sie alle vier Grundrechenoperationen ermöglichte - Addition, Subtraktion, Multiplikation und Division (nicht nur Addition und Subtraktion). Damit boten diese Geräte erstmals einen Einblick in das Potenzial des mechanischen Denkens.
Wenn wir ins frühe 19. Jahrhundert vorspulen, stoßen wir auf das Jacquard-System, das von dem Franzosen Joseph-Marie Jacquard entwickelt wurde. Dabei wurden austauschbare Lochkarten verwendet, um das Weben von Stoffen und das Entwerfen komplizierter Muster zu bestimmen. Diese Lochkarten waren der Grundstein für spätere Entwicklungen in der Computertechnik. Mitte des 19. Jahrhunderts stellte der britische Erfinder Charles Babbage das erste Rechengerät vor, die sogenannte Analytical Engine. Mithilfe von Lochkarten konnte diese Maschine eine Vielzahl von Berechnungen mit mehreren Variablen durchführen. Sie verfügte zudem über eine Reset-Funktion, wenn sie ihre Aufgabe erledigt hatte. Wichtig war auch, dass sie einen temporären Datenspeicher für komplexere Berechnungen hatte - eine entscheidende Funktion für jedes spätere System künstlicher Intelligenz (KI).
Ende der 1880er-Jahre erreichte die Entwicklung der KI mit der Entwicklung der Tabelliermaschine einen weiteren Meilenstein. Diese war vom amerikanischen Erfinder Herman Hollerith speziell zur Verarbeitung der Daten für die US-Volkszählung von 1890 konstruiert worden. Das elektromechanische Gerät verwendete Lochkarten zur Speicherung und Aggregation von Daten und verbesserte die Speicherkapazität der analytischen Maschine durch die Integration eines Akkumulators. Bemerkenswerterweise blieben modifizierte Versionen der Tabelliermaschine bis in die 1980er-Jahre betriebsbereit.
Viele Menschen betrachten Alan Turing, einen britischen Mathematiker, Logiker und Informatiker, als den Gründervater der theoretischen Informatik. Er ebnete den Weg für weitere Durchbrüche in der KI. Während des Zweiten Weltkriegs diente er in Bletchley Park, der Codeknacker-Einrichtung des Vereinigten Königreichs. Er spielte eine entscheidende Rolle bei der Decodierung von Nachrichten, die von der deutschen Enigma-Maschine, einem Gerät zur Codegenerierung, verschlüsselt wurden. Wissenschaftler und Historiker schreiben seiner Arbeit zu, dass sie den Krieg verkürzte und Millionen von Menschenleben rettete.
Turings wichtigste Innovation in Bletchley war die Entwicklung der Bombe, einer Maschine, die den Prozess zur Entschlüsselung von Nachrichten der Enigma-Maschine erheblich beschleunigte. Die Enigma verwendete eine Reihe rotierender Scheiben, um Klartextnachrichten in verschlüsselten Geheimtext umzuwandeln. Die Komplexität dieses Verschlüsselungsgeräts und der von ihm generierten verschlüsselten Nachrichten war auch darauf zurückzuführen, dass die Enigma-Benutzer die Einstellungen der Maschine täglich änderten. Für Großbritannien und alle Alliierten war es äußerst schwierig, den Code innerhalb des 24-Stunden-Fensters zu knacken - bevor die Einstellungen erneut geändert wurden. Die Turing-Bombe automatisierte den Prozess zum Identifizieren der Enigma-Einstellungen und analysierte verschiedene mögliche Kombinationen viel schneller als ein Mensch es jemals geschafft hätte. Diese Automatisierung ermöglichte es den Briten, die geheime deutsche Kommunikation regelmäßig zu entschlüsseln.
Obwohl die Einzelheiten dieses Codeknacker-Geräts viele Jahre lang unter Verschluss blieben, ist die Bombe eines der ersten Beispiele dafür, dass Technologie den Menschen bei Aufgaben, die traditionell menschliche Intelligenz erforderten, übertraf und sie effizienter und präziser ausführte.
Kurz nach dem Zweiten Weltkrieg formulierte Turing in einem 1950 veröffentlichten Aufsatz mit dem Titel »Computing Machinery and Intelligence« die Idee, einen Standard zu definieren, ab dem man eine Maschine als intelligent bezeichnen könne. Er entwickelte das Experiment (heute Turing-Test genannt), das die Frage beantworten sollte: »Können Maschinen denken?« Die grundlegende Prämisse lautete dabei: Wenn ein Computer an einem Dialog mit einem Menschen teilnehmen kann und ein Beobachter nicht erkennen kann, welcher Teilnehmer Mensch und welcher ein Computer ist, dann kann man diesen Computer als intelligent bezeichnen.
Turings Test sah vor, dass ein menschlicher Prüfer Dialoge zwischen einem Menschen und einer Maschine beurteilen soll. Der Prüfer weiß zwar, dass einer der Teilnehmer eine Maschine ist, aber nicht, welcher. Um jegliche Verzerrung durch stimmliche Hinweise auszuschließen, schlug Turing vor, dass der Prüfer die Interaktionen auf ein reines Textmedium beschränkt. Wenn der Prüfer es schwierig fand, zwischen der Maschine und dem menschlichen Teilnehmer zu unterscheiden, bestand die Maschine den Test. Die Bewertung konzentrierte sich dabei nicht auf die Genauigkeit der Antworten der Maschine. Sondern darauf, wie wenig sich ihre Antworten von denen eines Menschen unterscheiden ließen.
1966, lange nach Alan Turings Tod, entwickelte der deutsch-amerikanische Wissenschaftler Joseph Weizenbaum ELIZA, das erste Programm, das den Turing-Test zu bestehen schien. Viele Quellen bezweifeln zwar, dass es den Turing-Test bestehen konnte. Aber es war technisch in der Lage, einige Menschen davon zu überzeugen, sie würden mit menschlichen Operatoren sprechen. Das Programm funktionierte, indem es die getippten Kommentare eines Nutzers auf Schlüsselwörter hin untersuchte und daraufhin eine Regel ausführte, die die Kommentare veränderte. Das führte dazu, dass das Programm mit einem neuen Satz antwortete. Tatsächlich spiegelte ELIZA, wie viele Programme seitdem, ein Verständnis der Welt vor, ohne tatsächlich über reales Wissen zu verfügen.
Der amerikanische Psychiater Kenneth Colby ging 1972 noch einen Schritt weiter und entwickelte PARRY, das er als ELIZA mit Haltung beschrieb. Erfahrene Psychiater testeten PARRY in den frühen 1970er-Jahren mit einer Variante des Turing-Tests. Sie analysierten Texte von echten Patienten und von Computern, auf denen PARRY lief. Die Psychiater identifizierten die Patienten nur in 52 Prozent der Fälle richtig, eine Statistik, die mit zufälligen Vermutungen übereinstimmt.
Bis heute ist der Turing-Test eine prägnante, leicht verständliche Methode, um zu beurteilen, ob eine Technologie intelligent ist oder nicht. Indem der Test auf textbasierte Interaktionen beschränkt wurde und die Abfragen in natürlicher Sprache (Konversationsenglisch) erfolgen, konnte jeder leicht nachvollziehen, was der Test leistete, als Turing ihn erstmals vorstellte. Und indem er die Genauigkeit der Antwort nicht in den Vordergrund rückte, konzentrierte er den Test auf die Bewertung dessen, was Menschen wirklich menschlich macht.
Seit Alan Turing den Turing-Test...
Dateiformat: ePUBKopierschutz: Adobe-DRM (Digital Rights Management)
Systemvoraussetzungen:
Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet – also für „fließenden” Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Adobe-DRM wird hier ein „harter” Kopierschutz verwendet. Wenn die notwendigen Voraussetzungen nicht vorliegen, können Sie das E-Book leider nicht öffnen. Daher müssen Sie bereits vor dem Download Ihre Lese-Hardware vorbereiten.Bitte beachten Sie: Wir empfehlen Ihnen unbedingt nach Installation der Lese-Software diese mit Ihrer persönlichen Adobe-ID zu autorisieren!
Weitere Informationen finden Sie in unserer E-Book Hilfe.