Alle Werkzeuge und Techniken für die praktische Arbeit mit LLMs
- Das Handbuch für das intuitive Verständnis von LLMs: Mit zahlreichen Visualisierungen, die Konzepte schnell zugänglich machen
- Themen sind die Sprachverarbeitung - Textklassifikation, Suche oder Cluster - und die Sprachgenerierung - vom Prompt Engineering bis zur Retrieval Augmented Generation (RAG)
- Die Autoren haben mit ihren beliebten Blogs Millionen von Entwickler*innen geholfen, Machine Learning und KI zu verstehen
Diese umfassende und anschauliche Einführung in die Welt der LLMs beschreibt sowohl konzeptionelle Grundlagen als auch konkrete Anwendungen und nützliche Tools. Tauchen Sie in das Innenleben von LLMs ein und erkunden Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken. Mit seiner einzigartigen Mischung aus intuitiv verständlichen Illustrationen und praxisbezogenen Erläuterungen ist dieses Buch die ideale Ausgangsbasis für alle, die die Möglichkeiten von KI-Systemen voll ausschöpfen möchten.
Sie lernen, vortrainierte Transformer-LLMs von Hugging Face für Anwendungsfälle wie das Verfassen von Texten oder für Inhaltszusammenfassungen einzusetzen. Sie erfahren außerdem, wie Sie Suchsysteme erstellen und vorhandene Bibliotheken und vortrainierte Modelle für Textklassifikation, Suche und Clustering nutzen.
- Verstehen Sie die Architektur von Transformer-basierten Sprachmodellen, die bei der Textgenerierung und -repräsentation hervorragende Ergebnisse liefern
- Entwerfen Sie fortgeschrittene LLM-Pipelines, um Textdokumente zu clustern und die darin enthaltenen Themen zu erforschen
- Erstellen Sie semantische Suchmaschinen, die über den Abgleich von Schlagwörtern hinausgehen und auf Methoden wie Dense Retrieval und Reranking basieren
- Lernen Sie, wie Sie generative Modelle optimal einsetzen - vom Prompt Engineering bis hin zur Retrieval Augmented Generation (RAG)
- Entwickeln Sie ein tieferes Verständnis dafür, wie LLMs trainiert und für spezifische Anwendungen optimiert werden, beispielsweise durch Feintuning generativer Modelle, Contrastive Fine-Tuning und In-Context-Learning
Reihe
Sprache
Verlagsort
Zielgruppe
Python-Programmier*innen mit Grundlagenwissen im Machine Learning
Produkt-Hinweis
Illustrationen
Maße
Höhe: 236 mm
Breite: 162 mm
Dicke: 26 mm
Gewicht
ISBN-13
978-3-96009-266-7 (9783960092667)
Schweitzer Klassifikation
Autor*in
Jay Alammar ist Direktor und Engineering Fellow bei Cohere, dem Vorreiter bei der Bereitstellung von Large Language Models als API. In dieser Funktion berät und schult er Unternehmen und die Entwicklergemeinschaft bei der Verwendung von Sprachmodellen für praktische Anwendungsfälle. Durch seinen beliebten AI/ML-Blog hat Jay Millionen von Forscherinnen und Softwareengineers geholfen, Tools und Konzepte des Machine Learnings visuell zu verstehen - von den Grundlagen (die in der Dokumentation von Paketen wie NumPy und pandas auftauchen) bis hin zu den neuesten Entwicklungen (Transformers, BERT, GPT-3, Stable Diffusion). Jay ist außerdem Mitgestalter von beliebten Kursen zum Machine Learning und Natural Language Processing auf Deeplearning.ai und Udacity.
Maarten Grootendorst ist Senior Clinical Data Scientist bei IKNL (Netherlands Comprehensive Cancer Organization). Er hat Master-Abschlüsse in Organisationspsychologie, klinischer Psychologie und Data Science, die er nutzt, um komplexe Konzepte des Machine Learning einem breiten Publikum zu vermitteln. Mit seinen beliebten Blogs hat er Millionen von Leserinnen und Lesern erreicht. Darin erklärt er die Grundlagen der künstlichen Intelligenz - oft aus psychologischer Sicht. Er ist Autor und Betreuer mehrerer Open-Source-Pakete, die sich auf die Stärke von Large Language Models stützen, wie BERTopic, PolyFuzz und KeyBERT. Seine Pakete werden millionenfach heruntergeladen und von Datenexperten und Organisationen weltweit genutzt.
Übersetzung