Der schnellste Weg, um die Mechanismen von LLMs zu verstehenDieses Buch ist eine sehr komprimierte und gleichzeitig gut verständliche Einführung in die Entwicklung von Large Language ModelsIdeal für alle, die sich schnell und fundiert in die Grundlagen von LLMs einarbeiten wollenVom Bestseller-Autor Andriy Burkov, der in seiner renommierten »Hundred-Page«-Reihe zu Machine-Learning-Themen Konzepte besonders klar und knapp erklärt
Sie möchten in die Welt der Large Language Models eintauchen? Dieses handliche Buch hilft Ihnen, das nötige Grundlagenwissen aufzubauen, um das Innenleben von LLMs zu verstehen und erste praktische Erfahrungen zu sammeln. Es führt Schritt für Schritt in die Sprachmodellierung ein, beginnend mit Machine Learning und neuronalen Netzen über RNNs und Transformern bis zu aktuellen LLM-Architekturen.
Bestseller-Autor Andriy Burkov – bekannt für seine »Hundred-Page«-Reihe zu Machine-Learning-Themen – macht die komplexen Ideen leicht zugänglich, indem er gut verständliche Erklärungen der Mathematik, zahlreiche Illustrationen und den Python-Code ausgewogen einsetzt. Auf der Website zum Buch finden Sie direkt ausführbare Codeschnipsel und PyTorch-Implementierungen in Jupyter Notebooks, die die Konzepte perfekt veranschaulichen.
Das Buch unterstützt Sie die mathematischen Grundlagen des Machine Learnings und der neuronalen Netze zu verstehen und zu beherrschendrei Architekturen von Language Models in Python zu erstellen und zu trainierenein Transformer-Sprachmodell von Grund auf in PyTorch zu programmierenmit LLMs zu arbeiten und effektive Prompt-Engineering- und Feinetuning-Techniken kennenzulernenHalluzinationen zu vermeiden und Modelle zu bewerten