Abschluss des klassischen ML-Blocks

Von einzelnen Bäumen zum Ensemble-Gefühl

Merksatz: Gute Modelle sind nicht automatisch gute Erklärer. Gute Erklärer sind nicht automatisch die stärksten Modelle.
Die Werkstatt-Metapher

Mehrere Mechaniker, ein Ziel

Ein einzelnes Modell ist wie ein Mechaniker mit einer Spezialzange. Ein Ensemble ist eine ganze Werkstatt: Einer sucht Fehler, der nächste bessert nach, ein dritter macht die Feinarbeit. Genau das macht XGBoost so stark.

Was du hier lernst Wie Boosting Fehler nacheinander repariert, warum XGBoost trotzdem übertreiben kann und wann ein einfacheres Modell die bessere Wahl ist.
Wichtig für die Praxis Im echten Projekt geht es selten nur um Genauigkeit. Oft zählen Nachvollziehbarkeit, Stabilität und die Frage, wem du das Ergebnis erklären musst.
Modul 1

Boosting & Herr Huber

Ein Modell macht einen Fehler. Das nächste Modell schaut genau dorthin. So arbeitet Boosting Schritt für Schritt.

Offen

Alltagsbild: Der Nachhilfelehrer mit der roten Akte

Stell dir vor, fünf Kunden schreiben dieselbe Kreditprüfung. Beim ersten Durchgang rutschen vier sauber durch. Nur Herr Huber fällt auf: hohes Einkommen, aber auch sehr hohe Schulden. Der Nachhilfelehrer legt seine Akte rot auf den Tisch. Ab jetzt schaut der zweite Durchgang genau dort hin.

Die Idee in ML-Sprache

Boosting baut Modelle nacheinander. Nach jedem Durchgang werden Fehler wichtiger gewichtet. Vereinfacht gilt:

Hier steht \(w_i\) für die Aufmerksamkeit auf Fall \(i\). Wurde der Fall falsch getroffen, steigt sein Gewicht.

Begriffe zum Anklicken

Die rote Akte

Alle fünf Kunden starten mit demselben Gewicht 0.20. Dann trainierst du Modell 1 und Modell 2.

Kunde Profil Gewicht Aufmerksamkeit
Noch ist alles gleich gewichtet. Starte mit Modell 1.
Was nimmst du mit? Boosting baut keine „Superformel auf einmal“, sondern repariert Fehler Runde für Runde.
Modul 2

XGBoost & Overfitting

Sehr stark heißt nicht grenzenlos gut. Wer zu lange nachlernt, kann die Übungsaufgaben auswendig lernen und auf neuen Daten schlechter werden.

Offen

Alltagsbild: Der Streber-Effekt

Ein Schüler macht erst große Fortschritte. Dann lernt er nur noch die alten Übungsblätter auswendig. In der Prüfung erkennt er das Muster nicht mehr. Genau so entsteht Overfitting.

Der Overfitting-Slider

Zieh die Anzahl der Boosting-Runden hoch. Die blaue Trainingskurve sinkt fast immer. Die rote Testkurve wird ab einem Punkt wieder schlechter.

Im Moment sinken Trainings- und Testfehler gemeinsam. Das Modell lernt noch nützlich.

Mini-Quiz

Wann solltest du das Boosting-Training stoppen?

Code-Idee aus der Praxis

from xgboost import XGBClassifier
from sklearn.model_selection import train_test_split

X_train, X_valid, y_train, y_valid = train_test_split(X, y, test_size=0.2, random_state=42)

model = XGBClassifier(
    n_estimators=500,
    learning_rate=0.05,
    max_depth=4,
    random_state=42
)

model.fit(
    X_train,
    y_train,
    eval_set=[(X_valid, y_valid)],
    verbose=False
)
Die Idee: Viele Bäume vorbereiten, aber auf einem Prüf-Set beobachten, wann der Nutzen aufhört.
Was nimmst du mit? Ein sehr starkes Modell braucht eine Bremse. Sonst wird aus Lernen schnell Auswendiglernen.
Modul 3

Das Stakeholder-Dilemma

Mehr Leistung oder mehr Erklärung? Genau diese Frage entscheidet oft darüber, welches Modell du wirklich einsetzen darfst.

Offen

White Box vs. Black Box

Ein einfacher Baum oder eine lineare Regression sind wie ein gläserner Werkzeugkoffer. Du siehst hinein. XGBoost ist eher eine Profi-Werkstatt mit vielen kleinen Zahnrädern. Sehr stark, aber der genaue Weg ist schwerer zu erzählen.

Szenario A

Die Chefärztin will genau wissen, warum das Modell Krebs diagnostiziert hat. Sie braucht eine Erklärung für die Ethik-Kommission.

Szenario B

Ein Online-Shop will einfach nur 5 % mehr Umsatz durch bessere Produktempfehlungen. Keinen interessiert das Warum, nur die Trefferquote.

Du brauchst beide Antworten richtig, um das Dilemma sauber zu lösen.
Was nimmst du mit? Das „beste“ Modell hängt nicht nur an der Genauigkeit, sondern auch daran, wem du das Ergebnis erklären musst.
Modul 4

Die große Landkarte

Vier Modelle, dieselben Punkte, vier ganz verschiedene Grenzzäune. So fühlt man Model-Komplexität visuell.

Offen

Grenzpatrouille im Datenraum

Alle Modelle sollen rote und blaue Punkte trennen. Aber jedes tut das anders: mal stur mit einer geraden Linie, mal blockig, mal fast wie eine maßgeschneiderte Kontur.

Algorithmus wählen

Hier zieht das Modell eine einzige gerade Linie quer durch das Feld. Das ist einfach, aber nicht sehr biegsam.

Kurzer Check

Welches Modell zeigt hier die glatteste und präziseste Grenze?

Was nimmst du mit? Je komplexer das Modell, desto flexibler wird die Grenze. Das hilft oft, kann aber auch ins Overfitting kippen.
Modul 5

Fazit & Bias-Varianz-Matrix

Jetzt ordnest du die bekannten Modelle ein: Wer ist zu stur, wer zu nervös, und wer findet die Balance?

Offen

Die letzte Sortieraufgabe

Bias heißt: zu simpel. Varianz heißt: zu nervös. Ensembles versuchen, aus beiden Welten das Beste mitzunehmen.

Lineare Regression

Wie ordnest du sie ein?

Einzelner Baum

Wie ordnest du ihn ein?

Ensembles

Wie ordnest du Forest und Boosting ein?

Ordne die drei Modelle zuerst ein. Danach bekommst du direkt Rückmeldung.
Was nimmst du mit? Lineare Modelle sind oft zu schlicht, einzelne Bäume oft zu nervös. Ensembles holen viele Schwächen in die Mitte zurück.