Codepfad
Modus: Ridge (L2)
Lambda: 0.0
Aktive Merkmale: 0
Trainingsfehler: 0.0
Testfehler: 0.0

Koeffizienten schrumpfen mit höherem Lambda

Diagrammtyp: horizontales Balkendiagramm. x-Skala: links negativ, rechts positiv, Balkenlänge = Einflussstärke, Blau/Rot = Vorzeichen | Daten: 9 synthetische Merkmale.

Modell-Qualität

Diagrammtyp: Vergleichsbalken. Kennzahl: Fehlerwert (niedriger = besser), Blau = Training, Orange = Test | Daten: synthetische Train-/Testfehler je Lambda-Stufe.

Training0
Test0

Interaktive Steuerung: Regularisierung

Modus (Ridge/Lasso) Was? Ridge nutzt L2 und schrumpft Gewichte weich. Lasso nutzt L1 und kann Gewichte exakt auf 0 setzen. Warum? Damit ihr je nach Datenlage Stabilitaet oder Feature-Selektion priorisieren koennt. Ridge (L2)
Lambda (0 = keine Strafe, 10 = sehr stark) Was? Erhöht oder verringert die Strafe für große Gewichte. Warum? Damit ihr den Trade-off zwischen Stabilität auf neuen Daten und möglichem Informationsverlust versteht. 0.0
Merksatz: Ridge haelt alle Features im Spiel, Lasso kann Features ausschalten. Beide reduzieren Overfitting, wenn Lambda passend gewaehlt ist.

Vorteile und Grenzen

  • Ridge/L2: Schiebt Koeffizienten Richtung 0, aber selten exakt auf 0.
  • Lasso/L1: Kann Koeffizienten auf 0 setzen und wirkt als Feature-Selektion.
  • Trade-off: Zu wenig Strafe = Overfitting, zu viel Strafe = Underfitting.
  • Praxis: Alpha/Lambda immer ueber Validierung oder CV tunen.
  • Ziel: Bessere Generalisierung auf neuen Daten, nicht perfekte Trainingswerte.