🏋️ Übung: Recall ergänzen und mit Precision vergleichen
Berechne für dieselben Vorhersagen jetzt zusätzlich den `Recall`. Die Precision-Zeile ist schon da. Du ergänzt den Recall und vergleichst danach beide Werte.
📓 Öffne dein Jupyter Notebook oder Google Colab und probiere es selbst aus.
from sklearn.metrics import precision_score, recall_score
actual = [1, 1, 0, 1, 0, 0, 1, 0, 0, 0]
predicted = [1, 0, 0, 1, 0, 0, 1, 1, 1, 0]
precision = precision_score(actual, predicted)
recall = # ??? DEINE LÖSUNG ???
print(f"Precision: {precision:.2f}")
print(f"Recall: {recall:.2f}")
💡 Tipp anzeigen
Die Funktion für Recall hat denselben Aufbau wie `precision_score`: erst `actual`, dann `predicted`.
✅ Lösung anzeigen
from sklearn.metrics import precision_score, recall_score
actual = [1, 1, 0, 1, 0, 0, 1, 0, 0, 0]
predicted = [1, 0, 0, 1, 0, 0, 1, 1, 1, 0]
precision = precision_score(actual, predicted)
recall = recall_score(actual, predicted)
print(f"Precision: {precision:.2f}")
print(f"Recall: {recall:.2f}")
Erwartete Ausgabe: `Precision: 0.60` und `Recall: 0.75`