LU01d - LB2: Titanic Competition

  1. Die Gewichtung der LB2 kennen.
  2. Machine Learning an der Kaggle-Competition „Titanic“ anwenden.

Nachdem wir in der LB1.1 und LB1.2 die Grundlagen mit Python und der Python-Bibliothek PANDAS (wichtigste Python-Bibliothek für die Datenanalyse und Datenmanipulation), können wir uns nun dem eigentlichen Thema widmen: Der Starter-Competition TITANIC.

Bearbeiten Sie die Übung LU03.A03 - TITANIC Competition in der vorgegebenen Zeit und zeigen Sie abschliessend den Status zur Abnahme Ihrer Lehrperson bzw. laden das Ergebnis hoch.

Note Score Beschreibung
6.0 >0.82 Herausragendes Feature Engineering. Komplexe Muster wie Familienstrukturen oder Deck-Informationen erfolgreich genutzt.
5.5 0.80-0.82 Ein sehr starkes Modell. Es wurden Wahrscheinlich Ensembling oder fortgeschrittene Imputationstechniken verwendet.
5.0 0.78-0.79 Solide Leistung. Die wichtigsten Features (Geschlecht, Alter, Klasse) wurden korrekt verarbeitet und ein Standard-Classifier (z.B. Random Forest) gut getuned.
4.5 0.76-0.77 Ein guter Anfang. Das Modell schlägt den „Gender Only“-Baseline-Score (ca. 0.765) knapp.
4.0 0.75-0.76 Liegt im Bereich der „Gender-Baseline“. Das bedeutet das Modell hat das Grundmuster (Frauen überleben eher) erkannt, aber noch keine tiefen Insights generiert.
3.0 0.70-0.74 Das Modell ist kaum besser als eine einfache Heuristik. Es gibt wahrscheinlich Probleme beim Data Cleaning oder Overfitting.
2.0 0.60-0.69 Das Modell lernt nur sehr wenig aus den Daten. Wichtige Korrelationen wurden übersehen.
1.0 <0.60 Ein Score in diesem Bereich deutet darauf hin, dass das Modell schlechter als ein einfacher Zufallstipp ist oder die Daten falsch aufbereitet wurden.
  • Laden Sie abschliessend Ihr Zertifikat hoch, welches Sie von der Kaggle-Seite herunterladen können (Linke vertikale Leiste | Learn | Completed | View Zerfiticate)

Volkan Demir

  • de/modul/m245/learningunits/lu01/04.txt
  • Zuletzt geändert: 2026/04/29 13:49
  • von vdemir