LU01d - LB2: Titanic Competition
Lernziele
- Die Gewichtung der LB2 kennen.
- Machine Learning an der Kaggle-Competition „Titanic“ anwenden.
Einleitung
Nachdem wir in der LB1.1 und LB1.2 die Grundlagen mit Python und der Python-Bibliothek PANDAS (wichtigste Python-Bibliothek für die Datenanalyse und Datenmanipulation), können wir uns nun dem eigentlichen Thema widmen: Der Starter-Competition TITANIC.
LB2 - Titanic Competition
Bearbeiten Sie die Übung LU03.A03 - TITANIC Competition in der vorgegebenen Zeit und zeigen Sie abschliessend den Status zur Abnahme Ihrer Lehrperson bzw. laden das Ergebnis hoch.
Benotung
| Note | Score | Beschreibung |
|---|---|---|
| 6.0 | >0.82 | Herausragendes Feature Engineering. Komplexe Muster wie Familienstrukturen oder Deck-Informationen erfolgreich genutzt. |
| 5.5 | 0.80-0.82 | Ein sehr starkes Modell. Es wurden Wahrscheinlich Ensembling oder fortgeschrittene Imputationstechniken verwendet. |
| 5.0 | 0.78-0.79 | Solide Leistung. Die wichtigsten Features (Geschlecht, Alter, Klasse) wurden korrekt verarbeitet und ein Standard-Classifier (z.B. Random Forest) gut getuned. |
| 4.5 | 0.76-0.77 | Ein guter Anfang. Das Modell schlägt den „Gender Only“-Baseline-Score (ca. 0.765) knapp. |
| 4.0 | 0.75-0.76 | Liegt im Bereich der „Gender-Baseline“. Das bedeutet das Modell hat das Grundmuster (Frauen überleben eher) erkannt, aber noch keine tiefen Insights generiert. |
| 3.0 | 0.70-0.74 | Das Modell ist kaum besser als eine einfache Heuristik. Es gibt wahrscheinlich Probleme beim Data Cleaning oder Overfitting. |
| 2.0 | 0.60-0.69 | Das Modell lernt nur sehr wenig aus den Daten. Wichtige Korrelationen wurden übersehen. |
| 1.0 | <0.60 | Ein Score in diesem Bereich deutet darauf hin, dass das Modell schlechter als ein einfacher Zufallstipp ist oder die Daten falsch aufbereitet wurden. |
