Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
de:modul:m245:learningunits:lu01:04 [2026/01/06 11:41] vdemirde:modul:m245:learningunits:lu01:04 [2026/04/29 13:49] (aktuell) vdemir
Zeile 1: Zeile 1:
-====== LU01d - LB2: Titanic Challenge - TBD ======+====== LU01d - LB2: Titanic Competition ======
  
  
 ===== Lernziele ===== ===== Lernziele =====
-  - ???+  - Die Gewichtung der LB2 kennen. 
 +  - Machine Learning an der Kaggle-Competition "Titanic" anwenden.
  
 ===== Einleitung ===== ===== Einleitung =====
-????  +Nachdem wir in der LB1.1 und LB1.die Grundlagen mit Python und der Python-Bibliothek PANDAS (wichtigste Python-Bibliothek für die Datenanalyse und Datenmanipulation), können wir uns nun dem eigentlichen Thema widmen: Der Starter-Competition TITANIC.
- +
-==== Hinweis ===== +
-  * Es wird die reguläre Notenberechnungsformel verwendet +
-  * Die Kontrolle wird über eine aufgezeichnete TEAMS-Sitzung durchgeführt. +
-  * Die Kontrollfragen dienen dazu sicherzustellen, dass die Aufgaben selbst bearbeitet und verstanden wurden.  +
-  * Die Kontrolle wird durch 2-3 Kontrollfragen abschlossen, die sicherstellen sollendass die Arbeit tatsächlich vom Lernenden durchgeführt wurde. +
-  * Fehlende Eigenleistung (Fragen können nicht oder nur ungenügend beantwortet werden) führt zur Note 1.0. +
- +
- +
- +
- +
- +
- +
- +
  
  
 +==== LB2 - Titanic Competition ====
 +Bearbeiten Sie die Übung LU03.A03 - TITANIC Competition in der vorgegebenen Zeit und zeigen Sie abschliessend den Status zur Abnahme Ihrer Lehrperson bzw. laden das Ergebnis hoch.
  
 +===== Benotung =====
 +^Note ^ Score ^Beschreibung ^
 +^6.0 ^ >0.82 |Herausragendes Feature Engineering. Komplexe Muster wie Familienstrukturen oder Deck-Informationen erfolgreich genutzt.| 
 +^5.5 ^ 0.80-0.82 |Ein sehr starkes Modell. Es wurden Wahrscheinlich Ensembling oder fortgeschrittene Imputationstechniken verwendet.|
 +^5.0 ^ 0.78-0.79 |Solide Leistung. Die wichtigsten Features (Geschlecht, Alter, Klasse) wurden korrekt verarbeitet und ein Standard-Classifier (z.B. Random Forest) gut getuned.|
 +^4.5 ^ 0.76-0.77 |Ein guter Anfang. Das Modell schlägt den "Gender Only"-Baseline-Score (ca. 0.765) knapp.|
 +^4.0 ^ 0.75-0.76 |Liegt im Bereich der "Gender-Baseline". Das bedeutet das Modell hat das Grundmuster (Frauen überleben eher) erkannt, aber noch keine tiefen Insights generiert.|
 +^3.0 ^ 0.70-0.74 |Das Modell ist kaum besser als eine einfache Heuristik. Es gibt wahrscheinlich Probleme beim Data Cleaning oder Overfitting.|
 +^2.0 ^ 0.60-0.69  |Das Modell lernt nur sehr wenig aus den Daten. Wichtige Korrelationen wurden übersehen.|
 +^1.0 ^ <0.60 | Ein Score in diesem Bereich deutet darauf hin, dass das Modell schlechter als ein einfacher Zufallstipp ist oder die Daten falsch aufbereitet wurden.|
  
 +===== Hinweis =====
 +  * Laden Sie abschliessend Ihr Zertifikat hoch, welches Sie von der Kaggle-Seite herunterladen können (Linke vertikale Leiste | Learn |  Completed | View Zerfiticate)
  
 ---- ----
 [[https://creativecommons.org/licenses/by-nc-sa/4.0/|{{https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png}}]] Volkan Demir [[https://creativecommons.org/licenses/by-nc-sa/4.0/|{{https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png}}]] Volkan Demir
  
  • de/modul/m245/learningunits/lu01/04.1767696084.txt.gz
  • Zuletzt geändert: 2026/01/06 11:41
  • von vdemir