Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
de:modul:m245:learningunits:lu01:04 [2026/04/29 11:39] vdemirde:modul:m245:learningunits:lu01:04 [2026/04/29 13:49] (aktuell) vdemir
Zeile 1: Zeile 1:
-====== LU01c - LB2: Titanic Challange ======+====== LU01d - LB2: Titanic Competition ======
  
  
 ===== Lernziele ===== ===== Lernziele =====
   - Die Gewichtung der LB2 kennen.   - Die Gewichtung der LB2 kennen.
-  - Machine Learning an der Kaggle-Challange "Titanic" anwenden-+  - Machine Learning an der Kaggle-Competition "Titanic" anwenden.
  
 ===== Einleitung ===== ===== Einleitung =====
-Nachdem wir in der LB1.1 und LB1.2 die Grundlagen mit Python und der Python-Bibliothek PANDAS (wichtigste Python-Bibliothek für die Datenanalyse und Datenmanipulation), können wir uns nun dem eigentlichen Thema widmen: Der Starter-Challange TITANIC.+Nachdem wir in der LB1.1 und LB1.2 die Grundlagen mit Python und der Python-Bibliothek PANDAS (wichtigste Python-Bibliothek für die Datenanalyse und Datenmanipulation), können wir uns nun dem eigentlichen Thema widmen: Der Starter-Competition TITANIC.
  
  
-==== LB2 - Titanic Challange ==== +==== LB2 - Titanic Competition ==== 
-Bearbeiten Sie die Übung LU03.A03 - TITANIC Challange in der vorgegebenen Zeit und zeigen Sie abschliessend den Status zur Abnahme Ihrer Lehrperson bzw. laden das Ergebnis hoch. +Bearbeiten Sie die Übung LU03.A03 - TITANIC Competition in der vorgegebenen Zeit und zeigen Sie abschliessend den Status zur Abnahme Ihrer Lehrperson bzw. laden das Ergebnis hoch.
- +
-  * Dauer: Ca. 8 Lektionen +
-  * Gewichtung: 10%+
  
 +===== Benotung =====
 +^Note ^ Score ^Beschreibung ^
 +^6.0 ^ >0.82 |Herausragendes Feature Engineering. Komplexe Muster wie Familienstrukturen oder Deck-Informationen erfolgreich genutzt.| 
 +^5.5 ^ 0.80-0.82 |Ein sehr starkes Modell. Es wurden Wahrscheinlich Ensembling oder fortgeschrittene Imputationstechniken verwendet.|
 +^5.0 ^ 0.78-0.79 |Solide Leistung. Die wichtigsten Features (Geschlecht, Alter, Klasse) wurden korrekt verarbeitet und ein Standard-Classifier (z.B. Random Forest) gut getuned.|
 +^4.5 ^ 0.76-0.77 |Ein guter Anfang. Das Modell schlägt den "Gender Only"-Baseline-Score (ca. 0.765) knapp.|
 +^4.0 ^ 0.75-0.76 |Liegt im Bereich der "Gender-Baseline". Das bedeutet das Modell hat das Grundmuster (Frauen überleben eher) erkannt, aber noch keine tiefen Insights generiert.|
 +^3.0 ^ 0.70-0.74 |Das Modell ist kaum besser als eine einfache Heuristik. Es gibt wahrscheinlich Probleme beim Data Cleaning oder Overfitting.|
 +^2.0 ^ 0.60-0.69  |Das Modell lernt nur sehr wenig aus den Daten. Wichtige Korrelationen wurden übersehen.|
 +^1.0 ^ <0.60 | Ein Score in diesem Bereich deutet darauf hin, dass das Modell schlechter als ein einfacher Zufallstipp ist oder die Daten falsch aufbereitet wurden.|
  
 ===== Hinweis ===== ===== Hinweis =====
-  * Es wird die reguläre Notenberechnungsformel verwendet.  
-  * Die Kontrolle wird durch 2-3 Kontrollfragen abschlossen, die sicherstellen sollen, dass die Arbeit tatsächlich vom Lernenden durchgeführt und verstanden wurde. 
-  * Fehlende Eigenleistung (Fragen können nicht oder nur ungenügend beantwortet werden) führt zur Note 1.0. 
   * Laden Sie abschliessend Ihr Zertifikat hoch, welches Sie von der Kaggle-Seite herunterladen können (Linke vertikale Leiste | Learn |  Completed | View Zerfiticate)   * Laden Sie abschliessend Ihr Zertifikat hoch, welches Sie von der Kaggle-Seite herunterladen können (Linke vertikale Leiste | Learn |  Completed | View Zerfiticate)
  
  • de/modul/m245/learningunits/lu01/04.1777455543.txt.gz
  • Zuletzt geändert: 2026/04/29 11:39
  • von vdemir