Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
de:modul:m245:learningunits:lu02:theorie:02 [2025/12/21 13:05] – [Wie laeuft das Training ab?] vdemirde:modul:m245:learningunits:lu02:theorie:02 [2026/01/05 12:06] (aktuell) vdemir
Zeile 1: Zeile 1:
-====== LU02a - Typen von Machine Learning - TBD ======+====== LU02b - Typen von Machine Learning ====== 
 + 
 +===== Varianten von Machine Learning Algorithmen ===== 
 +Es gibt grundsätzlich drei Arten von Algorithmen im Bereich des maschinellen Lernens: 
 + 
 +  * **Supervided Learning (Überwachtes Lernen(** (Schwerpunkt im Kurs M245) 
 +  * Unsupervided Learning (Unüberwachtes Lernen) 
 +  * Reinforcement Learning (Verstärkendes Lernen) 
 + 
 +{{:de:modul:m245:learningunits:lu02:theorie:machine_learning_types.png?800|}}
  
-===== Typen von Machine Learning ===== 
  
 ==== Superviced Machine Learning ==== ==== Superviced Machine Learning ====
Zeile 18: Zeile 26:
  
 Innerhalb des Moduls 245 werden wir uns auf diese Methode fokussieren. Innerhalb des Moduls 245 werden wir uns auf diese Methode fokussieren.
 +
 +{{:de:modul:m245:learningunits:lu02:theorie:machine_learning_grundlagen_-_supervised_learning.mp4|}}
  
 ==== Unsuperviced Machine Learning ==== ==== Unsuperviced Machine Learning ====
Zeile 33: Zeile 43:
   * Empfehlungssysteme    * Empfehlungssysteme 
  
----- +Innerhalb des Moduls 245 werden die diese Methode **nicht** angwenden.
-[[https://creativecommons.org/licenses/by-nc-sa/4.0/|{{https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png}}]] Volkan Demir+
  
-Innerhalb des Moduls 245 werden die diese Methode nicht angwenden.+{{:de:modul:m245:learningunits:lu02:theorie:machine_learning_grundlagen_-_unsupervised_learning.mp4|}}
  
 ==== Reinforcement Learning ==== ==== Reinforcement Learning ====
Zeile 42: Zeile 51:
  
 Innerhalb des Moduls 245 werden die diese Methode nicht angwenden. Innerhalb des Moduls 245 werden die diese Methode nicht angwenden.
- 
----- 
  
 ===== Superviced Learning im Detail ===== ===== Superviced Learning im Detail =====
  
-===== Grundidee =====+==== Grundidee ====
 Wir haben einen Datensatz aus (x, y)-Paaren: Wir haben einen Datensatz aus (x, y)-Paaren:
   * x = Eingabedaten = Features, z.B. Bildpixel, Messwerte, Texteigenschaften   * x = Eingabedaten = Features, z.B. Bildpixel, Messwerte, Texteigenschaften
Zeile 54: Zeile 61:
 Das Modell sucht eine Funktion //y ≈ f(x)// und versucht, moeglichst wenig falsch zu liegen. Das Modell sucht eine Funktion //y ≈ f(x)// und versucht, moeglichst wenig falsch zu liegen.
  
-**Typische Aufgaben**+==== Typische Aufgaben ====
  
 ^ # ^ Klassifikation ^ Merkmal(Feature) ^Ziel (Label) ^ ^ # ^ Klassifikation ^ Merkmal(Feature) ^Ziel (Label) ^
Zeile 63: Zeile 70:
 | 5. | Kundenabwanderung (Churn Prediction) | Vertragslaufzeit, Monatliche Kosten,  Anzahl Support-Anfragen, Nutzungsintensitaet | Kunde bleibt, Kunde kuendigt | | 5. | Kundenabwanderung (Churn Prediction) | Vertragslaufzeit, Monatliche Kosten,  Anzahl Support-Anfragen, Nutzungsintensitaet | Kunde bleibt, Kunde kuendigt |
  
 +==== Wie läuft das Training ab? ====
  
-===== Wie läuft das Training ab? ===== +^ Schritt ^ Tätigkeit ^ Kommentar ^ 
- +^ 1. ^ Daten sammeln Mit korrekten Labels (der teuerste Teil) | 
-  - **Daten sammeln**: Mit korrekten Labels (der teuerste Teil) +^ 2. ^ Modell initialisieren Startet ahnungslos (wie Erstsemester) | 
-  - **Modell initialisieren:** Startet ahnungslos (wie Erstsemester) +^ 3. ^ Vorhersage machen Modell rät | 
-  - **Vorhersage machen**: Modell rät +^ 4. ^ Fehler berechnen Mean Squared Error(Abweichung von der Vorhersage), Cross-Entropy (Genauigkeit mit der Vorhersage) | 
-  - **Fehler berechnen**: Mean Squared Error(Abweichung von der Vorhersage), Cross-Entropy (Genauigkeit mit der Vorhersage) +^ 5. ^ Modell anpassen Gewichte korrigieren (Gradient Descent)  
-  - **Modell anpassen**: Gewichte korrigieren (Gradient Descent) +^ 6. ^ Wiederholen Bis Fehler klein genug oder Geduld am Ende |
-  - **Wiederholen**: Bis Fehler klein genug oder Geduld am Ende +
- +
-===== Wichtiges Vokabular im Zusammenhang mit Machine Learning  ===== +
-  * **Trainingsdaten**: Daraus lernt das Modell +
-  * **Testdaten**: Damit prueft man, ob es wirklich gelernt hat +
-  * **Overfitting**: Modell lernt auswendig, versteht aber nichts +
-  * **Underfitting**: Modell versteht gar nichts +
-  * **Generalisation**: Das eigentliche Ziel +
- +
-===== Vor- und Nachteile ===== +
- +
-**Vorteile ** +
-  * Gute Ergebnisse, wenn viele korrekt gelabelte Daten da sind +
-  * Relativ gut interpretierbar (je nach Modell) +
-  * Industriestandard fuer viele Anwendungen +
- +
-**Nachteile** +
-  * Labels sind teuer und fehleranfaellig +
-  * Modell kann Bias der Trainingsdaten uebernehmen +
-  * Lernt nur das, was man ihm zeigt (keine Magie)+
  
 +==== Vor- und Nachteile ====
 +^ <color #22b14c>Vorteile</color> ^ <color #ed1c24>Nachteile</color> ^
 +| <color #22b14c>Gute Ergebnisse, wenn viele korrekt gelabelte Daten da sind </color>| <color #ed1c24>Labels sind teuer und fehleranfällig</color> |
 +| <color #22b14c>Relativ gut interpretierbar (je nach Modell)</color> | <color #ed1c24>Modell kann Bias der Trainingsdaten uebernehmen</color> |
 +| <color #22b14c>Industriestandard fuer viele Anwendungen</color> | <color #ed1c24>Lernt nur das, was man ihm zeigt (keine Magie)</color>|
  
 ---- ----
 [[https://creativecommons.org/licenses/by-nc-sa/4.0/|{{https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png}}]] Volkan Demir [[https://creativecommons.org/licenses/by-nc-sa/4.0/|{{https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png}}]] Volkan Demir
  
  • de/modul/m245/learningunits/lu02/theorie/02.1766318730.txt.gz
  • Zuletzt geändert: 2025/12/21 13:05
  • von vdemir