Typische Problemstellungen im Maschinellen Lernen
1. Klassifikation
- Beschreibung: Eingaben werden in diskrete Klassen eingeteilt.
- Beispiele:
- Bilderkennung (Katze vs. Hund)
- Spam-Filter (Spam vs. Nicht-Spam)
- Krankheitsdiagnose (z. B. Tumor ja/nein)
2. Regression
- Beschreibung: Vorhersage eines kontinuierlichen Werts.
- Beispiele:
- Vorhersage von Immobilienpreisen
- Prognose der Außentemperatur
- Schätzung des Energieverbrauchs
3. Clustering
- Beschreibung: Gruppierung von Datenpunkten in Cluster, ohne vorherige Labels.
- Beispiele:
- Kundensegmentierung im Marketing
- Gruppierung von Dokumenten nach Themen
- Mustererkennung in Genomdaten
4. Dimensionsreduktion
- Beschreibung: Reduzierung der Anzahl an Merkmalen, während wichtige Strukturen erhalten bleiben.
- Beispiele:
- Visualisierung hochdimensionaler Daten (z. B. PCA, t-SNE)
- Feature Engineering zur Beschleunigung von Modellen
- Rauschunterdrückung in Daten
5. Anomalieerkennung
- Beschreibung: Erkennung von ungewöhnlichen oder abweichenden Datenpunkten.
- Beispiele:
- Betrugserkennung bei Kreditkarten
- Erkennung von Maschinendefekten in der Industrie
- Intrusion Detection in Netzwerken
6. Reinforcement Tasks
- Beschreibung: Lernen einer Strategie/Policy zur Interaktion mit einer Umgebung.
- Beispiele:
- Spiele (z. B. Schach, Go, Videospiele)
- Robotik (z. B. Greifen, Gehen)
- Optimierung von Verkehrsflüssen
Lernparadigmen (Wie wird gelernt?)
Supervised Learning (Überwachtes Lernen)
- Man hat Trainingsdaten mit Labels (Eingabe + richtige Ausgabe).
- Ziel: Modell lernt eine Abbildung von Eingaben → Ausgaben.
- Beispiele:
- Bilderkennung („Das ist eine Katze / ein Hund“)
- Spamfilter (E-Mail → „Spam“ oder „kein Spam“)
Unsupervised Learning (Unüberwachtes Lernen)
- Man hat nur ungelabelte Daten, keine „richtigen Antworten“.
- Ziel: Strukturen, Muster oder Gruppen in den Daten finden.
- Beispiele:
- Clustering von Kunden im Marketing (Kundensegmente)
- Dimensionsreduktion (z. B. PCA)
Reinforcement Learning (Verstärkendes Lernen)
- Agent lernt durch Interaktion mit einer Umgebung und bekommt Belohnungen / Strafen.
- Ziel: Strategien entwickeln, die langfristig maximale Belohnung bringen.
- Beispiele:
- AlphaGo, das Go-Spiel meistert
- Roboter, der laufen lernt
(ergänzend) Semi-Supervised Learning
- Mischung: Wenige gelabelte Daten + viele ungelabelte Daten.
- Nützlich, wenn Labeling teuer ist.
(ergänzend) Self-Supervised Learning
- Labels werden automatisch aus den Daten selbst erzeugt.
- Sehr wichtig für große Sprachmodelle.
- Beispiel: Vorhersage des nächsten Wortes in einem Satz.