Feature Subset Selection
aus Wikipedia, der freien Enzyklopädie
Die Feature Subset Selection (FSS) ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für einen Lernalgorithmus verwendet werden. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist.
[Bearbeiten] Der Filter-Ansatz
Berechne ein Maß zur Unterscheidung von Klassen. Messe das Gewicht der Features und wähle die besten n aus. Auf dieses Feature Subset wird der Lernalgorithmus angewendet. Nachteile:
- Redundante Features (Verwandte Features werden ähnliche Gewichtung haben)
- Abhängige Features (Einige Features werden nur in Kombination relevant sein)
[Bearbeiten] Der Wrapper-Ansatz
siehe auch Wrapper.
Durchsuche die Menge aller möglichen Feature Subsets. Auf jedes Subset wird der Lernalgorithmus angewendet. Vorteile:
- Findet ein Feature Subset, dass optimal zum Lernalgorithmus passt
- Bezieht auch Kombinationen von Features ein und nicht nur jedes Feature einzeln
- Entfernt redundante Features
Nachteile:
- Sehr ineffizient
[Bearbeiten] Literatur
- Mladenić,Dunja: Feature Selection for Dimensionality Reduction. Craig Saunders et al. (Hrsg.): SLSFS, 2005, S.84-102 ISBN 3-540-34137-4