19. März 2015

Der Vorteil von Entscheidungsbäumen

Der Entscheidungsbaum ist eine der etabliertesten Methoden in der statistischen Modellierung. Sie wurde zunächst für die Klassifizierung entwickelt und später dann für die Regression erweitert.

Es gibt zwei Möglichkeiten Entscheidungsbäume zu erstellen: durch einen Experten oder datenbasiert. Da ein Experte nur sein bekanntes Wissen aufschreiben kann, können so verborgene Zusammenhänge nicht entdeckt werden. Zudem ist dieses Vorgehen auch in der Regel sehr zeitaufwändig.

Datenbasierte Verfahren bieten den Vorteil schnell anwendbar zu sein und alle in den Daten befindlichen Informationen zu extrahieren. Es gibt mittlerweile eine Reihe von Verfahren um Entscheidungsbäume zu erstellen und zu verbessern. Zu den wohl bekanntesten gehören ID3 und C4.5.

Der Vorteil von Entscheidungsbäumen ist ihre gute Lesbarkeit. D.h. es ist sehr einfach die Zusammenhänge, die dem Modell zugrunde liegen, zu verstehen. Daher werden sie in der Industrie häufig verwendet, um die Ursachen für Fehler oder schlechte Qualität in Produktionsprozessen zu ermitteln.

Ein solcher Entscheidungsbaum ermöglicht es Grenzen für Produktionsparameter zu setzten, so dass Fehler oder Ausschuss vermieden wird. Außerdem können die gefundenen Grenzen und Regeln mit Prozessexperten abgeglichen werden, was im Gegenzug die Akzeptanz der Ergebnisse erhöht.

Lesebeispiel: Wenn X1 < 5 und X8 >= 100, dann „nicht in Ordnung“.