Article
Grundlagen penalisierter Regression
Search Medline for
Authors
Published: | August 27, 2015 |
---|
Outline
Text
Lineare Regression ist ein Standardwerkzeug zur Modellierung statistischer Zusammenhänge. In den meisten Fällen ist jedoch der Einfluss einer metrischen Kovariable auf die Zielgröße nicht ausreichend durch eine lineare Funktion zu beschreiben. Einfache Transformationen der Variablen geben den wahren funktionalen Zusammenhang auch nur unzureichend wieder. Zudem verlieren die Ergebnisse an Interpretierbarkeit. Polynomial modellierte Effekte haben außerdem den Nachteil, dass am Rand der gemessenen Kovariablenwerte sehr große Ausschläge und damit verzerrte Schätzungen auftreten. Dennoch besteht das Ziel, den Effekt einer metrischen Kovariable durch eine glatte, differenzierbare Funktion zu beschreiben.
Die Konstruktion einer Splinebasis auf dem Wertebereich einer metrischen Kovariable erlaubt ein größeres Maß an Flexibilität bei der Schätzung als die vorangegangenen Methoden. Der maximal mögliche Grad der geschätzten Funktion ist durch die Anzahl der über den Wertebereich der Kovariable verteilten Splines gegeben. Im Regelfall ist dieser für die Praxis allerdings zu hoch gewählt und eine ausreichende Glattheit der Schätzung wird durch die Addition eines Strafterms hergestellt. Dadurch muss statt einer Transformation oder eines Polynomgrades nur noch die Stärke des Strafterms gewählt werden, um eine passende glatte Funktion zu erhalten.
Dieser Workshop vermittelt die Grundlagen penalisierter Regression und den Einsatz von Splines für metrische Kovariablen. Passende Strafterme werden vorgestellt und die Bestimmung der optimalen Stärke des Strafterms durch AIC/BIC und Kreuzvalidierung wird diskutiert. Die praktische Umsetzung in R wird präsentiert und praktisch durchgeführt.