Logarithmierte Rendite
aus Wikipedia, der freien Enzyklopädie
Die logarithmierte Rendite ist eine finanzmathematische Größe, die vor allem im Risikomanagement bei der Berechnung von Volatilitäten (z.B. im klassischen Black-Scholes-Modell der Optionspreisbewertung) eine Rolle spielt.
[Bearbeiten] Mathemathische Definition
Die logarithmierte Rendite ist der natürliche Logarithmus der Rendite (prozentuale Veränderung des Wertes) in der Periode. Die logarithmierte Rendite aufeinanderfolgender Perioden kumuliert sich durch Addition.
Die logarithmierte Rendite r(ti,T) lässt sich durch folgende Formel ausdrücken:
r(ti,T) = ln[S(ti + T)] − ln[S(ti)],
hierbei ist T die Zeit über die die Rendite bestimmt wird und S(ti) ist der zeitstetige Preis.
[Bearbeiten] Hintergrund
Hauptgrund für die Verwendung logarithmierte Rendite liegt darin, dass diese (im Gegensatz zu den eigentlichen Renditen) normalverteilt sind. Dies ist eine für statistische Verfahren notwendige Eigenschaft. "Normale" Renditen sind links durch Wert 0 bzw. 100 % Verlust begrenzt. Für eine Normalverteilung ist eine Zentrierung um einen Mittelwert notwendig.