Interpolation
aus Wikipedia, der freien Enzyklopädie
Der Begriff Interpolation bezeichnet eine Klasse von Problemen und Verfahren aus der numerischen Mathematik. Zu gegebenen diskreten Daten (z.B. Messwerten) soll eine kontinuierliche Funktion (die so genannte Interpolante) gefunden werden, die diese Daten abbildet. Man sagt dann, die Funktion interpoliert die Daten.
Inhaltsverzeichnis |
[Bearbeiten] Einführung
Manchmal sind von einer Funktion nur einzelne Punkte bekannt, aber keine analytische Beschreibung der Funktion, um sie an beliebigen Stellen auswerten zu können. Ein Beispiel sind Punkte als Resultat einer physikalischen Messung. Könnte man die Punkte durch eine (eventuell glatte) Kurve verbinden, so wäre es möglich, die unbekannte Funktion an den dazwischenliegenden Stellen zu schätzen. Ein anderes Szenario besteht aus einer schwierig handhabbaren Funktion, die man durch eine einfachere approximativ darstellen will. Eine Interpolationsfunktion kann diese Anforderung der Einfachheit erfüllen.
Diese Aufgabe bezeichnet man als Interpolationsproblem. Es gibt für das Problem mehrere Lösungen, der Anwender muss zunächst geeignete Ansatzfunktionen wählen. Je nach Ansatzfunktionen erhalten wir eine andere Interpolante.
Die Interpolation ist eine Art der Approximation: die betrachtete Funktion wird durch die Interpolationsfunktion in den Stützstellen exakt wiedergegeben und in den restlichen Punkten immerhin näherungsweise. Die Approximationsgüte hängt vom Ansatz ab. Um sie zu schätzen, werden Zusatzinformationen über die Funktion f benötigt. Diese ergeben sich auch bei Unkenntnis von f meist in natürlicher Weise: Beschränktheit, Stetigkeit oder Differenzierbarkeit lassen sich häufig voraussetzen.
Bei anderen Approximationsverfahren wie z.B. der Ausgleichungsrechnung wird nicht gefordert, dass die Messdaten exakt wiedergegeben werden; das unterscheidet diese Verfahren von der Interpolation.
Bei dem verwandten Problem der Extrapolation werden Werte geschätzt, die über den Definitionsbereich der Daten hinausgehen.
[Bearbeiten] Interpolationsprobleme
[Bearbeiten] Das allgemeine Interpolationsproblem
Gegeben seien n + 1 Paare von reellen oder komplexen Zahlen . Hierbei bezeichnet man analog zum Rechnen mit Funktionen die xi als Stützstellen, die fi als Stützwerte und die (xi,fi) als Stützpunkte. Man wählt nun eine Ansatzfunktion , die sowohl von x als auch von n + 1 weiteren Parametern aj abhängt. Als Interpolationsproblem bezeichnet man die Aufgabe, die aj so zu wählen, dass ist.
[Bearbeiten] Das lineare Interpolationsproblem
Man spricht von einem linearen Interpolationsproblem, wenn Φ nur linear von den aj abhängt, d.h.
.
Insbesondere die Polynominterpolation ist ein solches lineares Interpolationsproblem. Für die Polynominterpolation gilt
.
Spezialfälle für n = 1, n = 2 und n = 3 nennt man lineare, quadratische und kubische Interpolation. In zwei Dimensionen spricht man entsprechend von bilinear, biquadratisch und bikubisch.
Des Weiteren ist die trigonometrische Interpolation eine lineare Interpolation:
[Bearbeiten] Nichtlineare Interpolationsprobleme
Zu den wichtigsten nichtlinearen Interpolationsproblemen zählt
- das rationale:
[Bearbeiten] Interpolationsverfahren
[Bearbeiten] Lineare Interpolation
Die von Isaac Newton begründete lineare Interpolation ist am einfachsten und wird wohl in der Praxis am häufigsten benutzt. Hier werden zwei gegebene Datenpunkte f0 und f1 durch eine Strecke verbunden. Es gilt:
. Dies entspricht einer Konvexkombination der Endpunkte und .
Detaillierte Erläuterungen siehe Allgemeine lineare Interpolation
[Bearbeiten] Höhergradige Polynome
Der Fundamentalsatz der Algebra garantiert, dass man zu n + 1 paarweise verschiedenen Datenpunkten genau ein Interpolationspolynom n-ten Grades finden kann. Die Bestimmung der Koeffizienten erfordert die Lösung eines linearen Gleichungssystems. Man erhält das Interpolationspolynom z.B. mit Hilfe der Formel von Lagrange:
Weitere Verfahren zur Polynominterpolation siehe dort.
[Bearbeiten] Stückweise Interpolation
Da Polynome mit zunehmendem Grad immer instabiler werden (d.h. sie schwingen stark zwischen den Interpolationspunkten), werden in der Praxis Polynome mit Grad > 5 kaum eingesetzt. Stattdessen interpoliert man einen großen Datensatz stückweise. Im Fall der linearen Interpolation wäre das ein Polygonzug, bei Polynomen vom Grad 2 oder 3 spricht man üblicherweise von Spline-Interpolation. Bei abschnittsweise definierten Interpolanten ist die Frage der Stetigkeit und Differenzierbarkeit an den Stützstellen von großer Bedeutung.
[Bearbeiten] Hermite-Interpolation
Sind zusätzlich zu den Stützstellen auch noch die k-Ableitungen zu interpolieren, so spricht man von einem Hermite-Interpolationsproblem. Die Lösung dieses Problems lässt sich analog zum Lagrange-Verfahren ebenfalls in geschlossener Form angeben.
[Bearbeiten] Trigonometrische Interpolation
Wählt man als Ansatzfunktion ein trigonometrisches Polynom, so erhält man eine trigonometrische Interpolation. Die Interpolationsformel
entspricht einer Fourier-Entwicklung der unbekannten Interpolanten. Die Fourier-Koeffizienten ak und bk berechnen sich zu
und .
Dabei wird angenommen, dass die Stützstellen xi im Intervall äquidistant verteilt sowie außerhalb dieses Intervalls periodisch sind. Die Koeffizienten können effizient mit Hilfe der schnellen Fourier-Transformation berechnet werden.
[Bearbeiten] Logarithmische Interpolation
Vermutet bzw. weiß man, dass den Daten eine logarithmische Funktion zugrunde liegt, so empfiehlt sich dieses Verfahren.
Bei der logarithmischen Interpolation werden zwei bekannte Datenpunkte f0(x0) und f1(x1) durch eine logarithmische Kurve verbunden. Es gilt:
Oder anders formuliert:
Beispiel: χ²-Test
[Bearbeiten] Allgemeine lineare Interpolation
Es sei H(x) eine reelle oder komplexe stetig differenzierbare Funktion mit Nullstellenmenge , wobei alle Nullstellen einfach sein müssen. Dabei kann I eine endliche Menge, wie z.B. , oder eine abzählbare Menge, oder sein. Damit sind die Interpolationskerne gegeben als
- bei
und stetig mit dem Wert 1 an der Stelle x = xk fortgesetzt. Die Hilfsfunktion G(x,y) ist außerhalb der Diagonalen x = y definiert als
- und stetig fortgesetzt zu G(x,x): = H'(x).
Nun sieht man leicht, dass auf den Nullstellen Lk(xj) = δk,j gilt, wobei das Kronecker-Delta verwendet wurde.
Sind jetzt Werte fk für jedes vorgegeben, so ist eine Interpolationsfunktion definiert durch
- .
Im Falle einer abzählbaren Nullstellenmenge muss die Konvergenzbedingung
erfüllt sein.
Beispiele:
- Mit vorgegebenen Stützstellen und einer reellen Funktion h mit h(0) = 0 , kann die Funktion gebildet werden. Dann erhält man
-
- .
- Das aus h(x) = x resultierende Interpolationsverfahren ist die Lagrange-Interpolation. Andere Beispiele sind h(x) = x / (1 + x2) für nach Unendlich gegen Null fallende Interpolationsfunktionen oder h(x) = sin(x) für eine beschränkte Interpolationsfunktion mit übersichtlicher Berechnungsformel.
- Mit dem Kreisteilungspolynom H(x): = xN − 1, d.h. den N-ten Einheitswurzeln , , als Stützstellen, ergibt sich die Diskrete Fourier-Transformation als Verfahren zur Berechnung der Koeffizienten des Interpolationspolynoms. Es gilt und allgemein , so dass
-
- ist.
- Mit H(x): = sin(πx) und den Nullstellen xk = k, , ergibt sich als Interpolationsfunktion die Kardinalreihe
- .
Diese spielt eine zentrale Rolle im Nyquist-Shannon-Abtasttheorem. Die Konvergenzbedingung lautet
- .
[Bearbeiten] Stützstellendarstellung von Polynomen
Sei p(x) = a0 + a1x + a2x2 + ... + an − 1xn − 1 ein Polynom. Dieses Polynom lässt sich in der sogenannten Koeffizientendarstellung durch die Angabe des Vektors (a0,...,an − 1) darstellen. Eine alternative Darstellung, die ohne die Koeffizienten a0,...,an − 1 auskommt, besteht in der Stützstellendarstellung. Dabei wird das Polynom für n Werte xi mit und ausgewertet, d.h. es werden die Funktionswerte p(xi) = yi berechnet. Das Paar von Vektoren ((x0,...,xn − 1),(y0,...,yn − 1)) bezeichnet man als die Stützstellendarstellung des Polynoms p. Ein wesentlicher Vorteil dieser Darstellung besteht darin, dass zwei Polynome in Stützstellendarstellung in Θ(n) Schritten multipliziert werden können. In Koeffizientendarstellung werden hingegen Θ(n2) Schritte benötigt. Die Transformation von der Koeffizienten- in die Stützstellendarstellung ist daher von spezieller Bedeutung und wird als Fourier-Transformation bezeichnet. Die Rücktransformation wird durch Interpolation erreicht.
[Bearbeiten] Anwendungen
In vielen Anwendungen von Interpolationsverfahren wird behauptet, dass durch Interpolation neue Daten aus bestehenden Daten hinzugewonnen werden. Dies ist aber falsch. Durch Interpolation kann nur der Verlauf einer kontinuierlichen Funktion zwischen bekannten Abtastpunkten abgeschätzt werden. Diese Abschätzung basiert meist auf der Annahme, dass der Verlauf einigermaßen "glatt" ist, was in den meisten Fällen zu plausiblen Resultaten führt. Die Annahme muss aber nicht notwendigerweise zutreffen. Höhere Frequenzanteile, die bei der Digitalisierung eines Signals aufgrund des Abtasttheorems verloren gegangen sind, können auch durch anschließende Interpolation nicht wieder rekonstruiert werden.
In der Bildbearbeitung verwendet man Interpolationsverfahren, um gerasterte Bilder zu vergrößern (digitaler Zoom). Da diese Bilder aber nur eine begrenzte Bildauflösung haben, führt die Wiederholung von Bildpunkten zu einem Treppen-Effekt. Das Phänomen ist allgemein auch als Alias-Effekt bekannt. Interpoliert man stattdessen die hinzugefügten Bildpunkte aus den bekannten Nachbarpunkten (Antialiasing), so werden die Kanten glatter, was aber zu Lasten der Bildschärfe geht. Die optische Auflösung des Bildes wird durch die Interpolation nicht vergrößert.
In gängigen Bildbearbeitungssystemen wird häufig bilineare oder bikubische Interpolation verwendet. Die Interpolationsverfahren sind meist in Form digitaler Filter implementiert (Gauß-Filter, Lanczos-Filter).
[Bearbeiten] Literatur
- Josef Stoer, Numerische Mathematik 1, 8. Auflage, Springer 1999
- Bernd Jähne, Digitale Bildverarbeitung, 4. Auflage, Springer 1997
- Oppenheim/Schafer, Zeitdiskrete Signalverarbeitung, Oldenbourg 1992
- Crochiere/Rabiner, Multirate Digital Signal Processing, Prentice Hall 1983
[Bearbeiten] Siehe auch
[Bearbeiten] Weblinks
- Seite zur Interpolation mit Java Applet (ganz unten - Start Button)
- Seite zu Newton, Lagrange und Cubic Spline ebenfalls mit Java Applet