New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Matrixexponential - Wikipedia

Matrixexponential

aus Wikipedia, der freien Enzyklopädie

In der Mathematik ist das Matrixexponential oder Matrixexponenzial eine Funktion auf der Menge der quadatischen Matrizen, welche analog zur reellen Exponentialfunktion definiert ist. Das Matrixexpontial stellt die Verbindung zwischen Liealgebra und der zugehörigen Liegruppe her.

Sei X eine reelle oder komplexe n×n-Matrix. Das Exponential von X, welches durch eX oder exp(X) bezeichnet wird, ist die n×n-Matrix, welche durch die folgende Potenzreihe definiert ist.

e^X = \sum_{k=0}^\infty{X^k \over k!}.

Diese Reihe konvergiert immer. Daher ist das Exponential von X wohldefiniert. Wenn X eine 1×1-Matrix ist, entspricht das Matrixexponential von X der gewöhnlichen Exponentialfunktion.

Inhaltsverzeichnis

[Bearbeiten] Eigenschaften

Seien X und Y komplexe n×n-Matrizen, und seien a und b beliebige komplexe Zahlen. Wir bezeichnen die n×n-Einheitsmatrix mit E und die Nullmatrix mit 0. Das Matrixexponential hat die folgenden Eigenschaften:

[Bearbeiten] Lineare Differentialgleichungen

Einer der Vorzüge des Matrixexponentials ist, dass man es benutzen kann, um Systeme von linearen gewöhnlichen Differentialgleichungen zu lösen. Aus Gleichung (1) unten folgt zum Beispiel, dass die Lösung des Anfangswertproblems

\frac{d}{dt} y(t) = Ay(t), \quad y(0) = y_0,

wobei A eine Matrix ist, durch

y(t) = e^{At} y_0. \,

gegeben ist. Das Matrixexponential kann auch zur Lösung der inhomogenen Gleichung

\frac{d}{dt} y(t) = Ay(t) + z(t), \quad y(0) = y_0.

verwendet werden. Beispiele findet man unten im Kapitel Anwendungen.

Für Differentialgleichungen der Form

\frac{d}{dt} y(t) = A(t) \, y(t), \quad y(0) = y_0,

mit nicht-konstantem A gibt es keine geschlossenen Lösungen. Die Magnus-Reihe liefert jedoch eine Lösung als unendliche Summe.

[Bearbeiten] Das Exponential von Summen

Die Exponentialfunktion erfüllt ex + y = exey für alle Zahlen x and y. Dasselbe gilt für kommutierende Matrizen: Wenn die Matrizen X und Y kommutieren (d.h. XY = YX), dann gilt

e^{X+Y} = e^Xe^Y. \,

Wenn sie jedoch nicht kommutieren, dann braucht obige Gleichung nicht zu gelten. In diesem Fall kann man eX + Y mit Hilfe der Baker-Campbell-Hausdorff-Formel berechnen.

[Bearbeiten] Die Exponentialabbildung

Das Exponential einer Matrix ist immer eine invertierbare Matrix. Die Inverse von eX ist durch eX gegeben. Das Matrixexponential liefert somit eine Abbildung

\exp \colon M_n(\mathbb C) \to \mbox{GL}(n,\mathbb C)

aus dem Vektorraum aller n×n-matrizen in die allgemeine lineare Gruppe, die Gruppe aller invertierbaren Matrizen. Diese Abbildung ist surjektiv, d.h. jede invertierbare Matrix kann als die Exponentialmatrix einer anderen Matrix geschrieben werden. (Dies gilt nur wenn man als Einträge komplexe Zahlen zulässt. Lässt man nur reelle Zahlen zu, so gilt die Aussage nicht.) Der Matrixlogarithmus liefert die Umkehrung dieser Abbildung.

Für je zwei Matrizen X und Y, gilt

\| e^{X+Y} - e^X \| \le \|Y\| e^{\|X\|} e^{\|Y\|},

wobei || · || eine beliebiege Matrixnorm bezeichnet. Daraus folgt, dass die Exponentialabbildung stetig und auf kompakten Teilmengen von Mn(C) sogar lipschitzstetig ist.

Die Zuordnung

t \mapsto e^{tX}, \qquad t \in \mathbb R

definiert eine glatte Kurve in der allgemeinen linearen Gruppe, welche für t = 0 die Einheitsmatrix liefert. Dies liefert eine Einparameter-Untergruppe der allgemeinen linearen Gruppe, da

e^{tX}e^{sX} = e^{(t+s)X}\,

gilt. Die Ableitung dieser Funktion am Punkt t ist durch

\frac{d}{dt}e^{tX} = Xe^{tX}. \qquad (1)

gegeben. Die Ableitung für t = 0 ist gerade die Matrix X, d. h. X erzeugt diese Einparameter-Untergruppe.

Allgemeiner gilt:

\frac{d}{dt}e^{X(t)} = \int_0^1 e^{(1-\alpha) X(t)} \frac{dX(t)}{dt} e^{\alpha X(t)}d\alpha

[Bearbeiten] Berechnung des Matrixexponentials

[Bearbeiten] Diagonalisierbare Matrizen

Ist die Matrix A eine Diagonalmatrix

A=\begin{pmatrix} a_1 & 0 & \ldots & 0 \\ 0 & a_2 & \ldots & 0  \\  \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & a_n \end{pmatrix},

dann kann man ihr Exponential ermitteln, indem man die übliche Exponentialfunktion auf jeden Eintrag der Hauptdiagonalen anwendet:

e^A=\begin{pmatrix} e^{a_1} & 0 & \ldots & 0 \\  0 & e^{a_2} & \ldots & 0  \\  \vdots & \vdots & \ddots & \vdots \\  0 & 0 & \ldots & e^{a_n} \end{pmatrix}.

Damit kann man auch das Exponential diagonalisierbarer Matrizen berechnen. Wenn A = UDU−1 mit einer Diagonalmatrix D ist, dann ist eA = UeDU−1.

[Bearbeiten] Nilpotenter Fall

Eine Matrix N ist nilpotent, wenn Nq = 0 für eine geeignete natürliche Zahl q gilt. In diesem Fall kann das Matrixexponential eN direkt aus der Reihenentwicklung berechnet werden, da die Reihe nach einer endlichen Anzahl von Termen abbricht:

e^N = E + N + \frac{1}{2}N^2 + \frac{1}{6}N^3 + \cdots + \frac{1}{(q-1)!}N^{q-1}.

[Bearbeiten] Allgemeiner Fall

Eine beliebige Matrix X kann eindeutig in eine Summe

X = A + N \,

zerlegt werden, wobei

  • A diagonalisierbar ist
  • N nilpotent ist
  • A mit N kommutiert (d.h. AN = NA)

Damit kann man das Exponential von X berechnen, indem man es auf die vorgenannten Fälle reduziert: e^X = e^{A+N} = e^A e^N. \, Im letzten Schritt benötigt man die Kommutativität von A und N.

Eine andere (nah verwandte) Methode ist die Verwendung der Jordanschen Normalform von X. Sei J die Jordansche Normalform von X mit der Übergangsmatrix P, dass heißt, es gilt

e^{X}=Pe^{J}P^{-1}.\,

Wegen

J=J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n),

gilt

e^{J}\, = \exp \big( J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n) \big)
= \exp \big( J_{a_1}(\lambda_1) \big) \oplus \exp \big( J_{a_2}(\lambda_2) \big) \oplus\cdots\oplus \exp \big( J_{a_k}(\lambda_k) \big).

Daher muss man nur das Exponential eines Jordan-Blocks kennen. Nun ist jeder Jordan-Block von der Form

J_{a}(\lambda) = \lambda I + N \,

wobei N eine spezielle nilpotente Matrix ist. Das Exponential des Jordan-Blocks ist also

e^{\lambda I + N} = e^{\lambda}e^N. \,

[Bearbeiten] Berechnung

Man betrachte die Matrix

B=\begin{pmatrix} 21 & 17 & 6 \\ -5 & -1 & -6 \\ 4 & 4 & 16 \end{pmatrix},

welche die Jordansche Normalform

J=\begin{pmatrix} 16 & 1 & 0 \\ 0 & 16 & 0 \\ 0 & 0 & 4 \end{pmatrix},

mit der Übergangsmatrix

P=\begin{pmatrix} -1 & 1 & {5 \over 8} \\ 1 & -1 & -{1\over 8} \\ 0 & 2 & 0 \end{pmatrix}

hat. Dann gilt

J=J_2(16)\oplus J_1(4)

und

e^B = P e^{J} P^{-1} = P (e^{J_2(16)} \oplus e^{J_1(4)} ) P^{-1}.

Somit ist

\exp \left[ 16 E+\begin{pmatrix} 0 & 1 \\  0 & 0 \end{pmatrix} \right] = e^{16}\left[\begin{pmatrix} 1 & 0 \\  0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\  0 & 0 \end{pmatrix} + {1 \over 2!}\begin{pmatrix} 0 & 0 \\  0 & 0 \end{pmatrix}+\cdots\right]=\begin{pmatrix} e^{16} & e^{16} \\  0 & e^{16} \end{pmatrix}

Das Exponential einer 1×1-Matrix ist trivial. Mit eJ1(4)=e4 folgt

e^B = P\begin{pmatrix} e^{16} & e^{16} & 0 \\  0 & e^{16} & 0 \\  0 & 0 & e^4 \end{pmatrix}P^{-1} = {1\over 4}\begin{pmatrix} 5e^4-e^{16} & 5e^4 - 5 e^{16} & -2e^{16} \\  -e^4 + e^{16} & -e^4 + 5e^{16} & 2e^{16} \\  0 & 0 & 4e^{16} \end{pmatrix}

Die Jordansche Normalform und daraus das Exponential zu berechnen, ist auf diesem Weg sehr mühsam. Meist reicht es, die Wirkung der Exponential-Matrix auf einige Vektoren zu berechnen.

[Bearbeiten] Anwendungen

[Bearbeiten] Lineare Differentialgleichungen

Das Matrixexponential kann für die Lösung eines System von Differentialgleichungen verwendet werden. Eine Differentialgleichung der Form

y′ = Cy

hat die Lösung eCx. Wenn man Vektor

\mathbf{y}(x) = \begin{pmatrix} y_1(x) \\ \vdots \\ y_n(x) \end{pmatrix}

betrachtet, dann kann man ein System von gekoppelten linearen Differentialgleichung betrachten als

\mathbf{y}'(x) = A\mathbf{y}(x)+\mathbf{b}.

Wenn man den Integrationsfaktor eAx ansetzt und auf beiden Seiten multipliziert, erhält man

e^{-Ax}\mathbf{y}'(x)-e^{-Ax}A\mathbf{y} = e^{-Ax}\mathbf{b}
D (e^{-Ax}\mathbf{y}) = e^{-Ax}\mathbf{b}

Wenn man eAx berechnet, erhält man eine Lösung des Differentialgleichungssystems.

[Bearbeiten] Beispiel (homogen)

Gegeben seien folgende Differentialgleichungen

\begin{matrix} x' &=& 2x&-y&+z \\ y' &=&   &3y&-1z \\ z' &=& 2x&+y&+3z \end{matrix}

Die zugehörige Matrix ist

M=\begin{pmatrix} 2 & -1 &  1 \\ 0 &  3 & -1 \\ 2 &  1 &  3 \end{pmatrix}

Daraus errechnen wir das zugehörige Matrixexponential

e^{tM}=\begin{pmatrix}      2e^t - 2te^{2t} & -2te^{2t}    & 0 \\ -2e^t + 2(t+1)e^{2t} & 2(t+1)e^{2t} & 0 \\             2te^{2t} & 2te^{2t}     & 2e^t\end{pmatrix}

Damit ist die allgemeine Lösung des Differentialgleichungssystems

\begin{pmatrix}x \\ y \\  z\end{pmatrix}=C_1\begin{pmatrix}2e^t - 2te^{2t} \\ -2e^t + 2(t+1)e^{2t}\\ 2te^{2t}\end{pmatrix}+C_2\begin{pmatrix}-2te^{2t}\\ 2(t+1)e^{2t}\\ 2te^{2t}\end{pmatrix}+C_3\begin{pmatrix}0\\ 0\\ 2e^t\end{pmatrix}

bzw.

\begin{matrix} x &=& C_1(2e^t - 2te^{2t}) + C_2(-2te^{2t})\\ y &=& C_1(-2e^t + 2(t+1)e^{2t})+C_2(2(t+1)e^{2t})\\ z &=& (C_1+C_2)(2te^{2t})+2C_3e^t\end{matrix}

[Bearbeiten] Inhomogener Fall - Variation der Konstanten

Für den inhomogenen Fall kann man eine Methode ähnlich der Variation der Konstanten benutzen. Es wird ein Lösung der Form yp(t)=exp(tA)z(t) gesucht:

\mathbf{y}_p' = (e^{tA})'\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)
= Ae^{tA}\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)
= A\mathbf{y}_p(t)+e^{tA}\mathbf{z}'(t)

Um die Lösung yp zu ermitteln, setzt man

e^{tA}\mathbf{z}'(t) = \mathbf{b}(t)
\mathbf{z}'(t) = (e^{tA})^{-1}\mathbf{b}(t)
\mathbf{z}(t) = \int_0^t e^{-uA}\mathbf{b}(u)\,du+\mathbf{c}

Damit ergibt sich

\mathbf{y}_p = e^{tA}\int_0^t e^{-uA}\mathbf{b}(u)\,du+e^{tA}\mathbf{c}
= \int_0^t e^{(t-u)A}\mathbf{b}(u)\,du+e^{tA}\mathbf{c},

wobei c durch die Anfangsbedingungen bestimmt wird.

[Bearbeiten] Beispiel (inhomogen)

Gegeben sei das System von Differentrialgleichungen

\begin{matrix} x' &=& 2x&-y&+z&+e^{2t} \\ y' &=&   &3y&-1z& \\ z' &=& 2x&+y&+3z&+e^{2t} \end{matrix}

Damit ergibt sich folgende Matrix

M=\begin{pmatrix} 2 & -1 &  1 \\ 0 &  3 & -1 \\ 2 &  1 &  3 \end{pmatrix}

und

\mathbf{b}=e^{2t}\begin{pmatrix}1 \\ 0\\ 1\end{pmatrix}

Von oben kennen wir die allgemeine Lösung der homogenen Gleichung.

Die Summe aus homogenen und speziellen Lösungen ergeben die Lösung für das inhomogene Problem. Man muss jetzt nur noch die spezielle Lösung finden (über die Variation der Konstanten).

Von der Gleichung oben erhält man:

\mathbf{y}_p = e^{t}\int_0^t e^{(-u)A}\begin{pmatrix}e^{2u} \\ 0\\ e^{2u}\end{pmatrix}\,du+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\int_0^t \begin{pmatrix}      2e^u - 2ue^{2u} & -2ue^{2u}    & 0 \\   \\ -2e^u + 2(u+1)e^{2u} & 2(u+1)e^{2u} & 0 \\   \\             2ue^{2u} & 2ue^{2u}     & 2e^u\end{pmatrix}\begin{pmatrix}e^{2u} \\ 0\\ e^{2u}\end{pmatrix}\,du+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\int_0^t \begin{pmatrix} e^{2u}( 2e^u - 2ue^{2u}) \\   \\   e^{2u}(-2e^u + 2(1 + u)e^{2u}) \\   \\   2e^{3u} + 2ue^{4u}\end{pmatrix}+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\begin{pmatrix} -{1 \over 24}e^{3t}(3e^t(4t-1)-16) \\   \\ {1 \over 24}e^{3t}(3e^t(4t+4)-16) \\   \\ {1 \over 24}e^{3t}(3e^t(4t-1)-16)\end{pmatrix}+ \begin{pmatrix}      2e^t - 2te^{2t} & -2te^{2t}    & 0 \\   \\ -2e^t + 2(t+1)e^{2t} & 2(t+1)e^{2t} & 0 \\   \\             2te^{2t} & 2te^{2t}     & 2e^t\end{pmatrix}\begin{pmatrix}c_1 \\ c_2 \\ c_3\end{pmatrix},

welche weiter vereinfacht werden kann, um die notwendige spezielle Lösung durch Variation der Konstanten zu bestimmen.

[Bearbeiten] Siehe auch

[Bearbeiten] Literatur

  • Roger A. Horn and Charles R. Johnson. Topics in Matrix Analysis. Cambridge University Press, 1991. ISBN 0-521-46713-6 (englisch).

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu