Matrice ortogonale
Da Wikipedia, l'enciclopedia libera.
In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice quadrata che può essere definita in vari modi diversi, tutti equivalenti:
- Una matrice invertibile la cui trasposta coincide con la sua inversa;
- Una matrice che rappresenta una isometria dello spazio euclideo;
- Una matrice di cambiamento di base fra due basi ortonormali.
Secondo la prima definizione, G è ortogonale se e solo se
Si possono considerare matrici ortogonali con valori in un qualsiasi campo, ma il caso più comune è quello di matrici con valori reali, e solamente questo caso sarà preso in considerazione nel resto di questa voce.
Indice |
[modifica] Proprietà basilari
[modifica] Basi ortonormali
Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo Rn con l'ordinario prodotto scalare. In effetti questa proprietà è semplicemente la rilettura della relazione G GT = In.
Rileggendo similmente la relazione GT G = In, si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di Rn.
[modifica] Isometrie
Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di Rn che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie.
Viceversa, se V è un qualsiasi spazio vettoriale di dimensione finita su cui è definito un prodotto scalare definito positivo, e f : V → V è un'applicazione lineare con
per tutti gli elementi x, y di V, allora f è una isometria ed è rappresentata in ogni base ortonormale di V da una matrice ortogonale.
In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni.
[modifica] Gruppo ortogonale
![]() |
Per approfondire, vedi la voce gruppo ortogonale. |
Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale. Analogamente, il prodotto di due ortogonali è ortogonale. Infatti,
Questo dimostra che l'insieme delle matrici ortogonali n×n forma un gruppo. Questo è un gruppo di Lie, chiamato gruppo ortogonale e indicato con O(n).
La sua dimensione è n(n − 1)/2. Intuitivamente, la dimensione è calcolata nel modo seguente: gli n2 numeri di una matrice ortogonale sono vincolati dalle n2 uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici (i,j) che vanno da 1 a n; ma l'equazione relativa a (i,j) con i < j equivale a quella relativa a (j,i) e quindi in verità ci sono solo n(n + 1)/2 equazioni "indipendenti", e quindi n(n − 1)/2 gradi di libertà.
[modifica] Matrice ortogonale speciale
Il determinante di ogni matrice ortogonale è 1 o −1. Questo si può dimostrare come segue:
Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.
L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O(n) di indice 2, chiamato gruppo ortogonale speciale e denotato SO(n).
[modifica] Autovalori e decomposizioni
[modifica] Autovalori
Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1. Autovettori relativi a differenti autovalori sono ortogonali.
[modifica] Decomposizioni lungo piani
Data una matrice ortogonale Q, esiste una matrice ortogonale P tale che
dove R1,...,Rk denotano matrici di rotazione 2 × 2. Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R1,...,Rk corrispondono alle coppie di autovalori complessi coniugati di Q.
[modifica] Decomposizione QR
Se A è una arbitraria matrice di tipo m × n di rango n (m ≥ n), possiamo sempre scrivere
dove Q è una matrice ortogonale di tipo m × m e R è una [[matrice triangolare superiore]] di tipo n × n con valori positivi sulla diagonale principale. Questa è conosciuta come decomposizione QR di A e può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A.
Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati.
[modifica] Matrici ortogonali e rappresentazione delle algebre di Clifford
![]() |
Per approfondire, vedi la voce Rappresentazione delle algebre di Clifford. |
Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione matriciale delle algebre di Clifford. Qui lo introduciamo in modo semplice attraverso un semplice esempio.
I vettori della base canonica di R2 sono e1 = [1 0] e e2 =[0 1] e per un generico vettore di questo piano cartesiano scriviamo
- [x y]= x·[1 0] + y·[0 1]
La matrice ortogonale
rappresenta la riflessione rispetto alla bisettrice y=x, poiché scambia le due componenti di ogni vettore piano:
La matrice ortogonale
rappresenta invece la riflessione rispetto all'asse x, poiché il punto [x y] ha come immagine [x,−y].
Per i due prodotti di queste matrici si trova
Si tratta delle due rotazioni nel piano di π/2 e di −π/2, rotazioni opposte: quindi le due matrici Ei anticommutano. In formule:
Consideriamo ora E1 ed E2 come vettori di base del piano bidimensionale delle loro combinazioni lineari
Consideriamo anche la seguente composizione di due di queste entità MV (matriciali e vettoriali) A e B:
In dettaglio si trova
Per il quadrato di una di queste entità MV in particolare
Si può quindi definire come prodotto interno di A e B la precedente composizione, a meno della matrice unità I2. Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità MV con sé stessa fornisce il quadrato della sua norma.
Dato che le entità base anticommutano vediamo che
Le entità E1 ed E2 sono ortogonali secondo entrambe le loro interpretazioni:
- sono matrici ortogonali
- rappresentano vettori di base ortogonali in quanto matrici anticommutative.
[modifica] Generalizzazioni
L'analogo complesso delle matrici ortogonali sono le matrici unitarie.
[modifica] Voci correlate
Spazio vettoriale: Applicazione lineare · Base · Teorema della dimensione · Formula di Grassmann · Teorema di Rouché-Capelli · Rango · Determinante
Diagonalizzabilità: Autovettore e autovalore · Polinomio caratteristico · Polinomio minimo · Forma canonica di Jordan
Prodotto scalare: Forma bilineare · Spazio euclideo · Base ortonormale · Gram-Schmidt · Forma hermitiana · Teorema spettrale