Proiezione ortogonale di un vettore su un sottospazio

La proiezione ortogonale di un vettore su un sottospazio è un'applicazione lineare che a ogni vettore di uno spazio vettoriale associa la relativa proiezione ortogonale su un sottospazio assegnato, e che gode di particolari e interessanti proprietà.

 

Dopo aver dato la definizione di applicazione proiezione ortogonale, o proiettore, vedremo qual è la formula che la descrive ed elencheremo e dimostreremo le sue proprietà. Inoltre metteremo in evidenza quali sono il nucleo e l'immagine, qual è la matrice associata e quali sono i relativi autovalori.

 

Se non vi interessa la parte teorica, e volete direttamente vedere come calcolare la proiezione ortogonale di un vettore su un sottospazio, potete passare alla prossima lezione.

 

Definizione di proiezione ortogonale di un vettore su un sottospazio

 

Sia V uno spazio vettoriale finitamente generato su R e di dimensione n, dotato di un prodotto scalare langle , rangle definito positivo. Siano inoltre S un sottospazio vettoriale di V e S^(perp) il complemento ortogonale di S rispetto al prodotto scalare definito su V.

 

Nella lezione sul complemento ortogonale di un sottospazio abbiamo dimostrato che V è somma diretta tra S e S^(perp), cioè

 

V = S oplus S^(perp)

 

di conseguenza ogni vettore v ∈ V si può scrivere in modo unico come somma tra un elemento di S e un elemento di S^(perp), ossia per ogni v ∈ V esistono e sono unici s ∈ S, s^(perp) ∈ S^(perp) tali che

 

v = s+s^(perp)

 

Il vettore s è detto proiezione ortogonale del vettore v sul sottospazio S e si indica con P_(S)(v).

 

È quindi del tutto lecito considerare l'applicazione

 

P_S: V → V

 

che a ogni vettore v ∈ V associa la relativa proiezione ortogonale sul sottospazio S.

 

Tale funzione è detta applicazione proiezione ortogonale di un vettore su un sottospazio, o più brevemente proiettore, e si dimostra che per ogni v ∈ V:

 

P_(S)(v) = langle v, u_1 rangle u_1+ langle v, u_2 rangle u_2+...+ langle v, u_r rangle u_r

 

dove u_1, u_2, ..., u_r è una base ortonormale di S.

 

Dimostriamolo!

 

Per definizione, P_S(v) è l'unico vettore s ∈ S tale che

 

v = s+s^(perp) con s^(perp) ∈ S^(perp)

 

Fissata una base ortonormale u_1, u_2, ..., u_r di S, dobbiamo dimostrare che

 

s: = P_(S)(v) = langle v, u_1 rangle u_1+ langle v, u_2 rangle u_2+...+ langle v, u_r rangle u_r

 

s è un elemento del sottospazio S, e in quanto tale si può esprimere come combinazione lineare degli elementi della base fissata, ossia esistono a_1,a_2,...,a_r ∈ R tali che

 

s = a_1 u_1+a_2 u_2+...+a_r u_r

 

Dimostrando che a_i = langle v, u_i rangle per ogni i ∈ 1,2,...,r avremo immediatamente la tesi.

 

Dall'uguaglianza v = s+s^(perp) segue che

 

v-s = s^(perp) ∈ S^(perp)

 

dunque v-s è un elemento del complemento ortogonale S^(perp), e quindi è ortogonale a ogni vettore di una base di S, ossia

 

langle v-s, u_i rangle = 0 ∀ i ∈ 1,2,...,r

 

Dalla linearità del prodotto scalare rispetto al primo termine si ha che

 

langle v-s, u_i rangle = langle v, u_i rangle- langle s, u_i rangle =

 

sostituendo s = a_1 u_1+a_2 u_2+...+a_r u_r

 

= langle v, u_i rangle- langle a_1 u_1+a_2 u_2+...+a_r u_r, u_i rangle =

 

Utilizzando nuovamente la linearità del prodotto scalare, e in forza della simmetria

 

 = langle v, u_i rangle-a_1 langle u_1, u_i rangle-a_2 langle u_2, u_i rangle-...-a_r langle u_r, u_i rangle =

 

Sfruttiamo l'ortonormalità della base u_1, u_2, ..., u_r

 

= langle v, u_i rangle-a_i

 

Abbiamo così dimostrato che

 

langle v-s, u_i rangle = langle v, u_i rangle-a_i ∀ i ∈ 1,2,...,r

 

Avendo precedentemente osservato che

 

langle v-s, u_i rangle = 0 ∀ i ∈ 1,2,...,r

 

possiamo affermare che

 

langle v, u_i rangle-a_i = 0 ∀ i ∈ 1,2,...,r

 

e quindi

 

a_i = langle v, u_i rangle ∀ i ∈ 1,2,...,r

 

e la dimostrazione può dirsi conclusa.

 

Proprietà della proiezione ortogonale di un vettore su un sottospazio

 

Per elencare le proprietà della proiezione ortogonale di un vettore su un sottospazio vettoriale consideriamo, come di consueto, uno spazio vettoriale reale V di dimensione n, un prodotto scalare definito positivo su V, un sottospazio vettoriale S di V di dimensione r con r ≤ n, e il complemento ortogonale S^(perp) di S rispetto al prodotto scalare langle , rangle definito su V.

 

Siano poi u_1, u_2, ..., u_r una base ortonormale di S e

 

 P_S: V → V ; P_S(v) = langle v, u_1 rangle u_1+ langle v, u_2 rangle u_2+...+ langle v, u_r rangle u_r

 

l'applicazione proiezione ortogonale.

 

(1) P_S è un'applicazione lineare, e quindi un endomorfismo, infatti dominio e codominio coincidono.

 

(2) Se v ∈ S^(perp) allora P_S(v) = 0

 

(3) Se v ∈ S allora P_S(v) = v

 

(4) P_S è idempotente, ossia applicare due volte la stessa applicazione equivale ad applicarla una sola volta.

 

P_S circ P_S = P_S

 

(5) Il nucleo di tale applicazione coincide col sottospazio ortogonale S^(perp), mentre l'immagine è tutto S

 

Ker(P_S) = S^(perp) ; Im(P_S) = S

 

 

Le seguenti proprietà (*) valgono se V = R^n e se langle , rangle è il prodotto scalare canonico,

 

(6*) La matrice associata a P_S rispetto alla base canonica di R^n è la matrice

 

A A^T

 

dove A è la matrice le cui colonne sono u_1,u_2...,u_r, ossia i vettori della base ortonormale di S.

 

(7*) P_S è un endomorfismo diagonalizzabile.

 

(8*) Gli unici autovalori dell'endomorfismo P_S sono:

 

λ_0 = 0 con molteplicità algebrica e geometrica uguale a n-r;

 

λ_1 = 1 con molteplicità algebrica e geometrica uguale a r.

 

(9*) Il polinomio caratteristico riferito a P_S è della forma

 

p(λ) = (-1)^n λ^(n-r)(λ-1)^r

 

 

Dimostrazione delle proprietà di una proiezione ortogonale

 

Per facilitarne la lettura richiamiamo di volta in volta ciascuna delle proprietà.

 

 

(D-1) P_S è un'applicazione lineare.

 

Per verificare che l'applicazione proiezione ortogonale è una trasformazione lineare dobbiamo dimostrare che per ogni v_1, v_2 ∈ V e per ogni α, β ∈ R

 

P_S(α v_1+β v_2) = α P_S(v_1)+β P_S(v_2)

 

Detta u_1, u_2, ..., u_r una base ortonormale di S, dalla formula che definisce tale applicazione abbiamo che

 

P_S(α v_1+β v_2) = langle α v_1+β v_2,u_1 rangle u_1+...+ langle α v_1+β v_2, u_r rangle u_r =

 

per la linearità di un prodotto scalare rispetto al primo termine

 

= (α langlev_1,u_1 rangle+β langlev_2,u_1 rangle)u_1+...+(α langlev_1,u_r rangle+β langlev_2,u_r rangle)u_r =

 

Raccogliamo rispetto ad α e β

 

= α(langlev_1,u_1 rangle u_1+...+ langlev_1,u_r rangle u_r)+β(langlev_2,u_1 rangle u_1+...+ langlev_2,u_r rangle u_r) = α P_S(v_1)+β P_S(v_2)

 

e abbiamo così dimostrato la linearità.

 

 

(D-2) Se v ∈ S^(perp) allora P_S(v) = 0

 

Se v ∈ S^(perp) allora v è ortogonale a ogni vettore della base u_1, u_2, ..., u_r e quindi

 

langle v, u_i rangle = 0 per ogni i ∈ 1,2,...,r

 

di conseguenza

 

P_(S)(v) = langle v, u_1 rangle u_1+ langle v, u_2 rangle u_2+...+ langle v, u_r rangle u_r = 0

 

 

(D-3) Se v ∈ S allora P_S(v) = v

 

Se v ∈ S, tale vettore può essere espresso come combinazione lineare dei vettori della base u_1, u_2, ..., u_r, cioè esistono a_1, a_2, ..., a_r ∈ R tali che

 

v = a_1u_1+a_2u_2+...+a_r u_r

 

Seguendo gli stessi passi della dimostrazione in cui abbiamo verificato la validità della formula che definisce P_S(v) si dimostra che

 

a_i = langle v, u_i rangle ∀ i∈ 1,2,...,r

 

e quindi

 

v = P_(S)(v)

 

 

(D-4) P_S è idempotente, ossia applicare due volte la stessa applicazione equivale ad applicarla una sola volta.

 

Dobbiamo dimostrare che:

 

P_S(P_S(v)) = P_S(v) ∀ v ∈ V

 

Dalla definizione di proiezione ortogonale sappiamo che la proiezione ortogonale di un vettore su un sottospazio S è un elemento di S, ossia

 

P_S(v) ∈ S ∀ v ∈ V

 

Dalla proprietà (3) sappiamo che la proiezione ortogonale di un vettore di S coincide col vettore stesso, e quindi

 

P_S(P_S(v)) = P_S(v)

 

 

(D-5) Ker(P_S) = S^(perp), Im(P_S) = S

 

Per definizione di nucleo

 

Ker(P_S) = v ∈ V t.c. P_S(v) = 0

 

Tutti e soli gli elementi di V tali che P_S(v) = 0 sono gli elementi del sottospazio ortogonale S^(perp), dunque

 

Ker(P_S) = S^(perp)

 

Verifichiamo ora che Im(P_S) = S

 

L'immagine di P_S è definita come

 

Im(P_S) = w ∈ V t.c. ∃ v ∈ V per cui P_S(v) = w

 

Dalla proprietà (3) è noto che per ogni v ∈ S, P_S(v) = v e quindi ogni elemento di S è un elemento dell'immagine, ossia S ⊆ Im(P_S).

 

D'altra parte P_S(v) ∈ S per ogni v ∈ V e quindi Im(P_S) ⊆ S.

 

Dalla doppia inclusione segue quanto volevamo provare.

 

 

Mettiamoci ora nelle ipotesi in cui V = R^n e il prodotto scalare definito su V è quello canonico.

 

 

(D-6*) La matrice associata a P_S rispetto alla base canonica di R^n è la matrice A A^T, dove A è la matrice le cui colonne sono u_1,u_2,...,u_r.

 

Scriviamo i vettori u_1,u_2,...,u_r per componenti

 

 u_1 = (u_(11), u_(21), ..., u_(n1)) ; u_2 = (u_(12), u_(22), ..., u_(n2)) ; ... ; u_r = (u_(1r), u_(2r), ..., u_(nr))

 

La matrice associata a P_S rispetto alla base canonica ha per colonne i vettori P_S(e_1),P_S(e_2),...,P_S(e_n), dove e_1,e_2,...,e_n sono i vettori della base canonica di R^n.

 

Con tali premesse si tratta solo di calcolare le proiezioni

 

 P_S(e_1) = langle e_1, u_1 rangle u_1+ langle e_1, u_2 rangle u_2+...+ langle e_1, u_r rangle u_r ; P_S(e_2) = langlee_2,u_1 rangleu_1+ langlee_2,u_2 rangleu_2+...+ langlee_2,u_(r) rangleu_r ; ... ; P_S(e_n) = langle e_n, u_1 rangle u_1+ langle e_n, u_2 rangle u_2+...+ langle e_n, u_r rangle u_r

 

formare la matrice che ha per colonne questi vettori e verificare che coincide con la matrice prodotto AA^T, dove

 

A = [u_(11) u_(12) ··· u_(1r) ; u_(21) u_(22) ··· u_(2r) ; ⋮ ⋮ ⋱ ⋮ ; u_(n1) u_(n2) ··· u_(nr)]

 

e lasciamo a voi il compito di farlo.

 

 

(D-7*) P_S è un endomorfismo diagonalizzabile.

 

Il prodotto tra una matrice e la relativa matrice trasposta restituisce una matrice simmetrica, dunque la matrice associata all'applicazione P_S definita nella proprietà (6*) è simmetrica, e quindi l'endomorfismo da essa rappresentato è diagonalizzabile.

 

 

(D-8*) Gli unici autovalori dell'endomorfismo P_S sono:

 

λ_0 = 0 con molteplicità algebrica e geometrica uguale a n-r;

 

λ_1 = 1 con molteplicità algebrica e geometrica uguale a r.

 

Dalla proprietà (2) sappiamo che per ogni v ∈ S^(perp) risulta che

 

P_S(v) = 0 = 0v

 

Ciò prova che λ_0 = 0 è un autovalore di P_S, la cui molteplicità geometrica è pari alla dimensione del relativo autospazio

 

V_(λ_0) = V_0 = v ∈ V t.c. P_S(v) = 0

 

È immediato osservare che V_(0) = S^(perp) e quindi

 

m_g(0) = dim(V_(0)) = dim(S^(perp)) = n-r

 

Inoltre, dalla proprietà (3) è noto che per ogni v ∈ S risulta che

 

P_S(v) = v = 1v

 

Ciò dimostra che λ_1 = 1 è un autovalore di P_S, e la relativa molteplicità geometrica uguaglia la dimensione dell'autospazio

 

V_(λ_1) = V_1 = v ∈ V t.c. P_S(v) = v

 

Tale spazio è proprio S, ossia V_(1) = S, per cui

 

m_g(1) = dim(V_(1)) = dim(S) = r

 

Dalla diagonalizzabilità di P_S si evince che la molteplicità geometrica di ciascun autovalore corrisponde alla relativa molteplicità algebrica. Infine, la somma delle due molteplicità coincide con la dimensione dell'intero spazio

 

(n-r)+r = n = dim(V)

 

e ciò assicura che P_S non ammette altri autovalori.

 

 

(D-9*) Il polinomio caratteristico di una proiezione ortogonale è della forma p(λ) = (-1)^n λ^(n-r)(λ-1)^r

 

È un'immediata conseguenza del fatto che gli zeri del polinomio caratteristico sono gli autovalori dell'endomorfismo a cui è riferito, e del fatto che la molteplicità di ciascuna radice del polinomio è la molteplicità algebrica del corrispondente autovalore.

 

 


 

Per il momento ci fermiamo qui, ma vi consigliamo di non perdere la prossima lezione: proporremo un metodo pratico per calcolare la proiezione ortogonale di un vettore su un sottospazio assegnato. :)

 

 

Buon proseguimento su YouMath,

Giuseppe Carichino (Galois)

 

Lezione precedente.....Esercizi correlati.....Lezione successiva

 
 

Tags: proiezione ortogonale di un vettore su un sottospazio - applicazione proiezione ortogonale - proprietà della proiezione ortogonale.