Proiezione ortogonale di un vettore su un sottospazio

La proiezione ortogonale di un vettore su un sottospazio è un'applicazione lineare che a ogni vettore di uno spazio vettoriale associa la relativa proiezione ortogonale su un sottospazio assegnato, e che gode di particolari e interessanti proprietà.

 

Dopo aver dato la definizione di applicazione proiezione ortogonale, o proiettore, vedremo qual è la formula che la descrive ed elencheremo e dimostreremo le sue proprietà. Inoltre metteremo in evidenza quali sono il nucleo e l'immagine, qual è la matrice associata e quali sono i relativi autovalori.

 

Se non vi interessa la parte teorica, e volete direttamente vedere come calcolare la proiezione ortogonale di un vettore su un sottospazio, potete passare alla prossima lezione.

 

Definizione di proiezione ortogonale di un vettore su un sottospazio

 

Sia V uno spazio vettoriale finitamente generato su \mathbb{R} e di dimensione n, dotato di un prodotto scalare \langle \ , \ \rangle definito positivo. Siano inoltre S un sottospazio vettoriale di V e S^{\perp} il complemento ortogonale di S rispetto al prodotto scalare definito su V.

 

Nella lezione sul complemento ortogonale di un sottospazio abbiamo dimostrato che V è somma diretta tra S e S^{\perp}, cioè

 

V=S \oplus S^{\perp}

 

di conseguenza ogni vettore \mathbf{v} \in V si può scrivere in modo unico come somma tra un elemento di S e un elemento di S^{\perp}, ossia per ogni \mathbf{v} \in V esistono e sono unici \mathbf{s} \in S,\ \mathbf{s}^{\perp} \in S^{\perp} tali che

 

\mathbf{v}=\mathbf{s}+\mathbf{s}^{\perp}

 

Il vettore \mathbf{s} è detto proiezione ortogonale del vettore \mathbf{v} sul sottospazio S e si indica con P_{S}(\mathbf{v}).

 

È quindi del tutto lecito considerare l'applicazione

 

P_S: V \to V

 

che a ogni vettore \mathbf{v} \in V associa la relativa proiezione ortogonale sul sottospazio S.

 

Tale funzione è detta applicazione proiezione ortogonale di un vettore su un sottospazio, o più brevemente proiettore, e si dimostra che per ogni \mathbf{v} \in V:

 

P_{S}(\mathbf{v})= \langle \mathbf{v}, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{v}, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{v}, \mathbf{u}_r\rangle \mathbf{u}_r

 

dove \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\} è una base ortonormale di S.

 

Dimostriamolo!

 

Per definizione, P_S(\mathbf{v}) è l'unico vettore \mathbf{s} \in S tale che

 

\mathbf{v}=\mathbf{s}+\mathbf{s}^{\perp}\ \ \mbox{ con } \mathbf{s}^{\perp} \in S^{\perp}

 

Fissata una base ortonormale \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\} di S, dobbiamo dimostrare che

 

\mathbf{s}:=P_{S}(\mathbf{v}) = \langle \mathbf{v}, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{v}, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{v}, \mathbf{u}_r\rangle \mathbf{u}_r

 

\mathbf{s} è un elemento del sottospazio S, e in quanto tale si può esprimere come combinazione lineare degli elementi della base fissata, ossia esistono a_1,a_2,...,a_r \in \mathbb{R} tali che

 

\mathbf{s}=a_1 \mathbf{u}_1 + a_2 \mathbf{u}_2+...+a_r \mathbf{u}_r

 

Dimostrando che a_i=\langle \mathbf{v}, \mathbf{u}_i\rangle per ogni i \in \{1,2,...,r\} avremo immediatamente la tesi.

 

Dall'uguaglianza \mathbf{v}=\mathbf{s}+\mathbf{s}^{\perp} segue che

 

\mathbf{v}-\mathbf{s}=\mathbf{s}^{\perp} \in S^{\perp}

 

dunque \mathbf{v}-\mathbf{s} è un elemento del complemento ortogonale S^{\perp}, e quindi è ortogonale a ogni vettore di una base di S, ossia

 

\langle \mathbf{v}-\mathbf{s}, \ \mathbf{u}_i \rangle = 0\ \ \forall i \in \{1,2,...,r\}

 

Dalla linearità del prodotto scalare rispetto al primo termine si ha che

 

\langle \mathbf{v}-\mathbf{s}, \ \mathbf{u}_i \rangle = \langle \mathbf{v}, \mathbf{u}_i \rangle - \langle \mathbf{s}, \mathbf{u}_i \rangle=

 

sostituendo \mathbf{s}=a_1 \mathbf{u}_1 + a_2 \mathbf{u}_2+...+a_r \mathbf{u}_r

 

=\langle \mathbf{v}, \mathbf{u}_i \rangle - \langle a_1 \mathbf{u}_1 + a_2 \mathbf{u}_2+...+a_r \mathbf{u}_r, \ \mathbf{u}_i \rangle=

 

Utilizzando nuovamente la linearità del prodotto scalare, e in forza della simmetria

 

\\ =\langle \mathbf{v}, \mathbf{u}_i \rangle - a_1\langle \mathbf{u}_1, \mathbf{u}_i \rangle - a_2 \langle \mathbf{u}_2, \mathbf{u}_i \rangle-...-a_r\langle \mathbf{u}_r, \mathbf{u}_i \rangle=

 

Sfruttiamo l'ortonormalità della base \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\}

 

=\langle \mathbf{v}, \mathbf{u}_i \rangle - a_i

 

Abbiamo così dimostrato che

 

\langle \mathbf{v}-\mathbf{s}, \ \mathbf{u}_i \rangle = \langle \mathbf{v}, \mathbf{u}_i \rangle-a_i\ \ \forall i \in \{1,2,...,r\}

 

Avendo precedentemente osservato che

 

\langle \mathbf{v}-\mathbf{s}, \ \mathbf{u}_i \rangle = 0\ \ \forall i \in \{1,2,...,r\}

 

possiamo affermare che

 

\langle \mathbf{v}, \mathbf{u}_i \rangle-a_i = 0\ \ \forall i \in \{1,2,...,r\}

 

e quindi

 

a_i=\langle \mathbf{v}, \mathbf{u}_i \rangle\ \ \forall i \in \{1,2,...,r\}

 

e la dimostrazione può dirsi conclusa.

 

Proprietà della proiezione ortogonale di un vettore su un sottospazio

 

Per elencare le proprietà della proiezione ortogonale di un vettore su un sottospazio vettoriale consideriamo, come di consueto, uno spazio vettoriale reale V di dimensione n, un prodotto scalare definito positivo su V, un sottospazio vettoriale S di V di dimensione r con r \le n, e il complemento ortogonale S^{\perp} di S rispetto al prodotto scalare \langle \ , \ \rangle definito su V.

 

Siano poi \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\} una base ortonormale di S e

 

\\ P_S: V \to V \\ \\ P_S(\mathbf{v})=\langle \mathbf{v}, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{v}, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{v}, \mathbf{u}_r\rangle \mathbf{u}_r

 

l'applicazione proiezione ortogonale.

 

(1) P_S è un'applicazione lineare, e quindi un endomorfismo, infatti dominio e codominio coincidono.

 

(2) Se \mathbf{v} \in S^{\perp} allora P_S(\mathbf{v})=\mathbf{0}

 

(3) Se \mathbf{v} \in S allora P_S(\mathbf{v})=\mathbf{v}

 

(4) P_S è idempotente, ossia applicare due volte la stessa applicazione equivale ad applicarla una sola volta.

 

P_S\circ P_S = P_S

 

(5) Il nucleo di tale applicazione coincide col sottospazio ortogonale S^{\perp}, mentre l'immagine è tutto S

 

\mbox{Ker}(P_S)=S^{\perp}\ \ \ ;\ \ \ \mbox{Im}(P_S)=S

 

 

Le seguenti proprietà (*) valgono se V=\mathbb{R}^n e se \langle \ , \ \rangle è il prodotto scalare canonico,

 

(6*) La matrice associata a P_S rispetto alla base canonica di \mathbb{R}^n è la matrice

 

A A^T

 

dove A è la matrice le cui colonne sono \mathbf{u}_1,\mathbf{u}_2...,\mathbf{u}_r, ossia i vettori della base ortonormale di S.

 

(7*) P_S è un endomorfismo diagonalizzabile.

 

(8*) Gli unici autovalori dell'endomorfismo P_S sono:

 

\lambda_0= 0 con molteplicità algebrica e geometrica uguale a n-r;

 

\lambda_1= 1 con molteplicità algebrica e geometrica uguale a r.

 

(9*) Il polinomio caratteristico riferito a P_S è della forma

 

p(\lambda)=(-1)^n \lambda^{n-r}(\lambda-1)^r

 

 

Dimostrazione delle proprietà di una proiezione ortogonale

 

Per facilitarne la lettura richiamiamo di volta in volta ciascuna delle proprietà.

 

 

(D-1) P_S è un'applicazione lineare.

 

Per verificare che l'applicazione proiezione ortogonale è una trasformazione lineare dobbiamo dimostrare che per ogni \mathbf{v}_1, \mathbf{v}_2 \in V e per ogni \alpha, \beta \in \mathbb{R}

 

P_S(\alpha \mathbf{v}_1+ \beta \mathbf{v}_2) = \alpha P_S(\mathbf{v}_1) + \beta P_S(\mathbf{v}_2)

 

Detta \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\} una base ortonormale di S, dalla formula che definisce tale applicazione abbiamo che

 

P_S(\alpha \mathbf{v}_1+ \beta \mathbf{v}_2) = \langle \alpha \mathbf{v}_1+ \beta \mathbf{v}_2,\mathbf{u}_1\rangle \mathbf{u}_1+...+\langle \alpha \mathbf{v}_1+ \beta \mathbf{v}_2, \ \mathbf{u}_r\rangle \mathbf{u}_r=

 

per la linearità di un prodotto scalare rispetto al primo termine

 

=\left(\alpha\langle\mathbf{v}_1,\mathbf{u}_1\rangle+\beta\langle\mathbf{v}_2,\mathbf{u}_1\rangle \right)\mathbf{u}_1+...+\left(\alpha\langle\mathbf{v}_1,\mathbf{u}_r\rangle+\beta\langle\mathbf{v}_2,\mathbf{u}_r\rangle \right)\mathbf{u}_r=

 

Raccogliamo rispetto ad \alpha e \beta

 

= \alpha\left(\langle\mathbf{v}_1,\mathbf{u}_1\rangle \mathbf{u}_1+...+\langle\mathbf{v}_1,\mathbf{u}_r\rangle \mathbf{u}_r\right) + \beta\left(\langle\mathbf{v}_2,\mathbf{u}_1\rangle \mathbf{u}_1+...+\langle\mathbf{v}_2,\mathbf{u}_r\rangle \mathbf{u}_r\right)= \\ \\ = \alpha P_S(\mathbf{v}_1)+\beta P_S(\mathbf{v}_2)

 

e abbiamo così dimostrato la linearità.

 

 

(D-2) Se \mathbf{v} \in S^{\perp} allora P_S(\mathbf{v})=\mathbf{0}

 

Se \mathbf{v} \in S^{\perp} allora \mathbf{v} è ortogonale a ogni vettore della base \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\} e quindi

 

\langle \mathbf{v}, \mathbf{u}_i\rangle=0 \ \mbox{ per ogni } i \in \{1,2,...,r\}

 

di conseguenza

 

P_{S}(\mathbf{v})= \langle \mathbf{v}, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{v}, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{v}, \mathbf{u}_r\rangle \mathbf{u}_r = \mathbf{0}

 

 

(D-3) Se \mathbf{v} \in S allora P_S(\mathbf{v})=\mathbf{v}

 

Se \mathbf{v} \in S, tale vettore può essere espresso come combinazione lineare dei vettori della base \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_r\}, cioè esistono a_1, a_2, ..., a_r \in \mathbb{R} tali che

 

\mathbf{v}=a_1\mathbf{u}_1+a_2\mathbf{u}_2+...+a_r \mathbf{u}_r

 

Seguendo gli stessi passi della dimostrazione in cui abbiamo verificato la validità della formula che definisce P_S(\mathbf{v}) si dimostra che

 

a_i=\langle \mathbf{v}, \mathbf{u}_i \rangle\ \ \forall i\in \{1,2,...,r\}

 

e quindi

 

\mathbf{v}=P_{S}(\mathbf{v})

 

 

(D-4) P_S è idempotente, ossia applicare due volte la stessa applicazione equivale ad applicarla una sola volta.

 

Dobbiamo dimostrare che:

 

P_S(P_S(\mathbf{v})) = P_S(\mathbf{v})\ \ \forall\ \mathbf{v} \in V

 

Dalla definizione di proiezione ortogonale sappiamo che la proiezione ortogonale di un vettore su un sottospazio S è un elemento di S, ossia

 

P_S(\mathbf{v}) \in S\ \ \forall\ \mathbf{v} \in V

 

Dalla proprietà (3) sappiamo che la proiezione ortogonale di un vettore di S coincide col vettore stesso, e quindi

 

P_S(P_S(\mathbf{v})) = P_S(\mathbf{v})

 

 

(D-5) \mbox{Ker}(P_S)=S^{\perp},\ \mbox{Im}(P_S)=S

 

Per definizione di nucleo

 

\mbox{Ker}(P_S)=\{\mathbf{v} \in V \mbox{ t.c. } P_S(\mathbf{v}) = \mathbf{0}\}

 

Tutti e soli gli elementi di V tali che P_S(\mathbf{v})=\mathbf{0} sono gli elementi del sottospazio ortogonale S^{\perp}, dunque

 

\mbox{Ker}(P_S)=S^{\perp}

 

Verifichiamo ora che \mbox{Im}(P_S)=S

 

L'immagine di P_S è definita come

 

\mbox{Im}(P_S)=\{\mathbf{w} \in V \mbox{ t.c. } \exists \mathbf{v} \in V \mbox{ per cui } P_S(\mathbf{v})=\mathbf{w}\}

 

Dalla proprietà (3) è noto che per ogni \mathbf{v} \in S, \ P_S(\mathbf{v})=\mathbf{v} e quindi ogni elemento di S è un elemento dell'immagine, ossia S \subseteq \mbox{Im}(P_S).

 

D'altra parte P_S(\mathbf{v}) \in S per ogni \mathbf{v} \in V e quindi \mbox{Im}(P_S) \subseteq S.

 

Dalla doppia inclusione segue quanto volevamo provare.

 

 

Mettiamoci ora nelle ipotesi in cui V=\mathbb{R}^n e il prodotto scalare definito su V è quello canonico.

 

 

(D-6*) La matrice associata a P_S rispetto alla base canonica di \mathbb{R}^n è la matrice A A^T, dove A la matrice le cui colonne sono \mathbf{u}_1,\mathbf{u}_2,...,\mathbf{u}_r.

 

Scriviamo i vettori \mathbf{u}_1,\mathbf{u}_2,...,\mathbf{u}_r per componenti

 

\\ \mathbf{u}_1=\left(u_{11}, u_{21}, ..., u_{n1}\right) \\ \\ \mathbf{u}_2=\left(u_{12}, u_{22}, ..., u_{n2}\right) \\ \\ ... \\ \\ \mathbf{u}_r=\left(u_{1r}, u_{2r}, ..., u_{nr}\right)

 

La matrice associata a P_S rispetto alla base canonica ha per colonne i vettori P_S(\mathbf{e}_1),P_S(\mathbf{e}_2),...,P_S(\mathbf{e}_n), dove \mathbf{e}_1,\mathbf{e}_2,...,\mathbf{e}_n sono i vettori della base canonica di \mathbb{R}^n.

 

Con tali premesse si tratta solo di calcolare le proiezioni

 

\\ P_S(\mathbf{e}_1) = \langle \mathbf{e}_1, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{e}_1, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{e}_1, \mathbf{u}_r\rangle \mathbf{u}_r \\ \\ P_S(\mathbf{e}_2)=\langle\mathbf{e}_2,\mathbf{u}_1\rangle\mathbf{u}_1+\langle\mathbf{e}_2,\mathbf{u}_2\rangle\mathbf{u}_2+...+\langle\mathbf{e}_2,\mathbf{u}_{r}\rangle\mathbf{u}_r \\ \\ ... \\ \\ P_S(\mathbf{e}_n) = \langle \mathbf{e}_n, \mathbf{u}_1\rangle \mathbf{u}_1+\langle \mathbf{e}_n, \mathbf{u}_2\rangle \mathbf{u}_2+...+\langle \mathbf{e}_n, \mathbf{u}_r\rangle \mathbf{u}_r

 

formare la matrice che ha per colonne questi vettori e verificare che coincide con la matrice prodotto AA^T, dove

 

A=\begin{pmatrix}u_{11} & u_{12} & \cdots & u_{1r} \\ u_{21} & u_{22} & \cdots & u_{2r} \\ \vdots & \vdots & \ddots & \vdots \\ u_{n1} & u_{n2} & \cdots & u_{nr}\end{pmatrix}

 

e lasciamo a voi il compito di farlo.

 

 

(D-7*) P_S è un endomorfismo diagonalizzabile.

 

Il prodotto tra una matrice e la relativa matrice trasposta restituisce una matrice simmetrica, dunque la matrice associata all'applicazione P_S definita nella proprietà (6*) è simmetrica, e quindi l'endomorfismo da essa rappresentato è diagonalizzabile.

 

 

(D-8*) Gli unici autovalori dell'endomorfismo P_S sono:

 

\lambda_0= 0 con molteplicità algebrica e geometrica uguale a n-r;

 

\lambda_1= 1 con molteplicità algebrica e geometrica uguale a r.

 

Dalla proprietà (2) sappiamo che per ogni \mathbf{v} \in S^{\perp} risulta che

 

P_S(\mathbf{v})=\mathbf{0} = 0\mathbf{v}

 

Ciò prova che \lambda_0= 0 è un autovalore di P_S, la cui molteplicità geometrica è pari alla dimensione del relativo autospazio

 

V_{\lambda_0}=V_0=\{\mathbf{v} \in V \mbox{ t.c. } P_S(\mathbf{v}) = \mathbf{0}\}

 

È immediato osservare che V_{0}=S^{\perp} e quindi

 

m_g(0)=\mbox{dim}(V_{0})=\mbox{dim}(S^{\perp})=n-r

 

Inoltre, dalla proprietà (3) è noto che per ogni \mathbf{v} \in S risulta che

 

P_S(\mathbf{v})=\mathbf{v} = 1\mathbf{v}

 

Ciò dimostra che \lambda_1=1 è un autovalore di P_S, e la relativa molteplicità geometrica uguaglia la dimensione dell'autospazio

 

V_{\lambda_1}=V_1=\{\mathbf{v} \in V \mbox{ t.c. } P_S(\mathbf{v}) = \mathbf{v}\}

 

Tale spazio è proprio S, ossia V_{1}=S, per cui

 

m_g(1)=\mbox{dim}(V_{1})=\mbox{dim}(S)=r

 

Dalla diagonalizzabilità di P_S si evince che la molteplicità geometrica di ciascun autovalore corrisponde alla relativa molteplicità algebrica. Infine, la somma delle due molteplicità coincide con la dimensione dell'intero spazio

 

(n-r)+r=n=\mbox{dim}(V)

 

e ciò assicura che P_S non ammette altri autovalori.

 

 

(D-9*) Il polinomio caratteristico di una proiezione ortogonale è della forma p(\lambda)=(-1)^n \lambda^{n-r}(\lambda-1)^r

 

È un'immediata conseguenza del fatto che gli zeri del polinomio caratteristico sono gli autovalori dell'endomorfismo a cui è riferito, e del fatto che la molteplicità di ciascuna radice del polinomio è la molteplicità algebrica del corrispondente autovalore.

 

 


 

Per il momento ci fermiamo qui, ma vi consigliamo di non perdere la prossima lezione: proporremo un metodo pratico per calcolare la proiezione ortogonale di un vettore su un sottospazio assegnato. :)

 

 

Buon proseguimento su YouMath,

Giuseppe Carichino (Galois)

 

Lezione precedente.....Lezione successiva

 
 

Tags: proiezione ortogonale di un vettore su un sottospazio - applicazione proiezione ortogonale - proprietà della proiezione ortogonale.