Endomorfismi simmetrici

Per definire gli endomorfismi simmetrici abbiamo bisogno di uno spazio vettoriale finitamente generato nel campo dei numeri reali e di un prodotto scalare definito positivo su tale spazio.

 

Dopo aver dato la definizione di endomorfismo simmetrico enunceremo e dimostreremo tre teoremi, che esprimono le proprietà degli endomorfismi simmetrici. Più nel dettaglio, vedremo che un endomorfismo F:V \to V è simmetrico se e solo se la sua matrice associata rispetto a una base ortonormale di V è una matrice simmetrica; che gli autovalori di un endomorfismo simmetrico sono tutti reali e, infine, che autovettori associati ad autovalori distinti sono ortogonali.

 

Attenzione: le proprietà che presenteremo in questa lezione non sono fini a se stesse, bensì sono concetti preliminari che è bene conoscere per capire e per dimostrare il teorema spettrale in R.

 

Definizione di endomorfismo simmetrico

 

Siano V uno spazio vettoriale finitamente generato su \mathbb{R} e \langle \ , \ \rangle un prodotto scalare su V definito positivo.

 

Si dice che F:V \to V è un endomorfismo simmetrico se e solo se per ogni \mathbf{v}_1, \mathbf{v}_2 \in V il prodotto scalare tra l'immagine di \mathbf{v}_1 mediante F e il vettore \mathbf{v}_2 uguaglia il prodotto scalare tra \mathbf{v}_1 e l'immagine di \mathbf{v}_2 mediante F.

 

In simboli:

 

F:V \to V \mbox{ endomorfismo simmetrico}\\ \\ \iff \langle F(\mathbf{v}_1), \mathbf{v}_2\rangle = \langle \mathbf{v}_1, F(\mathbf{v}_2)\rangle\ \ \ \forall \ \mathbf{v}_1, \mathbf{v}_2 \in V

 

 

Esempio di endomorfismo simmetrico

 

Sia V=\mathbb{R}^3 e sia \langle \ , \ \rangle il prodotto scalare canonico, che per comodità indichiamo col simbolo \cdot. L'applicazione F:\mathbb{R}^3 \to \mathbb{R}^3 definita da

 

F(x,y,z)=(x+2y, \ 2x+y, \ 3z)

 

è un endomorfismo simmetrico.

 

Per verificarlo dobbiamo controllare che

 

F(\mathbf{v}_1) \cdot \mathbf{v}_2 = \mathbf{v}_1 \cdot F(\mathbf{v}_2)\ \ \ \forall\ \mathbf{v}_1,\mathbf{v}_2 \in \mathbb{R}^3

 

Diamo un nome alle componenti dei due generici vettori:

 

\mathbf{v}_1=(x_1, y_1, z_1), \ \mathbf{v}_2=(x_2,y_2,z_2)

 

Esplicitiamo l'immagine di \mathbf{v}_1 mediante F

 

F(\mathbf{v}_1) = F(x_1, y_1, z_1) = (x_1+2y_1, \ 2x_1+y_1, \ 3z_1)

 

per poi calcolare il prodotto scalare F(\mathbf{v}_1)\cdot \mathbf{v}_2

 

\\ F(\mathbf{v}_1) \cdot \mathbf{v}_2 = (x_1+2y_1, \ 2x_1+y_1, \ 3z_1) \cdot (x_2, y_2,z_2) = \\ \\ = (x_1+2y_1)x_2 + (2x_1+y_1)y_2+3z_1z_2 = \\ \\ = x_1x_2+2y_1x_2+2x_1y_2+y_1y_2+3z_1z_2=

 

facendo gli opportuni raccoglimenti

 

\\ =(x_2+2y_2)x_1+(2x_2+y_2)y_1+3z_2z_1= \\ \\ = F(\mathbf{v}_2) \cdot \mathbf{v}_1

 

Avendo provato che

 

F(\mathbf{v}_1) \cdot \mathbf{v}_2 = \mathbf{v}_1 \cdot F(\mathbf{v}_2)

 

possiamo concludere che F è un endomorfismo simmetrico.

 

Proprietà degli endomorfismi simmetrici

 

Entriamo ora nel vivo della lezione enunciando e dimostrando tre importanti proprietà degli endomorfismi simmetrici, che saranno propedeutici per la dimostrazione del teorema spettrale.

 

 

Teorema 1 (Matrice associata a un endomorfismo simmetrico)

 

Siano V uno spazio vettoriale finitamente generato su \mathbb{R}, \langle \ , \ \rangle un prodotto scalare definito positivo su V e \mathcal{B}=\{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_n\} una base ortonormale di V.

 

F:V \to V è un endomorfismo simmetrico se e solo se la matrice associata a F rispetto a \mathcal{B} è una matrice simmetrica.

 

Dimostrazione

 

Siano \mathbf{v}, \mathbf{w} \in V. In quanto tali possono essere espressi come combinazione lineare dei vettori della base \mathcal{B}, cioè esistono a_1,a_2,...,a_n,b_1,b_2,...,b_n \in \mathbb{R} tali che

 

\\ \mathbf{v}=a_1\mathbf{u}_1+a_2\mathbf{u}_2+...+a_n\mathbf{u}_n \\ \\ \mathbf{w}=b_1\mathbf{u}_1+b_2\mathbf{u}_2+...+b_n\mathbf{u}_n

 

Sfruttando la bilinearità del prodotto scalare e la definizione di base ortonormale possiamo dimostrare che

 

\langle \mathbf{v}, \mathbf{w} \rangle = a_1b_1+a_2b_2+...+a_nb_n

 

Vediamo come:

 

\langle \mathbf{v}, \mathbf{w} \rangle = \langle a_1\mathbf{u}_1+a_2\mathbf{u}_2+...+a_n\mathbf{u}_n, \ b_1\mathbf{u}_1+b_2\mathbf{u}_2+...+b_n\mathbf{u}_n\rangle=

 

per la linearità del prodotto scalare rispetto al primo termine

 

\\ =a_1\langle \mathbf{u}_1, \ b_1\mathbf{u}_1+b_2\mathbf{u}_2+...+b_n\mathbf{u}_n\rangle+\\ \\ +a_2\langle \mathbf{u}_2, \ b_1\mathbf{u}_1+b_2\mathbf{u}_2+...+b_n\mathbf{u}_n\rangle+ \\ \\ +...+\\ \\ +a_n\langle \mathbf{u}_n, \ b_1\mathbf{u}_1+b_2\mathbf{u}_2+...+b_n\mathbf{u}_n\rangle=

 

per la linearità rispetto al secondo termine

 

\\ = a_1b_1\langle\mathbf{u}_1, \mathbf{u}_1 \rangle + a_1b_2\langle\mathbf{u}_1, \mathbf{u}_2 \rangle+...+a_1b_n\langle\mathbf{u}_1, \mathbf{u}_n \rangle +\\ \\ + a_2b_1\langle\mathbf{u}_2, \mathbf{u}_1 \rangle + a_2b_2\langle\mathbf{u}_2, \mathbf{u}_2 \rangle+...+a_2b_n\langle\mathbf{u}_2, \mathbf{u}_n \rangle + \\ \\ +...+\\ \\ +a_nb_1\langle\mathbf{u}_1, \mathbf{u}_n \rangle + a_nb_2\langle\mathbf{u}_n, \mathbf{u}_2 \rangle+...+a_nb_n\langle\mathbf{u}_n, \mathbf{u}_n \rangle=

 

Per ortonormalità della base \{\mathbf{u}_1, \mathbf{u}_2, ..., \mathbf{u}_n\}

 

= a_1b_1+a_2b_2+...+a_nb_n

 

Se indichiamo con

 

\mathbf{x}=\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n\end{pmatrix}\ \ \ ;\ \ \ \mathbf{y}=\begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_n\end{pmatrix}

 

i vettori che esprimono le coordinate di \mathbf{v}, \mathbf{w} rispetto alla base ortonormale \mathcal{B}, possiamo scrivere

 

\langle \mathbf{v}, \mathbf{w} \rangle = \mathbf{x}^T \mathbf{y}

 

Indichiamo con A la matrice rappresentativa di F rispetto alla base ortonormale \mathcal{B}. Il prodotto A\mathbf{x} coincide con il vettore delle coordinate di F(\mathbf{v}) riferite alla base \mathcal{B}, e allo stesso modo A\mathbf{y} è il vettore delle coordinate di F(\mathbf{w}) rispetto alla base \mathcal{B}, pertanto

 

\\ \langle F(\mathbf{v}), \mathbf{w} \rangle = (A\mathbf{x})^T \mathbf{y} = \mathbf{x}^T A^T \mathbf{y}\\ \\ \langle \mathbf{v}, F(\mathbf{w}) \rangle = \mathbf{x}^T (A\mathbf{y}) = \mathbf{x}^T A \mathbf{y}

 

Date tali premesse, se come ipotesi assumiamo che F è simmetrico allora segue che

 

\langle F(\mathbf{v}), \mathbf{w} \rangle = \langle \mathbf{v}, F(\mathbf{w}) \rangle

 

e dalle precedenti uguaglianze risulta

 

\mathbf{x}^TA^T\mathbf{y}=\mathbf{x}^TA\mathbf{y}

 

il che ci permette di concludere che A=A^T e quindi che A è simmetrica.

 

Viceversa, se A è simmetrica allora A=A^T, quindi

 

\mathbf{x}^TA^T\mathbf{y}=\mathbf{x}^TA\mathbf{y}

 

e di conseguenza

 

\langle F(\mathbf{v}), \mathbf{w} \rangle = \langle \mathbf{v}, F(\mathbf{w}) \rangle

 

il che conferma che F è simmetrico.

 

\square

 

Corollario

 

Se V=\mathbb{R}^n e se \langle \ , \ \rangle è il prodotto scalare canonico, allora F è un endomorfismo simmetrico se e solo se la matrice che rappresenta F rispetto alla base canonica di \mathbb{R}^n è una matrice simmetrica.

 

Dimostrazione

 

È una conseguenza immediata del teorema 1), infatti il prodotto scalare canonico è definito positivo, e rispetto a tale prodotto la base canonica di \mathbb{R}^n è ortonormale.

 

\square

 

Osservazioni

 

1) Nella prima parte della dimostrazione del teorema abbiamo visto che se \mathcal{B} è una base ortonormale di un \mathbb{R}-spazio vettoriale V, rispetto a un prodotto scalare \langle \ , \ \rangle definito positivo su V, allora per ogni \mathbf{v}, \mathbf{w} \in V:

 

\langle \mathbf{v}, \mathbf{w} \rangle = \mathbf{x}^T \mathbf{y}

 

dove \mathbf{x},\mathbf{y} sono i vettori delle coordinate di \mathbf{v},\mathbf{w} rispetto alla base \mathcal{B}.

 

Osservando che \mathbf{x}^T \mathbf{y} è il prodotto scalare canonico tra i vettori \mathbf{x},\mathbf{y}, nelle ipotesi del teorema vale la seguente relazione tra un qualsiasi prodotto scalare definito positivo e il prodotto scalare standard di \mathbb{R}^n

 

\langle \mathbf{v}, \mathbf{w} \rangle = \mathbf{x}\cdot \mathbf{y}

 

Inoltre, se F:V \to V è un endomorfismo simmetrico e A è la matrice rappresentativa di F rispetto alla base ortonormale \mathcal{B}, allora

 

(A \mathbf{x}) \cdot \mathbf{y} = \mathbf{x} \cdot (A \mathbf{y})

 

 

2) Il teorema e il relativo corollario ci permettono di individuare una corrispondenza tra endomorfismi simmetrici e matrici simmetriche. Per ogni endomorfismo simmetrico F: V \to V esiste una base (ortonormale) di V rispetto alla quale la matrice rappresentativa di F è simmetrica e, viceversa, per ogni matrice simmetrica A \in Mat(n,n,\mathbb{R}) possiamo definire un endomorfismo simmetrico rispetto al prodotto scalare canonico, dato da

 

T: \mathbb{R}^n \to \mathbb{R}^n \mbox{ t.c. } T(\mathbf{x})=A\mathbf{x}

 

 

Teorema 2 (Autovalori di un endomorfismo simmetrico)

 

Sia F:V \to V un endomorfismo simmetrico di uno spazio vettoriale V finitamente generato su \mathbb{R} e dotato di un prodotto scalare definito positivo. Gli autovalori di F sono tutti reali.

 

Dimostrazione

 

Sia \mathcal{B} una base ortonormale di V. Per il teorema 1, la matrice A associata a F rispetto a \mathcal{B} è simmetrica.

 

Detta n è la dimensione dello spazio vettoriale V, evidentemente A \in Mat(n,n,\mathbb{R}). L'insieme \mathbb{R} dei numeri reali è contenuto nell'insieme \mathbb{C} dei numeri complessi, e quindi chiaramente A \in Mat(n,n,\mathbb{C}).

 

Per il teorema fondamentale dell'Algebra, il polinomio caratteristico associato ad A ammette almeno una radice complessa \lambda_0, che per definizione è un autovalore della matrice di A.

 

Vogliamo provare che \lambda_0 \in \mathbb{R} o, equivalentemente, che \lambda_0 coincide col suo complesso coniugato: \lambda_0=\overline{\lambda_0}.

 

Sia \mathbf{v}_0 \in \mathbb{C}^n,\ \mathbf{v}_0 \neq \mathbf{0} un autovettore relativo a \lambda_0. Poiché A è simmetrica, è anche una matrice hermitiana e quindi, per quanto visto nella lezione sugli endomorfismi hermitiani:

 

\langle A\mathbf{v}_0 , \mathbf{v}_0 \rangle_h = \langle \mathbf{v}_0 , A\mathbf{v}_0 \rangle_h\ \ \ (*)

 

dove \langle \ , \ \rangle_h è il prodotto hermitiano canonico in \mathbb{C}^n, di conseguenza

 

\lambda_0 \langle \mathbf{v}_0, \mathbf{v}_0 \rangle_h =

 

Per la linearità del prodotto hermitiano rispetto al primo termine

 

=\langle \lambda_0\mathbf{v}_0, \mathbf{v}_0 \rangle_h =

 

per definizione di autovettore di una matrice

 

=\langle A\mathbf{v}_0, \mathbf{v}_0 \rangle_h=

 

per la relazione (*)

 

=\langle \mathbf{v}_0 , A\mathbf{v}_0 \rangle_h =

 

per definizione di autovettore

 

=\langle \mathbf{v}_0, \lambda_0 \mathbf{v}_0 \rangle_h=

 

per l'antilinearità del prodotto hermitiano rispetto al secondo termine

 

=\overline{\lambda_0} \langle \mathbf{v}_0, \mathbf{v}_0\rangle_h

 

Abbiamo così dimostrato che

 

\lambda_0 \langle \mathbf{v}_0, \mathbf{v}_0 \rangle_h=\overline{\lambda_0} \langle \mathbf{v}_0, \mathbf{v}_0\rangle_h

 

ossia che

 

(\lambda_0-\overline{\lambda_0})\langle \mathbf{v}_0, \mathbf{v}_0\rangle_h = 0

 

Per la legge di annullamento il prodotto

 

(\lambda_0-\overline{\lambda_0}) =0\ \ \mbox{ oppure }\ \ \langle \mathbf{v}_0, \mathbf{v}_0\rangle_h = 0

 

Il prodotto hermitiano canonico è definito positivo, e in quanto tale \langle \mathbf{v}_0, \mathbf{v}_0 \rangle_h = 0 se e solo se \mathbf{v}_0=\mathbf{0}, ma ciò non è possibile in quanto \mathbf{v}_0 è un autovettore. Deve necessariamente essere \lambda_0=\overline{\lambda_0} e quindi \lambda_0 \in \mathbb{R}.

 

Dall'arbitrarietà della scelta di \lambda_0 segue che ogni zero del polinomio caratteristico, e quindi ogni autovalore di A, è reale. Tale sarà ogni autovalore dell'endomorfismo F.

 

\square

 

Teorema 3 (Autovettori relativi ad autovalori distinti di un endomorfismo simmetrico)

 

Sia F:V \to V un endomorfismo simmetrico su uno spazio vettoriale V, definito su \mathbb{R} e dotato di un prodotto scalare \langle \ , \ \rangle definito positivo. Autovettori di F relativi ad autovalori distinti sono tra loro ortogonali rispetto al prodotto scalare considerato.

 

Dimostrazione

 

Siano \lambda_0,\lambda_1 due autovalori distinti di F e siano \mathbf{v}_0,\mathbf{v}_1 due autovettori associati rispettivamente a \lambda_0,\lambda_1.

 

Per definizione di autovalori e autovettori di un endomorfismo abbiamo che

 

\\ (1) \ F(\mathbf{v}_0)=\lambda_0 \mathbf{v}_0 \\ \\ (2) \ F(\mathbf{v}_1)=\lambda_1 \mathbf{v}_1

 

Consideriamo il prodotto scalare

 

\lambda_0 \langle \mathbf{v}_0, \mathbf{v}_1\rangle=

 

Per la linearità del prodotto scalare rispetto al primo termine

 

=\langle \lambda_0 \mathbf{v}_0, \mathbf{v}_1\rangle =

 

per (1)

 

= \langle F(\mathbf{v}_0), \mathbf{v}_1\rangle =

 

per la simmetria di F

 

= \langle \mathbf{v}_0, F(\mathbf{v}_1)\rangle =

 

per (2)

 

= \langle \mathbf{v}_0, \lambda_1 \mathbf{v}_1 \rangle =

 

per la linearità del prodotto scalare rispetto al secondo termine

 

=\lambda_1 \langle \mathbf{v}_0, \mathbf{v}_1 \rangle

 

Abbiamo così dimostrato che

 

\lambda_0\langle \mathbf{v}_0, \mathbf{v}_1 \rangle = \lambda_1 \langle \mathbf{v}_0, \mathbf{v}_1 \rangle

 

dunque

 

(\lambda_0-\lambda_1)\langle \mathbf{v}_0, \mathbf{v}_1 \rangle = 0

 

Per la legge di annullamento del prodotto

 

(\lambda_0-\lambda_1) = 0 \ \ \mbox{ oppure }\ \ \langle \mathbf{v}_0, \mathbf{v}_1 \rangle = 0

 

Per ipotesi \lambda_0 \neq \lambda_1 e quindi, necessariamente, \langle \mathbf{v}_0, \mathbf{v}_1 \rangle = 0, il che vuol dire che \mathbf{v}_0 e \mathbf{v}_1 sono vettori ortogonali.

 

 


 

Per il momento ci fermiamo qui. Come avrete notato dimostrare le proprietà degli endomorfismi simmetrici non è poi così difficile, basta solo avere ben chiari i concetti studiati fin qui. A tal proposito fate tesoro anche di quanto appreso in questa lezione, perché sarà il punto di partenza nella dimostrazione del teorema spettrale in R. ;)

 

 

Buon proseguimento su YouMath,

Giuseppe Carichino (Galois)

 

Lezione precedente.....Esercizi correlati.....Lezione successiva

 
 

Tags: cos'è un endomorfismo simmetrico - proprietà degli endomorfismi simmetrici.