Norma indotta da un prodotto scalare

La norma indotta da un prodotto scalare è una particolare applicazione che a ogni vettore dello spazio su cui è definito il prodotto scalare associa un numero reale positivo o, al più, nullo.

 

In questa lezione spiegheremo tutto quello che c'è da sapere sulla nozione di norma definita da un prodotto scalare. Partiremo dalla definizione, per poi vedere qualche esempio ed elencare e dimostrare le proprietà della norma, tra cui spiccano la disuguaglianza di Cauchy-Schwarz e la disuguaglianza triangolare.

 

Proseguiremo mostrando come normalizzare un vettore e introducendo il concetto di base ortonormale, corredando il tutto con numerosi esempi.

 

Nota bene: la nozione di norma indotta che stiamo per presentarvi si riferisce a un prodotto scalare qualsiasi, dunque non solo al prodotto scalare canonico, né solamente alla classica norma euclidea che già conosciamo. ;)

 

Definizione di norma indotta da un prodotto scalare

 

Siano V uno spazio vettoriale su \mathbb{R} e \langle \ , \ \rangle: V \times V \to \mathbb{R} un prodotto scalare su V definito positivo.

 

Prende il nome di norma indotta dal prodotto scalare la funzione

 

\\ || \cdot ||: V \to \mathbb{R}^+ \cup \{0\} \\ \\ \mathbf{v}\in V \mapsto ||\mathbf{v}|| := \sqrt{\langle \mathbf{v}, \mathbf{v}\rangle}

 

Molto semplicemente, se \langle \ , \ \rangle è un prodotto scalare definito positivo su V, la norma indotta da tale prodotto scalare associa a ogni vettore \mathbf{v} \in V il numero reale ottenuto dalla radice quadrata del prodotto scalare di \mathbf{v} con se stesso.

 

Esempi di norma indotta da un prodotto scalare e di norma di un vettore

 

1) Consideriamo il seguente prodotto scalare definito positivo su V=\mathbb{R}^3

 

\\ \langle \ , \ \rangle: \mathbb{R}^3 \times \mathbb{R}^3 \to \mathbb{R} \\ \\ \langle \mathbf{x}, \mathbf{y} \rangle = 2x_1y_1-x_1y_2-x_2y_1+2x_2y_2+x_3y_3

 

La norma indotta da questo prodotto scalare è l'applicazione

 

|| \cdot || : \mathbb{R}^3 \to \mathbb{R}^+\cup\{0\}

 

che a ogni \mathbf{x}=(x_1,x_2,x_3) \in \mathbb{R}^3 associa lo scalare

 

\\ ||\mathbf{x}||=\sqrt{\langle \mathbf{x}, \mathbf{x} \rangle} = \\ \\ =\sqrt{2x_1x_1-x_1x_2-x_2x_1+2x_2x_2+x_3x_3}= \\ \\ = \sqrt{2x_1^2-2x_1x_2+2x_2^2+x_3^2}

 

Ad esempio, se \mathbf{x}=(1,0,1)

 

\\ ||\mathbf{x}|| = \sqrt{2x_1^2-2x_1x_2+2x_2^2+x_3^2}= \\ \\ = \sqrt{2(1)^2-2(1)(0)+2(0)^2+(1)^2}=\sqrt{2+1}=\sqrt{3}

 

 

2) Sia V=\mathbb{R}_2[x] lo spazio dei polinomi a coefficienti reali e di grado al più 2, e consideriamo il prodotto scalare

 

\\ \langle \ , \ \rangle: \mathbb{R}_2[x] \times \mathbb{R}_2[x] \to \mathbb{R} \\ \\ \langle p(x), q(x) \rangle = p(0)q(0)+p(1)q(1)+p(-1)q(-1)

 

La norma da esso indotta è

 

\\ || \cdot || : \mathbb{R}_2[x] \to \mathbb{R}^+\cup\{0\} \\ \\ ||p(x)||=\sqrt{\langle p(x), p(x) \rangle} = \\ \\ =\sqrt{p(0)p(0)+p(1)p(1)+p(-1)p(-1)}

 

Supponiamo di voler calcolare la norma del polinomio

 

p(x)=2-x-x^2

 

Calcoliamo le valutazioni richieste dalla definizione del prodotto scalare in questione

 

p(0)=2, \ p(1)=2-1-1=0\\ \\ p(-1)=2-(-1)-(-1)^2 = 2+1-1=2

 

ragion per cui

 

\\ ||p(x)|| = \sqrt{p(0)p(0)+p(1)p(1)+p(-1)p(-1)} = \\ \\ = \sqrt{(2)(2)+(0)(0)+(2)(2)}=\sqrt{4+4}=\sqrt{8}=2\sqrt{2}

 

 

3) Mettiamoci in V=Mat(2,2,\mathbb{R}), spazio delle matrici quadrate di ordine 2 a elementi reali, e prendiamo il prodotto scalare

 

\\ \langle \ , \ \rangle: Mat(2,2,\mathbb{R}) \times Mat(2,2,\mathbb{R}) \to \mathbb{R} \\ \\ \langle A, B \rangle = \mbox{Tr}(B^T A)

 

dove con B^T indichiamo la matrice trasposta di B e con \mbox{Tr} denotiamo la traccia di una matrice.

 

La norma indotta dal suddetto prodotto è la seguente

 

\\ || \cdot || : Mat(2,2,\mathbb{R}) \to \mathbb{R}^+\cup\{0\} \\ \\ ||A||=\sqrt{\langle A, A \rangle} = \sqrt{\mbox{Tr}(A^T A)}

 

Per fissare le idee consideriamo

 

A=\begin{pmatrix}1&2 \\ -1&0\end{pmatrix}

 

allora

 

A^T = \begin{pmatrix}1&-1 \\ 2&0\end{pmatrix}

 

Svolgendo il prodotto riga per colonna tra A^T \mbox{ e } A si ottiene

 

A^T A = \begin{pmatrix}1&-1 \\ 2&0\end{pmatrix} \begin{pmatrix}1&2 \\ -1&0\end{pmatrix} = \begin{pmatrix}2&2 \\ 2&4\end{pmatrix}

 

di conseguenza

 

||A|| = \sqrt{\mbox{Tr}(A^T A)} = \sqrt{\mbox{Tr}\begin{pmatrix}2&2 \\ 2&4\end{pmatrix}} = \sqrt{2+4}=\sqrt{6}

 

Proprietà della norma

 

Siano V uno spazio vettoriale reale, \langle \ , \ \rangle un prodotto scalare definito positivo su V \mbox{ e } || \cdot || la norma indotta da \langle \ , \ \rangle. Valgono le seguenti proprietà:

 

(A) La norma di un vettore è zero se e soltanto se il vettore è quello nullo

 

||\mathbf{v}|| = 0 \iff \mathbf{v}=\mathbf{0}

 

(B) La norma di ogni vettore non nullo è positiva

 

\forall \ \mathbf{v} \in V, \ \mathbf{v} \neq \mathbf{0}: \ ||\mathbf{v}|| > 0

 

(C) La norma del prodotto tra un vettore e uno scalare è uguale al valore assoluto dello scalare per la norma del vettore

 

\forall \ \mathbf{v} \in V, \ \forall \ \lambda \in \mathbb{R}: \ ||\lambda \mathbf{v}|| = |\lambda| \ ||\mathbf{v}||

 

(D) Disuguaglianza di Cauchy-Schwarz: il valore assoluto del prodotto scalare tra due vettori è minore o al più uguale del prodotto delle rispettive norme

 

\forall \ \mathbf{v}, \mathbf{w} \in V: \ |\langle \mathbf{v}, \mathbf{w} \rangle | \le ||\mathbf{v}|| \ ||\mathbf{w}||

 

L'uguaglianza vale se e soltanto se \mathbf{v} e \mathbf{w} sono linearmente dipendenti tra loro.

 

(E) Disuguaglianza triangolare: la norma della somma di due vettori è minore o uguale della somma delle norme

 

\forall \ \mathbf{v}, \mathbf{w} \in V: \ ||\mathbf{v} + \mathbf{w}|| \le ||\mathbf{v}|| + ||\mathbf{w}||

 

 

Dimostrazione delle proprietà della norma

 

Le proprietà (A) e (B) si dimostrano molto velocemente e in un colpo solo.

 

Per ipotesi \langle \ , \ \rangle è un prodotto scalare definito positivo su V, quindi per ogni \mathbf{v} \in V con \mathbf{v} \neq \mathbf{0} il prodotto scalare \langle \mathbf{v}, \mathbf{v}\rangle è positivo, ed è uguale a zero se e soltanto se \mathbf{v}=\mathbf{0}

 

di conseguenza

 

||\mathbf{v}|| = \sqrt{\langle \mathbf{v}, \mathbf{v} \rangle} = 0 \iff \mathbf{v}=\mathbf{0}

 

e quindi vale (A).

 

Inoltre, per ogni \mathbf{v} \in V con \mathbf{v} \neq \mathbf{0} risulta

 

||\mathbf{v}||=\sqrt{\langle \mathbf{v}, \mathbf{v} \rangle} > 0

 

e abbiamo così dimostrato anche la proprietà (B).

 

(C) Passiamo ora alla proprietà (C), secondo cui

 

\forall \ \mathbf{v} \in V, \ \forall \ \lambda \in \mathbb{R}: \ ||\lambda \mathbf{v}|| = |\lambda| \ ||\mathbf{v}||

 

Siano \mathbf{v} \in V e \lambda \in \mathbb{R}. Per definizione di norma

 

||\lambda \mathbf{v}|| = \sqrt{\langle \lambda \mathbf{v}, \lambda \mathbf{v}\rangle}

 

Dalla bilinearità del prodotto scalare segue che

 

||\lambda \mathbf{v}|| = \sqrt{\langle \lambda \mathbf{v}, \lambda \mathbf{v}\rangle} = \sqrt{\lambda^2 \langle \mathbf{v}, \mathbf{v}\rangle} = |\lambda|\sqrt{\langle \mathbf{v}, \mathbf{v}\rangle} = |\lambda| \ ||\mathbf{v}||

 

e anche la proprietà (C) è verificata.

 

(D) Proseguiamo con la dimostrazione della disuguaglianza di Cauchy-Schwarz

 

\forall \ \mathbf{v}, \mathbf{w} \in V: \ |\langle \mathbf{v}, \mathbf{w} \rangle | \le ||\mathbf{v}|| \ ||\mathbf{w}||

 

Anzitutto osserviamo che se \mathbf{v}=\mathbf{0}, allora

 

\langle \mathbf{v}, \mathbf{w} \rangle = 0\ \ ;\ \ ||\mathbf{v}||=0

 

per ogni \mathbf{w} \in V vale allora l'uguaglianza

 

0=\langle \mathbf{v}, \mathbf{w} \rangle = ||\mathbf{v}|| \ ||\mathbf{w}|| =0

 

Lo stesso identico ragionamento può essere ripetuto per \mathbf{w}=\mathbf{0}, dunque la disuguaglianza di Cauchy Schwarz è verificata se almeno uno dei due vettori è nullo.

 

Supponiamo allora che sia \mathbf{v} che \mathbf{w} siano diversi dal vettore nullo e osserviamo che per ogni a \in \mathbb{R}:

 

0 \le ||\mathbf{v}-a\mathbf{w}||^2 = \langle \mathbf{v}-a\mathbf{w}, \ \mathbf{v}-a\mathbf{w}\rangle =

 

per la linearità del prodotto scalare rispetto al primo termine

 

=\langle \mathbf{v}, \ \mathbf{v}-a\mathbf{w} \rangle -a\langle \mathbf{w}, \ \mathbf{v}-a\mathbf{w} \rangle=

 

per la linearità del prodotto scalare rispetto al secondo termine

 

\\ =\langle \mathbf{v}, \mathbf{v} \rangle -a \langle \mathbf{v}, \mathbf{w} \rangle -a \left(\langle \mathbf{w}, \ \mathbf{v} \rangle -a \langle \mathbf{w}, \mathbf{w} \rangle \right)= \\ \\ = \langle \mathbf{v}, \mathbf{v} \rangle -a \langle \mathbf{v}, \mathbf{w} \rangle -a \langle \mathbf{w}, \mathbf{v} \rangle +a^2 \langle \mathbf{w}, \mathbf{w} \rangle=

 

per la simmetria del prodotto scalare

 

\\ = \langle \mathbf{v}, \mathbf{v} \rangle -a \langle \mathbf{v}, \mathbf{w} \rangle -a \langle \mathbf{v}, \mathbf{w} \rangle +a^2 \langle \mathbf{w}, \mathbf{w} \rangle= \\ \\ = \langle \mathbf{v}, \mathbf{v} \rangle -2a \langle \mathbf{v}, \mathbf{w} \rangle + a^2 \langle \mathbf{w}, \mathbf{w} \rangle

 

Abbiamo così dimostrato che per ogni a \in \mathbb{R}

 

0 \le \langle \mathbf{v}, \mathbf{v} \rangle -2a \langle \mathbf{v}, \mathbf{w} \rangle + a^2 \langle \mathbf{w}, \mathbf{w} \rangle \ (*)

 

Avendo assunto che sia \mathbf{w} \neq \mathbf{0} siamo certi che \langle \mathbf{w}, \mathbf{w} \rangle sia diverso da zero. D'altro canto i precedenti passaggi valgono per qualsiasi a\in\mathbb{R}, e quindi possiamo considerare nello specifico

 

a=\frac{\langle \mathbf{v}, \mathbf{w} \rangle}{\langle \mathbf{w}, \mathbf{w} \rangle}

 

Sostituendo in (\star) e svolgendo le dovute semplificazioni ricaviamo che

 

\\ 0 \le \langle \mathbf{v}, \mathbf{v} \rangle -2 \frac{\langle \mathbf{v}, \mathbf{w} \rangle}{\langle \mathbf{w}, \mathbf{w} \rangle} \langle \mathbf{v}, \mathbf{w} \rangle + \frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{(\langle \mathbf{w}, \mathbf{w} \rangle)^2} \ \langle \mathbf{w}, \mathbf{w} \rangle= \\ \\ \\ = \langle \mathbf{v}, \mathbf{v} \rangle -2 \frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{\langle \mathbf{w}, \mathbf{w} \rangle}+ \frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{\langle \mathbf{w}, \mathbf{w} \rangle} = \\ \\ \\ = \langle \mathbf{v}, \mathbf{v} \rangle - \frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{\langle \mathbf{w}, \mathbf{w} \rangle}

 

ossia

 

0 \le \langle \mathbf{v}, \mathbf{v} \rangle - \frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{\langle \mathbf{w}, \mathbf{w} \rangle}

 

Spostiamo il termine fratto a primo membro

 

\frac{(\langle \mathbf{v}, \mathbf{w} \rangle)^2}{\langle \mathbf{w}, \mathbf{w} \rangle} \le \langle \mathbf{v}, \mathbf{v} \rangle

 

Moltiplichiamo ambo i membri della disequazione per \langle \mathbf{w}, \mathbf{w} \rangle, che è una quantità positiva e quindi non cambia il verso della disequazione

 

(\langle \mathbf{v}, \mathbf{w} \rangle)^2 \le \langle \mathbf{v}, \mathbf{v} \rangle \ \langle \mathbf{w}, \mathbf{w} \rangle

 

Estraendo la radice quadrata otteniamo

 

|\langle \mathbf{v}, \mathbf{w} \rangle| \le \sqrt{\langle \mathbf{v}, \mathbf{v} \rangle} \ \sqrt{\langle \mathbf{w}, \mathbf{w} \rangle} = ||\mathbf{v}|| \ ||\mathbf{w}||

 

e la disuguaglianza di Cauchy Schwarz è dimostrata.

 

Osserviamo infine che l'uguaglianza vale se e soltanto se \mathbf{v}+a\mathbf{w}=\mathbf{0}, ossia se e solo se \mathbf{v} e \mathbf{w} sono linearmente dipendenti.

 

(E) Concludiamo con la dimostrazione della disuguaglianza triangolare

 

\forall \ \mathbf{v}, \mathbf{w} \in V: \ ||\mathbf{v} + \mathbf{w}|| \le ||\mathbf{v}|| + ||\mathbf{w}||

 

Fissiamo \mathbf{v} e \mathbf{w} e osserviamo che

 

||\mathbf{v}+\mathbf{w}||^2 = \langle \mathbf{v}+\mathbf{w}, \ \mathbf{v}+\mathbf{w}\rangle =

 

per linearità rispetto al primo termine

 

=\langle \mathbf{v}, \ \mathbf{v}+\mathbf{w}\rangle + \langle \mathbf{w}, \ \mathbf{v}+\mathbf{w}\rangle =

 

per linearità rispetto al secondo termine

 

=\langle \mathbf{v}, \mathbf{v}\rangle + \langle \mathbf{v}, \mathbf{w}\rangle + \langle \mathbf{w}, \mathbf{v}\rangle + \langle \mathbf{w}, \mathbf{w}\rangle =

 

per simmetria

 

\\ =\langle \mathbf{v}, \mathbf{v}\rangle + \langle \mathbf{v}, \mathbf{w}\rangle + \langle \mathbf{v}, \mathbf{w}\rangle + \langle \mathbf{w}, \mathbf{w}\rangle = \\ \\ = \langle \mathbf{v}, \mathbf{v}\rangle + 2 \langle \mathbf{v}, \mathbf{w}\rangle + \langle \mathbf{w}, \mathbf{w}\rangle =

 

per definizione di norma

 

=||\mathbf{v}||^2+2\langle \mathbf{v}, \mathbf{w}\rangle+||\mathbf{w}||^2

 

Ora, dalla disuguaglianza di Cauchy Schwarz sappiamo che

 

|\langle \mathbf{v}, \mathbf{w} \rangle| \le ||\mathbf{v}|| \ ||\mathbf{w}||

 

quindi

 

\\ ||\mathbf{v}+\mathbf{w}||^2=||\mathbf{v}||^2+2\langle \mathbf{v}, \mathbf{w}\rangle+||\mathbf{w}||^2 \le \\ \\ \le ||\mathbf{v}||^2 + 2 ||\mathbf{v}|| \ ||\mathbf{w}|| + ||\mathbf{w}||^2 = \\ \\ = (||\mathbf{v}||+||\mathbf{w}||)^2

 

Abbiamo così provato che

 

||\mathbf{v}+\mathbf{w}||^2 \le (||\mathbf{v}||+||\mathbf{w}||)^2

 

ed estraendo la radice quadrata si ottiene la tesi

 

||\mathbf{v}+\mathbf{w}|| \le ||\mathbf{v}||+||\mathbf{w}||

 

Normalizzazione di un vettore

 

Sia V uno spazio vettoriale reale su cui è definito un prodotto scalare definito positivo \langle \ , \ \rangle.

 

La normalizzazione di un vettore è una procedura che permette di passare da un vettore \mathbf{v} \in V con \mathbf{v} \neq \mathbf{0} a un nuovo vettore \mathbf{u} \in V di norma 1, e che sia linearmente dipendente con \mathbf{v}, ossia tale che differisca da \mathbf{v} a meno di un multiplo scalare.

 

In altri termini, normalizzare un vettore non nullo \mathbf{v} \in V vuol dire determinare il vettore \mathbf{u} \in V che abbia norma 1 e che dipenda linearmente da \mathbf{v}.

 

I passi da seguire per normalizzare un vettore \mathbf{v}\neq \mathbf{0} di uno spazio vettoriale V su cui è definito un prodotto scalare definito positivo \langle \ , \ \rangle sono i seguenti:

 

- calcolare la norma di \mathbf{v};

 

- moltiplicare il vettore \mathbf{v} per il reciproco della norma di \mathbf{v}.

 

Il vettore normalizzato di \mathbf{v} è dato dalla formula

 

\mathbf{u} := \frac{1}{||\mathbf{v}||} \ \mathbf{v}

 

Esempi sulla normalizzazione dei vettori

 

1) Siano V=\mathbb{R}^2 e \cdot il prodotto scalare euclideo. Normalizzare il vettore \mathbf{v}=(3,-4).

 

Svolgimento: calcoliamo la norma di \mathbf{v}

 

\\ ||\mathbf{v}||=\sqrt{\mathbf{v} \cdot \mathbf{v}} = \sqrt{(3,-4) \cdot (3,-4)} = \\ \\ = \sqrt{(3)(3)+(-4)(-4)}=\sqrt{9+16}=\sqrt{25}=5

 

e moltiplichiamo \mathbf{v} per il reciproco della norma, ottenendo così il vettore normalizzato

 

\mathbf{u}=\frac{1}{||\mathbf{v}||} \ \mathbf{v} = \frac{1}{5} \ (3,-4) = \left(\frac{3}{5},-\frac{4}{5}\right)

 

Volendo verificare la correttezza del risultato ottenuto è sufficiente calcolare la norma di \mathbf{u} e vedere che è 1.

 

\\ ||\mathbf{u}||=\sqrt{\mathbf{u} \cdot \mathbf{u}} = \sqrt{\left(\frac{3}{5},-\frac{4}{5}\right) \cdot \left(\frac{3}{5},-\frac{4}{5}\right)} = \\ \\ \\ = \sqrt{\frac{9}{25}+\frac{16}{25}}=\sqrt{\frac{25}{25}}=\sqrt{1}=1

 

 

2) Normalizzare il vettore \mathbf{v}=(1,1,0) \in \mathbb{R}^3 rispetto al prodotto scalare

 

\\ \langle \ , \ \rangle: \mathbb{R}^3 \times \mathbb{R}^3 \to \mathbb{R} \\ \\ \langle \mathbf{x}, \mathbf{y} \rangle = 2x_1y_1-x_1y_2-x_2y_1+2x_2y_2+x_3y_3

 

Svolgimento: Il vettore cercato è

 

\mathbf{u}=\frac{1}{||\mathbf{v}||} \ \mathbf{v}

 

quindi calcoliamo la norma di \mathbf{v}=(1,1,0)

 

\\ ||\mathbf{v}||=\sqrt{\langle \mathbf{v}, \mathbf{v} \rangle} = \sqrt{\langle (1,1,0), \ (1,1,0) \rangle}= \\ \\ = \sqrt{2(1)(1) - (1)(1) - (1)(1) + 2(1)(1) + (0)(0)} = \\ \\ = \sqrt{2-1-1+2}=\sqrt{2}

 

In definitiva

 

\mathbf{u}=\frac{1}{||\mathbf{v}||} \ \mathbf{v} = \frac{1}{\sqrt{2}} (1,1,0) = \left(\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}}, 0\right)

 

 

3) Normalizzare il polinomio

 

p(x)=1+x+x^2 \in \mathbb{R}_2[x]

 

rispetto alla norma indotta dal seguente prodotto scalare

 

\\ \langle \ , \ \rangle: \mathbb{R}_2[x] \times \mathbb{R}_2[x] \to \mathbb{R} \\ \\ \langle p(x), q(x) \rangle = 3p(0)q(0)+p'(0)q(1)+p(1)q'(0)+p'(1)q'(1)

 

Svolgimento: il polinomio da normalizzare è

 

p(x)=1+x+x^2

 

la cui derivata prima è

 

p'(x)=1+2x

 

Per facilitare i calcoli determiniamo preventivamente le valutazioni richieste dalla definizione

 

p(0)=1, \ p(1)=3, \ p'(0)=1, \ p'(1)=3

 

quindi

 

\\ ||p(x)||=\sqrt{\langle p(x), p(x) \rangle} = \\ \\ =\sqrt{3p(0)p(0)+p'(0)p(1)+p(1)p'(0)+p'(1)p'(1)}= \\ \\ = \sqrt{3(p(0))^2+2p'(0)p(1)+(p'(1))^2} = \\ \\ = \sqrt{3(1)^2+2(1)(3)+(3)^2} = \\ \\ = \sqrt{3+6+9} = \sqrt{18} = 3\sqrt{2}

 

Il vettore normalizzato cercato è

 

u(x)=\frac{1}{||p(x)||} \ p(x) = \frac{1}{3\sqrt{2}}(1+x+x^2) = \frac{1}{3\sqrt{2}} + \frac{1}{3\sqrt{2}}x + \frac{1}{3\sqrt{2}}x^2

 

Vettori ortonormali e base ortonormale

 

Se ben ricordate, un prodotto scalare \langle \ , \ \rangle definito su uno spazio vettoriale V finitamente generato ci ha permesso di introdurre i concetti di vettori ortogonali e di base ortogonale. Richiamiamone brevemente le definizioni.

 

\mathbf{v}_1, \mathbf{v}_2, ..., \mathbf{v}_n \in V sono vettori ortogonali rispetto a un fissato prodotto scalare \langle \ , \ \rangle se

 

\langle \mathbf{v}_i, \mathbf{v}_j \rangle = 0\ \ \forall i\neq j

 

\{\mathbf{v}_1, \mathbf{v}_2, ..., \mathbf{v}_n\} è una base ortogonale di V rispetto a un fissato prodotto scalare \langle \ , \ \rangle se

 

\begin{cases} \{\mathbf{v}_1, \mathbf{v}_2, ..., \mathbf{v}_n\} \mbox{ è una base di } V \\ \\ \langle \mathbf{v}_i, \mathbf{v}_j \rangle = 0\ \ \forall i \neq j\end{cases}

 

La norma indotta da un prodotto scalare definito positivo ci permette di fare un passo avanti e introdurre le nozioni di vettori ortonormali e di base ortonormale:

 

- due o più vettori di V si dicono tra loro ortonormali se sono tra loro ortogonali e ciascuno di essi ha norma 1;

 

\begin{cases}\langle \mathbf{v}_i, \mathbf{v}_j \rangle = 0\ \ \forall i\neq j\\ \\ ||\mathbf{v}_i||=1 \ \ \forall i \in \{1,2,...,n\}\end{cases}

 

- una base ortonormale è una base di V composta da vettori ortonormali tra loro.

 

\begin{cases} \{\mathbf{v}_1, \mathbf{v}_2, ..., \mathbf{v}_n\} \mbox{ è una base di } V \\ \\ \langle \mathbf{v}_i, \mathbf{v}_j \rangle = 0 \ \ \forall i \neq j \\ \\ ||\mathbf{v}_i||=1 \ \ \forall i \in \{1,2,...,n\}\end{cases}

 

Esempi di vettori ortonormali e di basi ortonormali rispetto a un prodotto scalare qualsiasi

 

1) La base canonica di \mathbb{R}^n

 

\mathcal{C}=\{(1,0,0,...,0), \ (0,1,0,...,0), \ ..., \ (0,0,0,...,1)\}

 

è una base ortonormale rispetto al prodotto scalare canonico.

 

 

2) Sia V=\mathbb{R}_2[x], su cui prendiamo il prodotto scalare

 

\\ \langle \ , \ \rangle: \mathbb{R}_2[x] \times \mathbb{R}_2[x] \to \mathbb{R} \\ \\ \langle p(x), q(x) \rangle = p(0)q(0)+p(1)q(1)+p(-1)q(-1)

 

I polinomi

 

p(x)=\frac{1}{3}+\frac{1}{3}x^2\ \ ;\ \ q(x)=\frac{1}{\sqrt{2}}x

 

sono ortonormali, infatti hanno norma 1

 

\\ ||p(x)||=\sqrt{\langle p(x), p(x) \rangle} = \\ \\ =\sqrt{p(0)p(0)+p(1)p(1)+p(-1)p(-1)} = \\ \\ =\sqrt{\left(\frac{1}{3}\right) \left(\frac{1}{3}\right) + \left(\frac{2}{3}\right) \left(\frac{2}{3}\right) + \left(\frac{2}{3}\right) \left(\frac{2}{3}\right)} = \\ \\ \\ = \sqrt{\frac{1}{9}+\frac{4}{9}+\frac{4}{9}} = \sqrt{\frac{9}{9}}=1 \\ \\ \\ ||q(x)||=\sqrt{\langle q(x), q(x) \rangle} = \\ \\ =\sqrt{q(0)q(0)+q(1)q(1)+q(-1)q(-1)} = \\ \\ =\sqrt{\left(0\right) \left(0\right) + \left(\frac{1}{\sqrt{2}}\right) \left(\frac{1}{\sqrt{2}}\right) + \left(-\frac{1}{\sqrt{2}}\right) \left(-\frac{1}{\sqrt{2}}\right)} = \\ \\ \\ = \sqrt{\frac{1}{2}+\frac{1}{2}} = \sqrt{\frac{2}{2}}=1

 

e il loro prodotto scalare è zero

 

\\ \langle p(x), p(x) \rangle = p(0)q(0)+p(1)q(1)+p(-1)q(-1)= \\ \\ = \left(\frac{1}{3}\right)\left(0\right)+\left(\frac{2}{3}\right)\left(\frac{1}{\sqrt{2}}\right)+\left(\frac{2}{3}\right)\left(-\frac{1}{\sqrt{2}}\right)= \\ \\ \\ = \frac{2}{3\sqrt{2}} - \frac{2}{3\sqrt{2}} = 0

 

 

3) In riferimento al prodotto scalare

 

\\ \langle \ , \ \rangle: \mathbb{R}^2 \times \mathbb{R}^2 \to \mathbb{R} \\ \\ \langle \mathbf{x}, \mathbf{y} \rangle = 6x_1y_1+x_1y_2+x_2y_1+x_2y_2

 

l'insieme formato dai vettori

 

\mathbf{v}_1=\left(\frac{1}{3}, \frac{1}{3}\right)\ \ ;\ \ \mathbf{v}_2=\left(-\frac{2}{3\sqrt{5}}, \frac{7}{3\sqrt{5}}\right)

 

è una base ortonormale di \mathbb{R}^2, infatti il loro prodotto scalare è zero

 

\\ \langle \mathbf{v}_1, \mathbf{v}_2 \rangle = \bigg\langle \left(\frac{1}{3}, \frac{1}{3}\right), \ \left(-\frac{2}{3\sqrt{5}}, \frac{7}{3\sqrt{5}}\right)\bigg\rangle = \\ \\ \\ = 6\left(\frac{1}{3}\right)\left(-\frac{2}{3\sqrt{5}}\right)+\left(\frac{1}{3}\right)\left(\frac{7}{3\sqrt{5}}\right)+ \left(\frac{1}{3}\right)\left(-\frac{2}{3\sqrt{5}}\right) + \left(\frac{1}{3}\right)\left(\frac{7}{3\sqrt{5}}\right) = \\ \\ \\ = -\frac{12}{9\sqrt{5}}+\frac{7}{9\sqrt{5}}-\frac{2}{9\sqrt{5}}+\frac{7}{9\sqrt{5}}=0

 

e la norma di ciascun vettore è 1, ma lasciamo a voi il compito di verificarlo. ;)

 

Perché la norma indotta da un prodotto scalare richiede la definita positività?

 

Sebbene non rientri tra le conoscenze di un corso base di Algebra Lineare, ci teniamo a spiegare come mai la norma indotta da un prodotto scalare viene definita per i soli prodotti scalari definiti positivi.

 

In generale una norma su uno spazio vettoriale V è una funzione da V in \mathbb{R}^+ \cup \{0\}

 

\\ || \cdot ||: V \to \mathbb{R}^+ \cup \{0\}

 

che a ogni vettore \mathbf{v} \in V associa il numero reale (positivo o al più nullo) ||\mathbf{v}|| che verifica le seguenti condizioni:

 

||\mathbf{v}|| = 0 \iff \mathbf{v}=\mathbf{0}

 

\forall \ \mathbf{v} \in V, \ \mathbf{v} \neq \mathbf{0}: \ ||\mathbf{v}|| > 0

 

Omogeneità: \forall \ \mathbf{v} \in V, \ \forall \ \lambda \in \mathbb{R}: \ ||\lambda \mathbf{v}|| = |\lambda| \ ||\mathbf{v}||

 

Disuguaglianza triangolare: \forall \ \mathbf{v}, \mathbf{w} \in V: \ ||\mathbf{v} + \mathbf{w}|| \le ||\mathbf{v}|| + ||\mathbf{w}||

 

Se \langle \ , \ \rangle è un prodotto scalare qualsiasi su V, e se definiamo la norma così come in questa lezione

 

||\mathbf{v}|| = \sqrt{\langle \mathbf{v}, \mathbf{v}\rangle}

 

è immediato osservare che:

 

- se \langle \ , \ \rangle fosse semidefinito positivo, ma non definito, allora la prima proprietà non sarebbe verificata, infatti esisterebbe almeno un vettore non nullo di norma 0;

 

- se \langle \ , \ \rangle fosse indefinito o semidefinito negativo, non sarebbe garantita la non negatività del radicando di \sqrt{\langle \mathbf{v},\mathbf{v}\rangle}, pregiudicando il senso stesso dell'espressione.

 

Ecco quindi perché nel definire la norma indotta si assume come ipotesi che il prodotto scalare sia definito positivo.

 

Precisiamo che, nel prosieguo del vostro percorso di studi, potreste imbattervi in contesti nei quali è necessario definire una norma a partire da un prodotto scalare che non è definito positivo. L'esposizione dettagliata di questa tipologia di norme richiede, purtroppo, molti prerequisiti che non trovano posto in un corso di Algebra lineare di base, ecco perché preferiamo glissare.

 


 

È tutto! I concetti di base ortogonale e di base ortonormale giocheranno un ruolo da protagonista nella prossima lezione. Con l'ausilio dell'algoritmo di ortogonalizzazione di Gram-Schmidt vedremo come costruire una base ortogonale e una base ortonormale a partire da un insieme di vettori linearmente indipendenti.

 

 

Buon proseguimento su YouMath,

Giuseppe Carichino (Galois)

 

Lezione precedente.....Esercizi correlati.....Lezione successiva

 
 

Tags: norma indotta da un prodotto scalare - come si calcola la norma di un vettore - come normalizzare un vettore - vettori ortonormale e base ortonormale.