Definizione: Siano $V$ e $W$ due spazi vettoriali reali, sia $V$ di dimensione finta, e sia $A:V\to W$ una trasformazione lineare

$Imm(A):=A(V)$ che è un sottoinsieme di $W$

$Ker(A):=A^{-1}(0)$ che è un sottoinsieme di $V$ (Kernel)

Osserviamo che Immagine di $A$ è un sottospazio di $W$ e che il kernel di $A$ è un sottospazio di $V$

Teorema: $dim_\R V= dim_\R Imm(A) + dim_\R Ker(A)$

Nelle trasformazioni lineari non possiamo aumentare la dimensione, la dimensione che perdiamo la troviamo nel Kernel.

Dimostrazione: Sia $\{e_1,e_2,…,e_n\}$ una base di $V$, allora l’insieme $X$ delle immagini di questi vettori $X=\{A(e_1),A(e_2),…,A(e_n)\}$ genera l’immagine di $A$:

Untitled

In particolare la dimensione dell’immagine di $A$ è minore della dimensione di $V$ ed è minore di infinito.

Sia $\{w_1,w_2,…,w_e\}$ una base dell’Immagine di $A$ ($Imma(A)\subseteq W$), e siano $v_1,…,v_r\in V$ tali che $A(v_i) = w_i$ per ogni $i$, sia $\{u_1,u_2,…,u_s\}\subseteq V$ una base di $Ker(A)$ allora $E:=\{u_1,…,u_s,v_1,…,v_r\}$ è una base di $V$ allora ho finito.

Untitled

Untitled

quindi $V= \langle E \rangle$

Siano $\lambda_1,…,\lambda_e,\mu_1,…,\mu_s$ tali che:

Untitled

Untitled

ma $\{w_1,…,w_r \}$ è indipendente, quindi $\lambda_1=\lambda_2=…=\lambda_r=0$

Esempio

prendiamo una matrice a e la sua trasformazione lineare associata e vediamo il suo kernel:

Untitled

L’algoritmo di Gauss ci da una serie di vettori $\{v_1,…,v_k\}$ che è una base di $A^{-1}(0)=Ker(A)$

Noi sappiamo che $k = dim_\R Ker(A) =$ numero di variabili libere, ma ora sappiamo che è uguale a:

Untitled

quindi $dim_\R Imm(A) = t - \text{n. var libere}$ ma il numero di variabili libere è il numero di pivot.

noi sappiamo che l’immagine è generata dalla base canonica:

Untitled

moltiplicare per l’i-esimo elemento della base colonna ci da l’i-esimo elemento della riga nella matrice

moltiplicare per l’i-esimo elemento della base colonna ci da l’i-esimo elemento della riga nella matrice

Isomorfismo

Osservazione: Se $V$ e $W$ sono spazi vettoriali reale, $A: V\to W$ è una trasformazione lineare, e $E$ è una base di $V$, allora $A(E)$ determina $A$:

Untitled

Osservazione: Siano $V$ e $W$ degli spazi vettoriali reali, e sia $E$ base di V. sia $f:E \to W$ una funzione:

Untitled

Siccome $E$ è una base, $Af$ è ben definita, ora ci dobbiamo chiedere se questa funzione è lineare:

Untitled

definiamo $v_1$ e $v_2$

definiamo $v_1$ e $v_2$

Untitled

Untitled

Abbiamo dimostrato la proprietà

Osservazione: Sia $V$ e $W$ spazi vettoriali reali e $A$ una trasformazione lineare $A:V\to W$ invertibile o (biiettiva) allora avremo la funzione inversa $A^{-1}:W \to V$ è lineare.

Untitled

ci chiediamo se questa relazione sia vera, applichiamo A per capire se sia corretto:

Untitled

Siccome A è iniettiva, concludo che:

Untitled