Definizione: Siano $V$ e $W$ due spazi vettoriali reali, sia $V$ di dimensione finta, e sia $A:V\to W$ una trasformazione lineare
$Imm(A):=A(V)$ che è un sottoinsieme di $W$
$Ker(A):=A^{-1}(0)$ che è un sottoinsieme di $V$ (Kernel)
Osserviamo che Immagine di $A$ è un sottospazio di $W$ e che il kernel di $A$ è un sottospazio di $V$
Teorema: $dim_\R V= dim_\R Imm(A) + dim_\R Ker(A)$
Nelle trasformazioni lineari non possiamo aumentare la dimensione, la dimensione che perdiamo la troviamo nel Kernel.
Dimostrazione: Sia $\{e_1,e_2,…,e_n\}$ una base di $V$, allora l’insieme $X$ delle immagini di questi vettori $X=\{A(e_1),A(e_2),…,A(e_n)\}$ genera l’immagine di $A$:
In particolare la dimensione dell’immagine di $A$ è minore della dimensione di $V$ ed è minore di infinito.
Sia $\{w_1,w_2,…,w_e\}$ una base dell’Immagine di $A$ ($Imma(A)\subseteq W$), e siano $v_1,…,v_r\in V$ tali che $A(v_i) = w_i$ per ogni $i$, sia $\{u_1,u_2,…,u_s\}\subseteq V$ una base di $Ker(A)$ allora $E:=\{u_1,…,u_s,v_1,…,v_r\}$ è una base di $V$ allora ho finito.
quindi $V= \langle E \rangle$
Siano $\lambda_1,…,\lambda_e,\mu_1,…,\mu_s$ tali che:
ma $\{w_1,…,w_r \}$ è indipendente, quindi $\lambda_1=\lambda_2=…=\lambda_r=0$
prendiamo una matrice a e la sua trasformazione lineare associata e vediamo il suo kernel:
L’algoritmo di Gauss ci da una serie di vettori $\{v_1,…,v_k\}$ che è una base di $A^{-1}(0)=Ker(A)$
Noi sappiamo che $k = dim_\R Ker(A) =$ numero di variabili libere, ma ora sappiamo che è uguale a:
quindi $dim_\R Imm(A) = t - \text{n. var libere}$ ma il numero di variabili libere è il numero di pivot.
noi sappiamo che l’immagine è generata dalla base canonica:
moltiplicare per l’i-esimo elemento della base colonna ci da l’i-esimo elemento della riga nella matrice
Osservazione: Se $V$ e $W$ sono spazi vettoriali reale, $A: V\to W$ è una trasformazione lineare, e $E$ è una base di $V$, allora $A(E)$ determina $A$:
Osservazione: Siano $V$ e $W$ degli spazi vettoriali reali, e sia $E$ base di V. sia $f:E \to W$ una funzione:
Siccome $E$ è una base, $Af$ è ben definita, ora ci dobbiamo chiedere se questa funzione è lineare:
definiamo $v_1$ e $v_2$
Abbiamo dimostrato la proprietà
Osservazione: Sia $V$ e $W$ spazi vettoriali reali e $A$ una trasformazione lineare $A:V\to W$ invertibile o (biiettiva) allora avremo la funzione inversa $A^{-1}:W \to V$ è lineare.
ci chiediamo se questa relazione sia vera, applichiamo A per capire se sia corretto:
Siccome A è iniettiva, concludo che: