Formas de Jordan de rango 1

Estudiamos las formas de Jordan de rango 1.

Enunciado
Se trata de estudiar las posibles formas canónicas de Jordan (o en su caso, forma diagonal) de las matrices cuadradas de rango 1.

1. Estudiamos en primer lugar un caso particular para matrices $3\times 3.$ Dada la matriz

$A=\begin{bmatrix}{1}&{a}&{-1}\\{1}&{a}&{-1}\\{1}&{a}&{-1}\end{bmatrix},$

determinar, según los valores del parámetro real $a$ su forma canónica de Jordan $A^*$ (o en particular su forma diagonal) y una matriz $P$ no singular tal que $A=PA^*P^{-1}$

2. Sea ahora $A$ una matriz real cuadrada $n\times n$ de rango $1.$ Justificar que en general dicha matriz será de la forma

$A=\begin{bmatrix} \lambda_1v_1 & \lambda_2 v_1 & \ldots & \lambda_n v_1\\ \lambda_1 v_2 &\lambda_2 v_2 & \ldots & \lambda_n v_2 \\ \vdots&&&\vdots \\ \lambda_1 v_n & \lambda_2 v_n &\ldots & \lambda_n v_n\end{bmatrix},$

con algún $\lambda_i\neq 0\;(i=1,2,\ldots,n)$ y con $v=(v_1,v_2,\ldots,v_n)^t\neq (0,0,\ldots,0)^t.$ Hallar las soluciones del sistema $AX=0$ con $X=(x_1,x_2,\ldots,x_n)^t$ y $0=(0,0,\ldots,0)^t$

3. Calcular $AX$ con $X=(x_1,x_2,\ldots,x_n)^t.$ Calcular $Av.$ Hallar los autovalores y los autovectores de la matriz $A.$

4. Enunciar y demostrar una condición necesaria y suficiente que que deben satisfacer los coeficientes de la matriz $A$ para que esta sea diagonalizable. Comprobar el resultado que se obtenga, en el caso particular de la matriz que figura en el apartado 1.

5. Las mismas cuestiones para el caso no diagonalizable (naturalmente $A^*$ será su forma canónica de Jordan en este caso).

(Propuesto en examen, Álgebra, ETS de Ing. de Montes, UPM).

Solución
1. Efectuando las transformaciones $F_3-F_2$ y posteriormente $C_2+C_3$ al determinante de $A-\lambda I$, obtenemos los valores propios de $A:$

$\displaystyle\begin{aligned}
\begin{vmatrix}{1-\lambda}&{a}&{-1}\\{1}&{a-\lambda}&{-1}\\{1}&{a}&{-1-\lambda}\end{vmatrix}&=\begin{vmatrix}{1-\lambda}&{a}&{-1}\\{1}&{a-\lambda}&{-1}\\{0}&{\lambda}&{-\lambda}\end{vmatrix}=\begin{vmatrix}{1-\lambda}&{a-1}&{-1}\\{1}&{a-1-\lambda}&{-1}\\{0}&{0}&{-\lambda}\end{vmatrix}\\
&=(-\lambda)(\lambda^2-a\lambda)=-\lambda^2(\lambda-a)=0\\
&\Leftrightarrow \lambda=0\mbox{ (al menos doble)}\vee \lambda=a\; \mbox{(al menos simple)}.
\end{aligned}$

Primer caso: $a=0.$ En este caso tenemos $\lambda=0$ (triple). La dimensión del subespacio propio $V_0$ asociado es:

$\dim V_0=3-\mbox{rg}(A-0I)=3-\text{rg }\begin{bmatrix}{1}&{0}&{-1}\\{1}&{0}&{-1}\\{1}&{0}&{-1}\end{bmatrix}=3-1=2.$

En consecuencia su forma de Jordan $A^*$ tiene dos cajas, con lo cual:

$A^*=\begin{bmatrix}{0}&{1}&{0}\\{0}&{0}&{0}\\{0}&{0}&{0}\end{bmatrix}\;.$

Una base de Jordan $B_J=\{e_1,e_2,e_3\}$ en $\mathbb{R}^3$ para la matriz $A$ será pues una base satisfaciendo las condiciones $Ae_1=0, Ae_2=e_1,Ae_3=0.$ Tenemos que resolver sistemas del tipo $Ax=h$ con $x=(x_1,x_2,x_3)^t$ y $h=(h_1,h_2,h_3),$ es decir sistemas del tipo

$Ax=h\Leftrightarrow \begin{bmatrix}{1}&{0}&{-1}\\{1}&{0}&{-1}\\{1}&{0}&{-1}\end{bmatrix}\;\begin{bmatrix}{x_1}\\{x_2}\\{x_3}\end{bmatrix}=\begin{bmatrix}{h_1}\\{h_2}\\{h_3}\end{bmatrix}\quad (1)$

Aplicando el método de Gauss obtenemos que el sistema (1) es compatible si y sólo si se verifica $h_1=h_2=h_3$ (condiciones de compatibilidad) y la solución general es

$\left \{ \begin{matrix}x_1=h_1+\beta\\ x_2=\alpha\\x_3=\beta \end{matrix}\right.\quad (\alpha,\beta\in \mathbb{R}).$

Vector $e_1.$ En este caso, $h_1=h_2=h_3=0$ y la solución general de (1) es $e_1=(\beta,\alpha,\beta).$ Este vector “$x$” estará de $h$ en el siguiente sistema, así que le imponemos las condiciones de compatibilidad, es decir $\beta=\alpha.$ En consecuencia podemos elegir $\alpha =\beta=1$ y obtenemos el vector $e_1=(1,1,1)^t.$

Vector $e_2.$ En este caso, $h_1=h_2=h_3=1$ y la solución general de (1) es $e_2=(1+\beta,\alpha,\beta).$ Eligiendo $\alpha=\beta=0$ obtenemos el vector $e_2=(1,0,0)^t.$

Vector $e_3.$ Como en el caso de $e_1$ la solución general de (1) es $e_1=(\beta,\alpha,\beta)$. Elegimos $\alpha$ y $\beta$ de tal manera que $e_1$ y $e_3$ sean linealmente independientes, por ejemplo $\alpha=1,\beta=0$ con lo cual obtenemos el vector $e_3=(0,1,0)^t.$

En consecuencia, una matriz $Q$ que satisface $Q^{-1}AQ=A^*$ es

$Q=\begin{bmatrix}{e_1}&{e_2}&{e_3}\end{bmatrix}=\begin{bmatrix}{1}&{1}&{0}\\{1}&{0}&{1}\\{1}&{0}&{0}\end{bmatrix}\;.$

Por tanto, una matriz $P$ que cumple $A=PA^*P^{-1}$ es $P=Q^{-1}.$

Segundo caso: $a\neq 0.$ En este caso los valores propios $\lambda=0$ (doble) y $\lambda=0$ (simple). La dimensión de $V_a$ es uno por ser $a$ valor propio simple. Por otra parte tenemos que $\dim V_0=3-\mbox{rg}(A-0I)=3-1=2,$ de lo cual concluimos que $A$ es diagonalizable y su forma canónica de Jordan (diagonal en este caso) es $A^*=\mbox{diag}(0,0,a).$ Una matriz $Q$ cumpliendo $Q^{-1}AQ=A^*$ es una matriz cuyas columnas están formadas por los respectivos vectores vectores propios. Fácilmente encontramos:

$Q=\begin{bmatrix}{1}&{0}&{1}\\{0}&{1}&{1}\\{1}&{a}&{1}\end{bmatrix}\;.$

Por tanto, una matriz $P$ que cumple $A=PA^*P^{-1}$ es $P=Q^{-1}.$

2. Si la matriz $A=\begin{bmatrix}C_1,C_2,\ldots,C_n\end{bmatrix}$ tiene rango $1,$ alguna de sus columnas ha de ser necesariamente no nula, y podemos suponer sin pérdida de generalidad que es la $C_n$, es decir será de la forma $C_n=v=(v_1,v_2,\ldots,v_n)^t\neq (0,0,\ldots,0)^t.$ También sin pérdida de generalidad podemos suponer que $v_n\neq 0.$ Las demás columnas $C_j$ han de ser combinación lineal de $C_n,$ por tanto de la forma $C_j=\lambda_jv.$

Concluimos que $A=\begin{bmatrix}\lambda_1v,\lambda_2v,\ldots,\lambda_{n-1} v,v\end{bmatrix},$ y en consecuencia es de la forma requerida. Como el rango por columnas de una matriz es igual al rango por filas, el sistema $AX=0$ es equivalente al sistema:

$\lambda_1v_nx_1+\lambda_2v_nx_2+\ldots+\lambda_{n-1}v_nx_{n-1}+v_nx_n=0\quad(v_n\neq 0),$

cuya solución general es:

$\left \{ \begin{matrix}x_1=\alpha_1\\x_2=\alpha_2\\\ldots\\x_{n-1}=\alpha_{n-1}\\x_n=-\lambda_1\alpha_1-\lambda_2\alpha_2-\ldots-\lambda_{n-1}\alpha_{n-1}\end{matrix}\right.\quad(\alpha_j\in \mathbb{R}).$

Podemos expresarla en forma vectorial de la siguiente manera:

$\begin{bmatrix}x_1\\{x_2}\\ \vdots\\{x_{n-1}}\\x_n\end{bmatrix}=\alpha_1\begin{bmatrix}1\\{0}\\ \vdots\\{0}\\-\lambda_1\end{bmatrix}+\alpha_2\begin{bmatrix}0\\{1}\\ \vdots\\{0}\\-\lambda_2\end{bmatrix}+\ldots+\alpha_{n-1}\begin{bmatrix}0\\{0}\\ \vdots\\{1}\\-\lambda_{n-1}\end{bmatrix}\;\;(\alpha_i\in \mathbb{R})\quad (*)$

3. Teniendo en cuenta la forma de la matriz $A:$

$\displaystyle\begin{aligned}
AX&=\begin{bmatrix}\lambda_1v,\lambda_2v_,\ldots,\lambda_{n-1} v,v\end{bmatrix}\begin{bmatrix}x_1\\{x_2}\\ \vdots\\{x_n}\end{bmatrix}\\
&=(\lambda_1x_1+\lambda_2x_2+\ldots+\lambda_{n-1}x_{n-1}+x_n)v.
\end{aligned}$

En el caso particular $X=v$ obtenemos:

$Av=(\lambda_1v_1+\lambda_2v_2+\ldots+\lambda_{n-1}v_{n-1}+v_n)v.$

Llamemos $a=\lambda_1v_1+\lambda_2v_2+\ldots+\lambda_{n-1}v_{n-1}+v_n.$ El vector no nulo $v$ satisface $Av=a v$ y por tanto es vector propio asociado al valor propio $a.$ Por otra parte, las soluciones no nulas del sistema $AX=0$ satisfacen $AX=0X,$ luego son vectores propios asociados al valor propio $0.$ Los $n-1$ vectores columnas $\{w_1,w_2,\ldots,w_{n-1}\}$ que aparecen en la igualdad $(*)$ son no nulos y claramente linealmente independientes, son por tanto $n-1$ vectores propios linealmente independientes asociados al valor propio $0.$ Los vectores propios de $A$ son por tanto:

$w_1=\begin{bmatrix}1\\{0}\\ \vdots\\{0}\\-\lambda_1\end{bmatrix}\;,\;w_2=\begin{bmatrix}0\\{1}\\ \vdots\\{0}\\-\lambda_2\end{bmatrix}\;,\;\ldots,\;w_{n-1}=\begin{bmatrix}0\\{0}\\ \vdots\\{1}\\-\lambda_{n-1}\end{bmatrix}\;,\;v=\begin{bmatrix}v_1\\{v_2}\\ \vdots\\{v_{n-1}}\\v_n\end{bmatrix},$

los $n-1$ primeros asociados al valor propio $0$ y el último asociado al $a.$

4. Del apartado anterior deducimos que $\dim V_0= n-1.$ Entonces, $A$ es diagonalizable si y sólo si tiene un valor propio no nulo y simple. Necesariamente este valor propio ha de ser $a=\lambda_1v_1+\lambda_2v_2+\ldots+\lambda_{n-1}v_{n-1}+v_n.$ Obsérvese que si ocurre $a\neq 0$ entonces $B=\{w_1,w_2,\ldots,w_{n-1},v\}$ es base de $\mathbb{R}^n$ formada por vectores propios. Esta base satisface:

$\left \{ \begin{matrix}Aw_1=0\\Aw_2=0\\\ldots\\Aw_{n-1}=0\\Av=av.\end{matrix}\right.$

lo cual implica que $A^*=\mbox{diag }(0,0,\ldots,0,a).$ La matriz del primer apartado es $A=\begin{bmatrix}{-v,-av,v}\end{bmatrix}$ con $v=(-1,-1,-1)^t$ y por tanto $\lambda_1=-1,\lambda_2=-a.$ Según lo que acabamos de demostrar, $A=\begin{bmatrix}{-v,-av,v}\end{bmatrix}$ es diagonalizable si y sólo si se verifica $\lambda_1v_1+\lambda_2v_2+v_3\neq 0$ o equivalentemente si y sólo si $a\neq 0$ que fue lo que obtuvimos en 1.

5. Como hemos visto, la matriz $A$ no es diagonalizable si y sólo si $a=0.$ En este caso el único valor propio de $A$ es $0$ y al ser $\dim V_0= n-1,$ su forma canónica $A^*$ tiene $n-1$ cajas, es decir es la matriz diagonal por cajas

$A^*=\begin{bmatrix} A_1 & 0 & \ldots & 0\\ 0 &A_2 & \ldots & 0 \\ \vdots&&&\vdots \\ 0 & 0 &\ldots & A_{n-1}\end{bmatrix} \mbox{ con }A_1=\begin{bmatrix}{0}&{1}\\{0}&{0}\end{bmatrix},A_i=[0],\;(2\leq i\leq n-1),$

que es la forma de Jordan que obtuvimos en el caso particular del primer apartado.

Esta entrada fue publicada en Álgebra. Guarda el enlace permanente.