Matrices ortogonales

Proporcionamos ejercicios sobre matrices ortogonales.

RESUMEN TEÓRICO
    Enunciado
  1. $(a)\;$ Demostrar que una matriz $A$ es ortogonal si, y sólo si $A^tA=I.$
    $(b)\;$Comprobar que las siguientes matrices son ortogonales: $$M=\begin{bmatrix}{\cos \alpha}&-\operatorname{sen}\alpha\\{\operatorname{sen}\alpha}&{\cos \alpha}\end{bmatrix},\quad N=\dfrac{1}{3}\begin{bmatrix}{2}&{-2}&{1}\\{2}&{1}&{-2}\\{1}&{2}&{2}\end{bmatrix}.$$
  2. Demostrar las propiedades
    $(a)\;$ El producto de dos matrices ortogonales y del mismo orden es una matriz ortogonal.
    $(b)\;$ La matriz identidad de cualquier orden es ortogonal.
    $(c)\;$ La inversa de una matriz ortogonal es ortogonal.
    Nota. Estas propiedades garantizan que el conjunto de las matrices ortogonales y del mismo orden tiene estructura de grupo con respecto de la multiplicación.
  3. Demostrar las propiedades
    $(a)\;$ La traspuesta de una matriz ortogonal es ortogonal.
    $(b)\;$ El determinante de una matriz ortogonal es $1$ o $-1.$
    $(c)\;$ Si $\lambda$ es valor propio real de una matriz ortogonal, entonces $\lambda=1$ o $\lambda=-1.$
  4. Demostrar que una matriz $A$ es ortogonal si, y sólo si sus vectores columnas forman un sistema ortonormal con el producto escalar usual.
  5. Determinar los valores de $s$ y $t$ para los cuales es ortogonal la matriz $$A=\dfrac{1}{7}\begin{bmatrix}{2}&{t}&{s}\\{3}&{s}&{2}\\{s}&{-2}&{t}\end{bmatrix}.$$
  6. Demostrar que cualquier matriz ortogonal de orden $2$ tiene alguna de las dos formas $$\begin{bmatrix}{\cos \theta}&-\operatorname{sen}\theta\\{\operatorname{sen}\theta}&{\cos \theta}\end{bmatrix},\quad \begin{bmatrix}{\cos \theta}&\operatorname{sen}\theta\\{\operatorname{sen}\theta}&{-\cos \theta}\end{bmatrix}$$
  7. Demostrar que en un espacio euclídeo de dimensión finita, la matriz de cambio de una base ortonormal a otra ortonormal es ortogonal.
  8. Si $A$ y $B$ son matrices ortogonales y del mismo orden, entonces $AB$ y $BA$ también son matrices ortogonales, pero no siempre la suma lo es. Se trata de encontrar todas las parejas de matrices ortogonales de orden dos y de orden tres tales que $S=A+B$ sea ortogonal.
    $1)$ Supongamos que $B$ es la matriz identidad de orden dos ($B=I$). Determinar todas las matrices ortogonales de orden dos $A$ de manera que la suma $S=A+I$ sea ortogonal.
    $2)$ Supongamos que $B$ es una matriz ortogonal dada de orden dos (no necesariamente la identidad). Determinar todas las matrices ortogonales $A$ tales que $S=A+B$ sea ortogonal.
    Indicación. Multiplicar por la izquierda por $B^T$ los dos miembros de la igualdad.
    $3)$ Las mismas cuestiones suponiendo matrices de orden tres.
    Solución
  1. $(a)\;$ Si $A$ es ortogonal, $A^{-1}=A^t.$ Multiplicando por $A$ a la derecha queda $I=A^tA.$ Recíprocamente, si $A^tA=I,$ por la definición y unicidad de la inversa, $A^{-1}=A^t.$
    $(b)\;$ Usando el apartado anterior $$M^tM=\begin{bmatrix}{\cos \alpha}&\operatorname{sen}\alpha\\{-\operatorname{sen}\alpha}&{\cos \alpha}\end{bmatrix}\begin{bmatrix}{\cos \alpha}&-\operatorname{sen}\alpha\\{\operatorname{sen}\alpha}&{\cos \alpha}\end{bmatrix}$$ $$=\begin{bmatrix}{\cos^2\alpha+\operatorname{sen}^2\alpha}&0\\{0}&{\operatorname{sen}^2\alpha+\cos^2 \alpha}\end{bmatrix}=\begin{bmatrix}{1}&{0}\\{0}&{1}\end{bmatrix}.$$ Es decir, $M$ es matriz ortogonal. $$N^tN=\dfrac{1}{3}\begin{bmatrix}{2}&{2}&{1}\\{-2}&{1}&{2}\\{1}&{-2}&{2}\end{bmatrix}\dfrac{1}{3}\begin{bmatrix}{2}&{-2}&{1}\\{2}&{1}&{-2}\\{1}&{2}&{2}\end{bmatrix}$$ $$=\dfrac{1}{9}\begin{bmatrix}{9}&{0}&{0}\\{0}&{9}&{0}\\{0}&{0}&{9}\end{bmatrix}=\begin{bmatrix}{1}&{0}&{0}\\{0}&{1}&{0}\\{0}&{0}&{1}\end{bmatrix},$$ luego $N$ es ortogonal.
  2. $(a)\;$ Si $A$ y $B$ son ortogonales y del mismo orden: $$(AB)^t(AB)=B^tA^tAB=B^tIB=B^tB=I\Rightarrow AB\text{ es ortogonal.}$$ $(b)\;$ $I^tI=II=I\Rightarrow A$ es ortogonal.
    $(c)\;$ Si $A$ es ortogonal, $A^{-1}=A^t,$ por tanto $$\left(A^{-1}\right)^tA^{-1}=\left(A^{t}\right)^{t}A^{-1}=AA^{-1}=I\Rightarrow A^{-1}\text{ es ortogonal.}$$
  3. $(a)\;$ Si $A$ es ortogonal, $A^{-1}=A^t$ y vimos que la inversa de una matriz ortogonal es ortogonal, por tanto $A^t$ es ortogonal.
    $(b)\;$ Si $A$ es ortogonal, $A^tA=I.$ Tomando determinantes, $\left|A^tA\right|=\left|I\right|=1.$ Ahora bien $$\left|A^tA\right|=\left|A^t\right|\left|A\right|=\left|A\right|\left|A\right|=\left|A\right|^2=1\Rightarrow \left|A\right|=1\text{ o }\left|A\right|=-1.$$ $(c)\;$ El producto escalar usual de dos vectores de $\mathbb{R}^n,$ $$u=(u_1,\ldots,u_n)^t,\quad v=(v_1,\ldots,v_n)^t$$ se puede expresar en la forma $$\langle u,v\rangle=u_1v_1+\cdots+u_nv_n=\begin{pmatrix}u_1,\ldots,u_n\end{pmatrix}\begin{pmatrix}v_1\\ \vdots\\{v_n}\end{pmatrix}=u^tv.\quad (*)$$ Sea ahora $A$ matriz ortogonal y $\lambda\in\mathbb{R}$ un valor propio de $A.$ Existe un vector columna $x\neq 0$ de $\mathbb{R}^n$ tal que $Ax=\lambda x.$ Usando el producto escalar usual y $(*):$ $$\langle Ax,Ax\rangle=(Ax)^t(Ax)=x^tA^tAx=x^tIx=x^tx=\langle x,x\rangle=\left\|x\right\|^2\neq 0.$$ Por otra parte $\langle \lambda x,\lambda x\rangle=\lambda^2\langle x,x\rangle=\lambda^2 \left\|x\right\|^2.$ Entonces, $$\langle Ax,Ax\rangle=\langle \lambda x,\lambda x\rangle\Rightarrow \left\|x\right\|^2=\lambda^2 \left\|x\right\|^2\Rightarrow \lambda^2=1\Rightarrow \lambda=1\text{ o }\lambda=-1.$$
  4. Si $C_1,\ldots,C_n$ son las columnas de $A,$ $$A^tA=\begin{bmatrix}C_1^t\\{C_2^t}\\ \vdots\\{C_n^t}\end{bmatrix}\begin{bmatrix}C_1,C_2,\ldots,C_n\end{bmatrix}=\begin{bmatrix} C_1^tC_1 & C_1^tC_2 & \ldots & C_1^tC_n\\ C_2^tC_1 &C_2^tC_2 & \ldots & C_2^tC_n \\ \vdots&&&\vdots \\ C_n^tC_1 & C_n^tC_2 &\ldots & C_n^tC_n\end{bmatrix}$$ $$=\begin{bmatrix} \langle C_1,C_1\rangle & \langle C_1,C_2\rangle & \ldots & \langle C_1,C_n\rangle\\ \langle C_2,C_1\rangle & \langle C_2,C_2\rangle & \ldots & \langle C_2,C_n\rangle \\ \vdots&&&\vdots \\ \langle C_n,C_1\rangle & \langle C_n,C_2\rangle &\ldots & \langle C_n,C_n\rangle\end{bmatrix}.$$ En consecuencia, $$A\text{ es ortogonal }\Leftrightarrow A^tA=I\Leftrightarrow \left \{ \begin{matrix} \langle C_i,C_j\rangle=0& i\neq j\\\langle C_i,C_i\rangle=1 & \forall i=1,\ldots,n,\end{matrix}\right.$$ de lo cual se concluye la propiedad.
  5. La norma de cada columna ha de ser $1:$ $$\left\|C_1\right\|^2=\dfrac{2^2+3^2+s^2}{49}=1\Leftrightarrow s^2=36\Leftrightarrow s=\pm 6.$$ $$\left\|C_2\right\|^2=\dfrac{t^2+s^2+(-2)^2}{49}=1\Leftrightarrow s^2+t^2=45.$$ $$\left\|C_3\right\|^2=\dfrac{s^2+2^2+t^2}{49}=1\Leftrightarrow s^2+t^2=45.$$ Necesariamente ha de ser $s=\pm6$ y $t=\sqrt{45-36}=\pm3. $ Es decir, la matriz sólo puede ser ortogonal cuando $(s,t)$ toma los valores $(6,3),$ $(6,-3),$ $(-6,3),$ o $(-6,-3).$
    Sustituyendo estos valores en $A,$ observamos que las tres columnas son ortogonales dos a dos sólo en el caso $(s,t)=(6,-3),$ único caso en el que $A$ es ortogonal.
  6. Si $A$ es matriz ortogonal de orden $2,$ su primera columna $C_1$ ha de tener norma $1$ lo cual obliga a ésta a ser de la forma $C_1=\begin{bmatrix}{\cos \theta}\\{\operatorname{sen}\theta}\end{bmatrix}.$
    La segunda columna $C_2$ de $A$ ha de tener norma $1$ y ser ortogonal a la primera. Esto sólo puede suceder si $C_2=\begin{bmatrix}-\operatorname{sen}\theta\\{\cos \theta}\end{bmatrix}$ o si $C_2=\begin{bmatrix}\operatorname{sen}\theta\\{-\cos \theta}\end{bmatrix}.$
  7. Si $B$ y $B’$ son dos bases ortonormales de un espacio euclideo de dimensión finita, sabemos que la matriz de Gram del producto escalar $\langle \;,\rangle$ en la base $B$ es la identidad $I$ y en la $B’,$ también $I$
    Dado que $\langle \;,\rangle$ es una forma bilineal, si $P$ es la matriz de cambio de la base $B$ a la $B’$ la matriz de Gram en $B’$ es $P^tIP,$ por tanto $P^tIP=I.$ Es decir, $P^tP=I$ lo cual implica que $P$ es ortogonal.
  8. $1)$ Sea $A=\begin{bmatrix}{x}&{y}\\{z}&{t}\end{bmatrix}$ ortogonal. Entonces, $$A+I\text{ es ortogonal}\Leftrightarrow (A+I)^T(A+I)=I\Leftrightarrow \left(A^T+I\right)(A+I)=I$$$$\Leftrightarrow A^TA+A+A^T+I=I\Leftrightarrow I+A+A^T+I=I\Leftrightarrow A+A^T=-I$$ $$\Leftrightarrow \begin{bmatrix}{x}&{z}\\{y}&{t}\end{bmatrix}+\begin{bmatrix}{x}&{y}\\{z}&{t}\end{bmatrix}=\begin{bmatrix}{-1}&{\;\;0}\\{\;\;0}&{-1}\end{bmatrix}\Leftrightarrow \left \{ \begin{matrix} \displaystyle\begin{aligned} & 2x=-1\\& y+z=0\\& 2t=-1. \end{aligned}\end{matrix}\right.$$ Resolviendo, obtenemos las matrices $A$ de orden dos tales que $S=A+I$ es ortogonal $$A=\begin{bmatrix}{-1/2}&{-\alpha}\\{\alpha}&{-1/2}\end{bmatrix}\quad (\alpha\in\mathbb{R}).$$ Como $A$ es ortogonal, sus vectores columna han de formar un sistema ortonormal con el producto escalar usual. Claramente, forman un sistema ortogonal. Obligando a que sea unitario obtenemos $\alpha^2+1/4=1,$ es decir $\alpha=\pm\sqrt{3}/2.$ La matrices $A$ pedidas son por tanto $$A_1=\begin{bmatrix}{-1/2}&{-\sqrt{3}/2}\\{\sqrt{3}/2}&{-1/2}\end{bmatrix},\quad A_2=\begin{bmatrix}{-1/2}&{\sqrt{3}/2}\\{-\sqrt{3}/2}&{-1/2}\end{bmatrix}.$$ $2)$ Sea $B$ matriz ortogonal de orden dos dada. Hallemos todas las matrices ortogonales $A$ tales que la suma $S=A+B$ es ortogonal. Usando la indicación dada, $$B^TS=B^T(A+B)=B^TA+B^TB=B^TA+I.$$ Según lo demostrado en el apartado anterior, $B^TA=A_1$ o $B^TA=A_2,$ es decir $A=BA_1$ o $A=BA_2.$
    $3)$ Los razonamientos hechos anteriormente son independientes del orden de la matriz, sólo difieren los cálculos. Llamemos $$A=\begin{bmatrix}{x_1}&{y_1}&{z_1}\\{x_2}&{y_2}&{z_2}\\{x_3}&{y_3}&{z_3}\end{bmatrix}.$$ Imponiendo $A+A^T=-I$ y resolviendo el sistema obtenemos $$A=\begin{bmatrix}{-1/2}&{-\alpha}&{-\beta}\\{\alpha}&{-1/2}&{-\gamma}\\{\beta}&{\gamma}&{-1/2}\end{bmatrix}\quad (\alpha,\beta,\gamma\in\mathbb{R}).$$ Imponiendo que la matriz sea ortogonal, $$\left \{ \begin{matrix} \displaystyle\begin{aligned} & \alpha^2+\beta^2+1/4=1\\& \alpha^2+\gamma^2+1/4=1\\& \beta^2+\gamma^2+1/4=1, \end{aligned}\end{matrix}\right.\quad \left \{ \begin{matrix} \displaystyle\begin{aligned} & \beta\gamma=0\\& \alpha\gamma =0\\& \alpha\beta=0. \end{aligned}\end{matrix}\right.$$ No existen $\alpha,\beta,\gamma$ cumpliendo las relaciones anteriores pues por ejemplo, tomando $\alpha=\beta=0$ (dos de las variables han de ser nulas para que se verifiquen las tres últimas igualdades), tendríamos $1/4=1$ (absurdo).
Esta entrada fue publicada en Álgebra. Guarda el enlace permanente.