Operador simétrico, teorema espectral

Proporcionamos ejercicios sobre el operador simétrico y el teorema espectral.

RESUMEN TEÓRICO
  • Nota. Todos los espacios euclídeos que se consideran en esta sección, los suponemos de dimensión finita.
  • Definición.  Se dice que un operador $T$ en un espacio euclídeo $E$ es simétrico si, y sólo si coincide con su traspuesto:  $T=T^t.$ Es decir,  $T$ simétrico equivale a decir $$\langle x,T(y) \rangle=\langle T^t(x), y \rangle\quad \forall x,y\in E.$$
  • Consecuencias.  De las propiedades del operador traspuesto, se deduce de manera inmediata que:
    $1.\;$ $T$ es simétrico si, y sólo si la matriz $A$ de $T$ en una base ortonormal es simétrica.
    $2.\;$ Si $B$ es una base cualquiera de $E,$ $G$ la matriz de Gram en $B$ y $A$ la matriz de $T$ en $B,$ entonces $T$ es simétrico $\Leftrightarrow GA=A^tG.$
    $3.\;$ Dos subespacios propios de $T$ que corresponden a valores propios distintos son ortogonales.
  • Teorema.  Todo operador simétrico en un espacio euclídeo de dimensión $n$ tiene $n$ valores propios reales, contando multiplicidades.
  • Teorema.  El subespacio ortogonal a un vector propio de un operador simétrico $T$ en un espacio euclídeo $E$ es invariante por este operador.
  • Teorema espectral (para operadores simétricos). Sea $T$ un operador simétrico en un espacio euclídeo $E.$ Entonces, existe al menos una base ortonormal de $E$ formada por vectores propios de $T.$
  • Consecuencia.  Todo operador simétrico es diagonalizable.
    Enunciado
  1. En el espacio euclídeo $\left(\mathbb{R}^3,\langle \;,\;\rangle\right)$ donde $\langle \;,\;\rangle$ representa el producto escalar usual, se considera $T\in\text{End}\left(\mathbb{R}^3\right)$ dado por: $$T(x,y,z)=(x+4y+8z,\;4x+16y+32z,\:8x+32y+64z).$$ Demostrar que $T$ es simétrico.
  2. En $\mathbb{R}^2$ con el producto escalar $$\langle (x_1,x_2),(y_1,y_2)\rangle=\begin{pmatrix}{x_1},{x_2}\end{pmatrix}\begin{pmatrix}{1}&{2}\\{2}&{5}\end{pmatrix}\begin{pmatrix}y_1\\{y_2}\end{pmatrix},$$ analizar si es simétrico el operador $T(x_1,x_2)=(2x_1,x_1-x_2).$
  3. En $\mathbb{R}^2$ se considera el operador $T$ cuya matriz en una base ortonormal $B=\{u_1,u_2\}$ es $A=\begin{bmatrix}{1}&{-2}\\{-2}&{1}\end{bmatrix}.$ Demostrar que $T$ es simétrico, hallar una base ortonormal formada por vectores propios y la matriz diagonal correspondiente.
  4. Sea la matriz simétrica $A=\left( \begin{matrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \\\end{matrix} \right)$
    (i) Hallar los valores propios de $A$. Comprobar que son reales.
    (ii) Hallar unas bases de los subespacios propios. Comprobar que $A$ es diagonalizable en $\mathbb{R}.$
    (iii) Comprobar que vectores propios de esas bases asociados a valores propios distintos son ortogonales con el producto escalar usual.
    (iv) Hallar una base de $\mathbb{R}^3$ ortonormal y de vectores propios.
    (v) Comprobar que la matriz $P$ de cambio de base de la canónica a la del apartado anterior es ortogonal.
    (vi) Clasificar la forma cuadrática $q:\mathbb{R}^3\rightarrow{\mathbb{R}}$ dada por $q(x)=x^tAx.$
  5. Demostrar que todo operador simétrico en un espacio euclídeo de dimensión $n$ tiene $n$ valores propios reales, contando multiplicidades.
  6. Demostrar que el subespacio ortogonal a un vector propio de un operador simétrico $T$ en un espacio euclídeo $E$ es invariante por este operador.
  7. Demostrar el teorema espectral para operadores simétricos:
    Sea $T$ un operador simétrico en un espacio euclídeo $E.$ Entonces, existe al menos una base ortonormal de $E$ formada por vectores propios de $T.$
  8. Sea $W$ un subespacio de un espacio euclídeo de dimensión finita $V$. Para cualquier $v\in V,$ sea $v=w+w’$ con $w \in W,$ $w’\in W^\bot.$ Se define $T:V\rightarrow V$ por $T(v)=w-w’$. Probar $T$ es un operador simétrico de $V.$
  9. Estudiar para qué valores de $a,b\in\mathbb{R}$ las siguientes matrices son congruentes $$A=\begin{bmatrix}{a}&{b}\\{b}&{a}\end{bmatrix},\quad B=\begin{bmatrix}{3}&{2}\\{2}&{3}\end{bmatrix}.$$
    Solución
  1. La expresión matricial de $T$ en la base canónica de $\mathbb{R}^3$ es: $$T\begin{bmatrix}x\\y\\z\end{bmatrix}=\begin{bmatrix}{1}&{4}&{8}\\{4}&{16}&{32}\\{8}&{32}&{64}\end{bmatrix}\begin{bmatrix}x\\y\\z\end{bmatrix}.$$ La base canónica de $\mathbb{R}^3$ es ortonormal con el producto escalar, y su matriz en tal base es simétrica, en consecuencia $T$ es simétrico.
  2. Respecto de la base canónica de $\mathbb{R}^2$ las matrices de Gram y de $T$ son respectivamente $$G=\begin{pmatrix}{1}&{2}\\{2}&{5}\end{pmatrix},\quad A=\begin{pmatrix}{2}&{0}\\{1}&{-1}\end{pmatrix},$$ Tenemos $$GA=\begin{pmatrix}{1}&{2}\\{2}&{5}\end{pmatrix}\begin{pmatrix}{2}&{0}\\{1}&{-1}\end{pmatrix}=\begin{pmatrix}{4}&{-2}\\{9}&{-5}\end{pmatrix},$$ $$A^tG=\begin{pmatrix}{2}&{1}\\{0}&{-1}\end{pmatrix}\begin{pmatrix}{1}&{2}\\{2}&{5}\end{pmatrix}=\begin{pmatrix}{4}&{9}\\{-2}&{-5}\end{pmatrix}.$$ Dado que $GA\neq A^tG,$ el operador $T$ no es simétrico.
  3. Como $B$ es ortonormal y $A$ es simétrica, el operador $T$ es simétrico.
    Valores propios de $T:$ $$\chi (\lambda)=\begin{vmatrix}{1-\lambda}&{-2}\\{-2}&{1-\lambda}\end{vmatrix}=\lambda^2-2\lambda-3=0\Leftrightarrow\lambda=-1\vee\lambda=3\text{ (simples)}.$$ Subespacios propios: $$V_{-1}\equiv \left \{ \begin{matrix} 2x_1-2x_2=0\\-2x_1+2x_2=0,\end{matrix}\right.\qquad V_{3}\equiv \left \{ \begin{matrix} -2x_1-2x_2=0\\-2x_1-2x_2=0.\end{matrix}\right.$$ Una base de $V_{-1}$ (en coordenadas en $B$) es $\{(1,1)^t\}$. Por tanto, una base de $V_{-1}$ es $B_{V_{-1}}=\{u_1+u_2\}$. Análogamente obtenemos $B_{V_3}=\{u_1-u_2\}.$ Una base de $V_{-1}$ (en coordenadas en $B$) es $\{(1,1)^t\}$. Por tanto, una base de $V_{-1}$ es $B_{V_{-1}}=\{u_1+u_2\}$. Análogamente obtenemos $B_{V_3}=\{u_1-u_2\}.$
    Como $T$ es simétrico los vectores $u_1+u_2$ y $u_1-u_2$ son ortogonales, por tanto una base ortogonal de $\mathbb{R}^2$ formada por vectores propios de $T$ es $\{u_1+u_2,u_1-u_2\}.$ Dividiendo cada vector entre su norma, obtenemos una base ortonormal de $\mathbb{R}^2$ formada por vectores propios de $T:$ $$B’=\left\{\frac{1}{\sqrt{2}}(u_1+u_2),\frac{1}{\sqrt{2}}(u_1-u_2)\right\},$$ y la matriz de $T$ en $B’$ es $$D=\begin{bmatrix}{-1}&{0}\\{0}&{3}\end{bmatrix}.$$
  4. (i) Restando a la segunda y tercera filas la primera y posteriormente sumando a la primera columna las demás en $\left |{A-\lambda I}\right |$ obtenemos: $$\begin{vmatrix}{2-\lambda}&{1}&{1}\\{1}&{2-\lambda}&{1}\\{1}&{1}&{2-\lambda}\end{vmatrix}=\begin{vmatrix}{\;\;2-\lambda}&{1}&{1}\\{-1+\lambda}&{1-\lambda}&{0}\\{-1+\lambda}&{0}&{1-\lambda}\end{vmatrix}=\begin{vmatrix}{4-\lambda}&{1}&{1}\\{0}&{1-\lambda}&{0}\\{0}&{0}&{1-\lambda}\end{vmatrix}$$$$=(4-\lambda)(1-\lambda)^2=0\Leftrightarrow{\lambda=4\;\textrm{(simple)}},\;\lambda=1\;\textrm{(doble)}.$$ Los valores propios son reales como era de esperar, pues la matriz dada $A$ representa un operador simétrico respecto de la base canónica, que con el producto escalar usual es ortonormal. Por el teorema espectral, $A$ debe ser diagonalizable en $\mathbb{R}.$
    (ii) Subespacios propios $$\ker(A-4I)\equiv \left \{ \begin{matrix} -2x_1+x_2+x_3=0\\\;\;\; x_1-2x_2+x_3=0\\ \;\;\;x_1+x_2-2x_3=0,\end{matrix}\right. \qquad \ker(A-I)\equiv \left \{ \begin{matrix} x_1+x_2+x_3=0\\ x_1+x_2+x_3=0\\ x_1+x_2+x_3=0.\end{matrix}\right.$$ Entonces, $\dim \ker(A-4I)=1$ ($\lambda=4$ simple) y $\dim \ker(A-I)=3-\textrm{rg}(A-I)=2$. Al coincidir las dimensiones con las multiplicidades, $A$ es diagonalizable como era de esperar según el teorema espectral. Unas bases de los subespacios propios son: $$B_4=\left\{{(1,1,1)}\right\}\;,\;\; B_1=\left\{{(-1,1,0),(-1,0,1)}\right\}.$$ (iii) Tenemos $$\left<{(1,1,1),(-1,1,0)}\right>=-1+1=0,\;\left<{(1,1,1),(-1,0,1)}\right>=-1+1=0.$$ Como era de esperar, pues de acuerdo con el teorema espectral, vectores propios asociados a valores propios distintos son ortogonales. Por supuesto si están asociados a un mismo valor propio no tienen por qué ser ortogonales. Tomemos por ejemplo $$\left<{(-1,1,0),(-1,0,1)}\right>=1\neq{0}.$$ (iv) Bastará elegir en cada subespacio propio de dimensión mayor que 1 una base ortogonal (luego se normalizará). Para ello basta elegir una base cualquiera y aplicar el método de Schmidt. Ahora bien, en nuestro caso, una base de $\ker (A-I)$ ortogonal encontrada por simple observación es $\left\{{(1,-1,0),(1,1,-2)}\right\}$. Dividiendo entre las normas obtenemos la base pedida: $$ B=\left\{\dfrac{1}{\sqrt[ ]{3}}(1,1,1), \dfrac{1}{\sqrt[ ]{2}}(1,-1,0), \dfrac{1}{\sqrt[ ]{6}}(1,1,-2) \right\} .$$ (v) La matriz $P$ de cambio es: $ P=\begin{pmatrix}{\dfrac{1}{\sqrt[ ]{3}}}&{\dfrac{1}{\sqrt[ ]{2}}}&{\dfrac{1}{\sqrt[ ]{6}}}\\{\dfrac{1}{\sqrt[ ]{3}}}&{\dfrac{-1}{\sqrt[ ]{2}}}&{\dfrac{1}{\sqrt[ ]{6}}}\\{ \dfrac{1}{\sqrt[ ]{3}} }& {0} & {\dfrac{-2}{\sqrt[ ]{6}}}\end{pmatrix}.$
    Operando obtenemos $P^tP=\ldots=I$ (o equivalentemente $P^t=P^{-1}$) como era de esperar, ya que la matriz de cambio de una base ortonormal a otra ortonormal es siempre ortogonal.
    (vi) Dado que $P^{-1}AP=P^tAP=D=\textrm{diag}(4,1,1)$, la base $B$ no solo diagonaliza el endomorfismo dado por la matriz simétrica $A$, también la forma cuadrática dada por $A$. Es decir, una reducida diagonal de $q$ es $D$ y en consecuencia $q$ es definida positiva.
  5. Sea $A=[a_{ij}]$ la matriz simétrica que representa a $T$ respecto de una base ortonormal. El polinomio característico de $A$ tiene $n$ valores propios complejos, contando multiplicidades. Sea $\lambda$ un valor propio de $A$ (a priori complejo). Existe un vector columna $X=[x_i]\in\mathbb{C}^n$ no nulo tal que $AX=\lambda X.$ Multiplicando por $\bar{X}^t:$ $$\bar{X}^tAX=\lambda \bar{X}^tX.$$ Veamos que $\bar{X}^tX$ y $\bar{X}^tAX=$ son reales. Por una parte, $$\bar{X}^tX=\sum_{i=1}^n\overline{x_i}x_i=\sum_{i=1}^n\left|x_i\right|^2\in\mathbb{R},\text{ y no nulo}.$$ Por otra parte, $$\bar{X}^tAX=\sum_{i,j=1}^na_{ij}\overline{x_i}x_j.$$ Siendo la matriz $A$ simétrica y real, el conjugado de $\bar{X}^tAX$ es $$\sum_{i,j=1}^n a_{ij}x_i\overline{x_j}=\sum_{i,j=1}^n a_{ji}x_i\overline{x_j}=\bar{X}^tAX,$$ lo cual implica que $\bar{X}^tAX$ es real. En consecuencia, $$\lambda=\dfrac{\bar{X}^tAX}{\bar{X}^tX}\in\mathbb{R}.$$
  6. Si $x\in E$ es vector propio de $T$ e $y\in E$ es ortogonal a $x,$ se verifica $T(x)=\lambda x$ (para cierto $\lambda\in\mathbb{R}$) y $\langle x,y \rangle=0.$ Usando que $T$ es simétrico, $$\langle T(x),y \rangle=\langle x,T(y) \rangle\Rightarrow \langle \lambda x,y \rangle=\langle x,T(y) \rangle\Rightarrow \langle \lambda x,y \rangle=\langle x,T(y) \rangle$$ $$\Rightarrow \lambda\langle x,y \rangle=\langle x,T(y) \rangle\Rightarrow \lambda\cdot 0=\langle x,T(y) \rangle\Rightarrow \langle x,T(y) \rangle=0\Rightarrow T(y)\perp x.$$ Es decir, todo vector ortogonal a $x$ se trasnforma en otro también ortogonal a $x.$
  7. Como $T$ simétrico, sabemos que su polinomio característico se descompone por completo en el cuerpo de los reales. Si $\dim E=n$ y las $n$ raíces son distintas dos a dos, $T$ es diagonalizable y si $B$ es base de vectores propios en $E,$ estará formada por vectores ortogonales dos a dos. Normalizando los vectores de $B$, obtenemos una base ortonormal de $E$ formada por vectores propios de $T.$
    El proceso es generalizable incluso en el caso de raíces múltiples. Sea $u_1$ un vector propio de $T.$ Llamemos $F_1=L[u_1]^{\perp}.$ Sabemos que $F_1$ es invariante, por tanto $T$ induce un operador $T_1$ en $F_1:$ $$T_1:F_1\to F_1,\quad T_1(x)=T(x),$$ siendo $T_1$ simétrico de manera obvia y $\dim F_1=n-1.$ Sea $u_2\in F_1$ un vector propio de $T_1.$ Este vector es vector propio de $T$ y ortogonal a $u_2.$
    Podemos continuar de esta manera. El subespacio $F_2$ ortogonal a $L[u_1,u_2]$ es invariante por $T$ (¿por qué?), por tanto induce un operador $T_2$ en $F_2:$ $$T_2:F_2\to F_2,\quad T_2(x)=T(x),$$ siendo $T_2$ simétrico de manera obvia y $\dim F_2=n-2.$ Sea $u_3\in F_2$ un vector propio de $T_2.$ Este vector es vector propio de $T$ y ortogonal a $u_1$ y $u_2.$ Reiterando el proceso, obtenemos una base de $B=\{u_1,\ldots,u_n\}$ de $E$ ortogonal y formada por vectores propios de $T.$ Basta ahora dividir cada vector de $B$ entre su norma.
  8. Como $V= W\oplus W^\bot,$ la descomposición $v=w+w’$ es única, por tanto la aplicación $T$ está bien definida. Para todo $x,y\in V$ podemos expresar$$x=x_1+x_2\text{ con } x_1\in W,\;x_2\in W^{\perp},\;\; y=y_1+y_2\text{ con } y_1\in W,\;y_2\in W^{\perp}.$$ Entonces, $$\displaystyle\langle x,T(y)\rangle=\langle x_1+x_2,y_1-y_2\rangle=\langle x_1,y_1\rangle+\langle x_2,y_1\rangle-\langle x_1,y_2\rangle-\langle x_2,y_2\rangle$$ $$=\langle x_1,y_1\rangle+0-0-\langle x_2,y_2\rangle=\langle x_1,y_1\rangle-\langle x_2,y_2\rangle.$$ $$\displaystyle\langle T(x),y\rangle=\langle x_1-x_2,y_1+y_2\rangle=\langle x_1,y_1\rangle-\langle x_2,y_1\rangle+\langle x_1,y_2\rangle-\langle x_2,y_2\rangle$$ $$=\langle x_1,y_1\rangle-0+0-\langle x_2,y_2\rangle=\langle x_1,y_1\rangle-\langle x_2,y_2\rangle.$$ es decir, $\langle x,T(y)\rangle=\langle T(x),y\rangle$ para todo $x,y\in V,$ luego $T$ es simétrico.
  9. Sabemos que dos matrices simétricas son congruentes si, y sólo si tienen la misma signatura. Las matrices dadas son simétricas y por tanto para hallar una matriz diagonal de cada una de ellas, podemos aplicar el teorema espectral. Valores propios de $A$ y de $B:$ $$\begin{vmatrix}{a-\lambda}&{b}\\{b}&{a-\lambda}\end{vmatrix}\underbrace{=}_{F_2-F_1}\begin{vmatrix}{a-\lambda}&{b}\\{b-a+\lambda}&{a-b-\lambda}\end{vmatrix}\underbrace{=}_{C_1+C_2}\begin{vmatrix}{a+b-\lambda}&{b}\\{0}&{a-b-\lambda}\end{vmatrix}$$ $$=(a+b-\lambda)(a-b-\lambda)=0\Leftrightarrow \lambda=a+b\vee\lambda=a-b.$$ $$\begin{vmatrix}{3-\lambda}&{2}\\{2}&{3-\lambda}\end{vmatrix}=\lambda^2-5\lambda +2=0\Leftrightarrow \lambda=\frac{5+\sqrt{17}}{2}\vee \lambda =\frac{5-\sqrt{17}}{2}.$$ Los valores propios de $B$ son positivos, en consecuencia $$A\text{ y }B\text{ son congruentes} \Leftrightarrow (a+b>0)\wedge (a-b>0).$$
Esta entrada ha sido publicada en Álgebra y etiquetada como , , , . Guarda el enlace permanente.