Descomposición en valores singulares

Enunciado
1.  Demostrar el teorema de descomposición en valores singulares:
Sea $A\in\mathbb{C}^{m\times n}$. Existen matrices unitarias $Q_1\in\mathbb{C}^{m\times m}$, $Q_2\in\mathbb{C}^{n\times n}$ tales que $Q_1^*AQ_2=\mathcal{S}\in \mathbb{R}^{m\times n}$ siendo

$(i)\quad \mathcal{S}=\begin{bmatrix} \sigma_1 & 0 & \ldots & 0 & 0 & \ldots & 0 \\ 0 & \sigma_2 & \ldots & 0 & 0 & \ldots & 0 \\ \vdots&&&&&&\vdots \\ 0 & 0 &\ldots & \sigma_m & 0 & \ldots & 0 \end{bmatrix}\quad \textrm{si}\;m<n.$

$(ii)\quad \mathcal{S}=\begin{bmatrix} \sigma_1 & 0 & \ldots & 0 \\ 0 & \sigma_2 & \ldots & 0 \\ \vdots&&&\vdots \\ 0 & 0 &\ldots & \sigma_n \\0 & 0 & \ldots & 0 \\ \vdots&&&\vdots \\ 0 & 0 & \ldots & 0 \end{bmatrix}\quad \textrm{si}\;m>n.$

$(iii)\quad \mathcal{S}=\begin{bmatrix} \sigma_1 & 0 & \ldots & 0 \\ 0 & \sigma_2 & \ldots & 0 \\ \vdots&&&\vdots \\ 0 & 0 &\ldots & \sigma_n \end{bmatrix}\quad \textrm{si}\;m=n,$

con $\sigma_1,\sigma_2,\ldots,\sigma_p$ todos $\geq 0$ y $p=\min \{m,n\}$. A los números $\sigma_1,\sigma_2,\ldots,\sigma_p$ se les llama valores singulares de $A$.

2. (Propuesto en examen, Álgebra, ETS de Ing. Industriales, UPM).
Dada la matriz $A=\dfrac{\sqrt{2}}{6}\begin{bmatrix}{\;\;4}&{\;\;0}\\{-5}&{\;\;3}\\{-2}&{-6}\end{bmatrix}$ calcular números $\sigma_1,\sigma_2$ y matrices $U,V$ que verifiquen:

(a) $\sigma_1\geq 0,\sigma_2\geq 0$.
(b) $U\in\mathbb{R}^{2\times 2}$ y $V\in\mathbb{R}^{3\times 3}$ son ortogonales.
(c) $V^tAU=\begin{bmatrix}{\sigma_1}&{0}\\{0}&{\sigma_2}\\{0}&{0}\end{bmatrix}.$

Solución
1. Efectivamente, la matriz $A^*A\in\mathbb{C}^{n\times n}$ cumple $$(A^*A)^*=A^*(A^*)^*=A^*A,$$ por tanto es hermítica. Como consecuencia del teorema espectral existe una base ortonormal $\{e_1,\ldots,e_n\}$ en $\mathbb{C}^n$ formada por vectores propios de $A^*A$. Sea $\lambda_i$ valor propio de $A^*A$ asociado al vector propio $e_i$ es decir, $A^*Ae_i=\lambda_ie_i$. Tenemos

$e_i^*A^*Ae_i=\lambda_ie_i^*e_i=\lambda_i\Rightarrow \lambda_i=(Ae_i)^*(Ae_i)=\left<{Ae_i,Ae_i}\right>\geq 0.$

Supondremos sin pérdida de generalidad que

$\lambda_1>0\:,\;\ldots\;,\;\lambda_r>0\;,\;\lambda_{r+1}=0\;,\;\ldots\;,\;\lambda_n=0.$

Llamemos  $\left \{ \begin{matrix}  \sigma_i=\sqrt{\lambda_i}\;,\;v_i=\dfrac{1}{\sigma_i}Ae_i\in \mathbb{C}^m \quad (i=1,\ldots,r)\\\sigma_i=0 \quad (i=r+1,\ldots,p)\text{ con }p=\min\{m,n\}.\end{matrix}\right.$

La familia $\{v_1,\ldots,v_r\}$ es ortonormal. Efectivamente

$(i)\quad\left<{v_i,v_j}\right>=\left(\dfrac{1}{\sigma_i}Ae_i\right)^*\left(\dfrac{1}{\sigma_j}Ae_j\right)=\dfrac{1}{\sigma_i\sigma_j}e_i^*A^*Ae_j=\\
\dfrac{\lambda_j}{\sigma_i\sigma_j}e_i^*e_j=\dfrac{\lambda_j}{\sigma_i\sigma_j}\left<{e_i,e_j}\right>=0\;\;(\textrm{si}\;i\neq j).\\(ii)\quad \left\|{v_i}\right\|^2=\left<{v_i,v_i}\right>=\dfrac{\lambda_i}{\sigma_i^2}\left<{e_i,e_i}\right>=1\left\|{e_i}\right\|^2=1.$

Podemos por tanto extender a una base ortonormal $\{v_1,\ldots,v_r,\ldots,v_m\}$ de $\mathbb{C}^m$. Llamando $Q_1=[v_1,\ldots,v_m]$ y $Q_2=[e_1,\ldots,e_n]$ tenemos

$Q_1^*AQ_2=\begin{bmatrix}v_1,\ldots,v_m\end{bmatrix}^*A\begin{bmatrix}e_1,\ldots,e_n\end{bmatrix}=\begin{bmatrix}v_1^*\\ \vdots\\v_m^*\end{bmatrix}A\begin{bmatrix}e_1,\ldots,e_n\end{bmatrix}\\=\begin{bmatrix}v_1^*\\ \vdots\\v_m^*\end{bmatrix}\begin{bmatrix}Ae_1,\ldots,Ae_n\end{bmatrix}=\begin{bmatrix} v_1^*Ae_1 & \ldots & v_1^*Ae_n\\ \vdots&&\vdots \\ v_m^*Ae_1 & \ldots & v_m^*Ae_n\end{bmatrix}.$

Veamos qué matriz es $Q_1^*AQ_2$

1) Si $j>r$ , $\left\|{Ae_j}\right\|^2=\left<{Ae_j,Ae_j}\right>=e_j^*A^*Ae_j=\lambda_je_j^*e_j=0$. Es decir $Ae_j=0.$

2) Para todo ${i,j}\in \{1,\ldots,r\}$ se verifica

$v_i^*Ae_j=\dfrac{1}{\sigma_i}e_i^*A^*Ae_j=\dfrac{\lambda_j}{\sigma_i}e_i^*e_j=\dfrac{\lambda_j}{\sigma_i}<e_i,e_j>=0 \;\textrm{si}\;i\neq j\\v_i^*Ae_i=\dfrac{\lambda_i}{\sigma_i}<e_i,e_i>=\sigma_i.$

3) $\forall i=r+1,\ldots,m$ y $\forall j=1,\ldots,r$ se verifica

$v_i^*Ae_j=v_i^*(\sigma_j v_j)=\sigma_j<v_i,v_j>=0$ (pues $i\neq j$).

En consecuencia tenemos

$Q_1^*AQ_2=\begin{bmatrix}{\Sigma}&{0}\\{0}&{0}\end{bmatrix}\text{ con }\Sigma=\textrm{diag}\;(\sigma_1,\ldots,\sigma_r).\qquad \square$

2.  Aplicamos a la matriz dada el método general de cálculo que proporciona la demostración del teorema anterior

$A^*A=A^tA=\ldots=\dfrac{1}{18}\begin{bmatrix}{\;\;45}&{-3}\\{-3}&{\;\;45}\end{bmatrix}.$

Hallemos los valores propios de $18A^*A$, para ello restamos a la segunda fila la primera y luego a la primera columna le sumamos la segunda

$\begin{vmatrix}{45-\lambda}&{-3}\\{-3}&{\;\quad 45-\lambda}\end{vmatrix}=\begin{vmatrix}{\;\;45-\lambda}&{-3}\\{-48+\lambda}&{48-\lambda}\end{vmatrix}=\begin{vmatrix}{42-\lambda}&{-3}\\{0}&{48-\lambda}\end{vmatrix}\\{}\\=(42-\lambda)(48-\lambda)=0 \Leftrightarrow \lambda=42\;\vee \lambda=48.$

Los valores propios de $A^*A$ son por tanto $\lambda_1=42/18=7/3$ y $\lambda_2=48/18=8/3$. Hallemos los subespacios propios asociados a $A^*A$

$$\ker (A^*A-\lambda_1 I) \equiv \left \{ \begin{matrix}  3x_1-3x_2=0\\ -3x_1+3x_2=0,\end{matrix}\right.\quad \ker (A^*A-\lambda_2 I) \equiv \left \{ \begin{matrix}  -3x_1-3x_2=0\\ -3x_1-3x_2=0.\end{matrix}\right.$$

Unas respectivas bases son $\{(1,1)^t\}$ y $\{(-1,1)^t\}$. Una base ortonormal formada por vectores propios de $A^*A$ es por tanto $\{e_1=(1/\sqrt{2})(1,1)^t,e_2=(1/\sqrt{2})(-1,1)^t\}$. En consecuencia la matriz $U$ es $U=\dfrac{1}{\sqrt{2}}\begin{bmatrix}{1}&{-1}\\{1}&{\;\;\;1}\end{bmatrix}.$

Los valores singulares son $\sigma_1=\sqrt{7/3},\;\sigma_2=\sqrt{8/3}$. Los vectores $v_1,\;v_2$ son

$v_1=\dfrac{1}{\sigma_1}Ae_1=\sqrt{\dfrac{3}{7}}\dfrac{\sqrt{2}}{6}\begin{bmatrix}{\;\;4}&{\;\;0}\\{-5}&{\;\;3}\\{-2}&{-6}\end{bmatrix}\dfrac{1}{\sqrt{2}}\begin{bmatrix}{1}\\{1}\end{bmatrix}=\dfrac{1}{\sqrt{21}}\begin{bmatrix}{\;\;2}\\{-1}\\{-4}\end{bmatrix}$

$v_2=\dfrac{1}{\sigma_2}Ae_2=\sqrt{\dfrac{3}{8}}\dfrac{\sqrt{2}}{6}\begin{bmatrix}{\;\;4}&{\;\;0}\\{-5}&{\;\;3}\\{-2}&{-6}\end{bmatrix}\dfrac{1}{\sqrt{2}}\begin{bmatrix}{-1}\\{\;\;1}\end{bmatrix}=\dfrac{1}{\sqrt{6}}\begin{bmatrix}{-1}\\{\;\;2}\\{-1}\end{bmatrix}$

Extendemos $v_1,v_2$ a una base ortonormal de $\mathbb{R}^3$. Un vector $v_3=(x_1,x_2,x_3)^t$ ortogonal a $v_1$ y $v_2$ ha de cumplir $2x_1-x_2-4x_3=0$ y $-x_1+2x_2-x_3=0$. Elegimos por ejemplo $(3,2,1)$, que normalizado queda $v_3=(1/\sqrt{14})(3,2,1)^t$. La descomposición pedida es por tanto

$\begin{bmatrix}{\;\;2/\sqrt{21}}&{-1/\sqrt{21}}&{-4/\sqrt{21}}\\{-1/\sqrt{6}}&{\;\;2/\sqrt{6}}&{-1/\sqrt{6}}\\{\;\;3/\sqrt{14}}&{\;\;2/\sqrt{14}}&{\;\;1/\sqrt{14}}\end{bmatrix}\;A\begin{bmatrix}{1/\sqrt{2}}&{-1/\sqrt{2}}\\{1/\sqrt{2}}&{\;\;1/\sqrt{2}}\end{bmatrix}=\begin{bmatrix}{\sqrt{7/3}}&{0}\\{0}&{\sqrt{8/3}}\\{0}&{0}\end{bmatrix}.$

Esta entrada fue publicada en Álgebra. Guarda el enlace permanente.