Forma cuadrática multiplicativa

Estudiamos una forma cuadrática multiplicativa.

Enunciado
Sean $E=\mathbb{R}^{(2\times 2)},\;I=\begin{bmatrix}{1}&{0}\\{0}&{1}\end{bmatrix},\;J=\begin{bmatrix}{0}&{1}\\{1}&{0}\end{bmatrix}\mbox{ y}$

$B=(\;B_1=\begin{bmatrix}{1}&{0}\\{0}&{0}\end{bmatrix},\;B_2=\begin{bmatrix}{0}&{1}\\{0}&{0}\end{bmatrix},\;B_3=\begin{bmatrix}{0}&{0}\\{1}&{0}\end{bmatrix},\;B_4=\begin{bmatrix}{0}&{0}\\{0}&{1}\end{bmatrix}\;).$

Sea $\Phi$ una forma cuadrática sobre $E$ no nula tal que para todo $A,B\in E$ verifica $\Phi(AB)=\Phi(A)\Phi(B)$ y $\phi$ la forma bilineal simétrica asociada. Se pide:

1. Hallar $\Phi(I),\;\Phi(B_2),\;\Phi(B_3)$ y $\Phi(B_1)\Phi(B_4).$
2. Si $A$ es invertible, probar que $\Phi(A)\neq 0.$
3. Si $A$ es singular demostrar que $A^2=0$ o bien existen $\exists P,Q\in E$ regulares tales que

$A=P^{-1}\begin{bmatrix}{\alpha}&{0}\\{0}&{0}\end{bmatrix}P\mbox{ y }A=Q^{-1}\begin{bmatrix}{0}&{0}\\{0}&{\alpha}\end{bmatrix}Q.$

Sugerencia. Estudiar posibles polinomios mínimos de $A.$
4. Demostrar que si $A$ es singular, entonces $\Phi(A)=0.$
5. Calcular $\phi(I,J)$ y $\Phi(J).$
6. Calcular la matriz $H$ de $\phi$ respecto de $B.$

(Propuesto en examen, Álgebra, ETS de Ing. Industriales, UPM).

Solución
1. Como $\Phi\neq 0,$ existe $A\in E$ tal que $\Phi(A)\neq 0.$ Entonces $\Phi(A)=\Phi(AI)=\Phi(A)\Phi(I)$ lo cual implica $\Phi(I)=1.$ Dado que $B_2^2=0,$ y $\Phi$ es forma cuadrática, se verifica $0=\Phi(0)=\Phi(B_2^2)=(\Phi(B_2))^2$ de lo que se deduce que $\Phi(B_2)=0.$ Razonando de manera análoga, $\Phi(B_3)=0.$ Por otra parte, $\Phi(B_1)\Phi(B_4)=\Phi(B_1B_4)=\Phi(0)=0.$

2. Si $A$ es invertible, entonces $1=\Phi(I)=\Phi(AA^{-1})=\Phi(A)\Phi(A^{-1}).$ Es decir, $\Phi(A)\neq 0.$

3. Si $A$ es singular, entonces $0$ es valor propio de $A.$ Si $A^2\neq 0$ entonces ni $\mu(\lambda)=\lambda$ ni $\mu(\lambda)=\lambda^2$ pueden ser polinomios mínimos de $A$ (en ambos casos tendríamos $A^2=0$). Por tanto, el polinomio mínimo de $A$ ha de ser de la forma $\mu(\lambda)=\lambda(\lambda-\alpha)$ con $\alpha\neq 0$ real. Esto implica que $A$ es diagonalizable en $\mathbb{R}$ y semejante a la matriz $\mbox{diag }(\alpha,0)$ y a la matriz $\mbox{diag }(0,\alpha)$ con lo cual hemos demostrado el aserto de este apartado.

4. Si $A^2=0$ entonces $0=\Phi(A^2)=(\Phi (A))^2=0$ lo cual implica que $\Phi(A)=0.$ Sea ahora $A^2\neq 0.$ Si $R\in E$ es invertible, entonces

$1=\Phi(I)=\Phi(RR^{-1})=\Phi(R)\Phi(R^{-1})\Rightarrow \Phi(R^{-1})=(\Phi(R))^{-1}.$

Usando el apartado anterior

$$\Phi(A)=\Phi(P^{-1}(\alpha B_1)P)=\Phi(P^{-1})(\alpha^2\Phi(B_1))\Phi(P)=\alpha^2\Phi(B_1),$$ $$\Phi(A)=\Phi(Q^{-1}(\alpha B_4)Q)=\Phi(Q^{-1})(\alpha^2\Phi(B_4))\Phi(Q)=\alpha^2\Phi(B_4).$$

Multiplicando y usando el primer apartado, $(\Phi(A))^2=\alpha^4\Phi(B_1)\Phi(B_4)=0.$ Como $\alpha\neq 0,$ deducimos que $\Phi(A)=0.$

5. Como $I+J$ e $I-J$ son singulares:

$$0=\Phi(I+J)=\phi(I+J,I+J)=\Phi(I)+\Phi(J)+2\phi(I,J)=1+\Phi(J)+2\phi(I,J),$$ $$0=\Phi(I-J)=\phi(I-J,I-J)=\Phi(I)+\Phi(J)-2\phi(I,J)=1+\Phi(J)-2\phi(I,J).$$

Resolviendo el correspondiente sistema, obtenemos inmediatamente que $\Phi(J)=-1$ y $\Phi(I,J)=0.$

6. La matriz pedida es la matriz simétrica $H=[\phi (B_i,B_j)]\;i,j=1,2,3,4.$ Usando la conocida fórmula de la forma polar y que $\Phi(B_i)=0\;(i=1,2,3,4):$

$\phi(B_i,B_j)=\dfrac{1}{2}(\Phi(B_i+B_j)-\Phi(B_i)-\Phi(B_j))=\dfrac{1}{2}\Phi(B_i+B_j).$

Teniendo en cuenta que $\Phi(I)=1,\;\Phi(J)=-1$ y $\Phi(A)=0$ si $A$ es singular, obtenemos

$$H=\begin{bmatrix}{0}&{\;\;0}&{\;\;0}&{1/2}\\{0}&{\;\;0}&{-1/2}&{0}\\{0}&{-1/2}&{\;\;0}&{0}\\{1/2}&{\;\;0}&{\;\;0}&{0}\end{bmatrix}.$$

Esta entrada fue publicada en Álgebra. Guarda el enlace permanente.