Proporcionamos ejercicios sobre ortogonalidad en el espacio euclídeo.
- En el espacio vectorial $\mathbb{R}_2[x]$ se considera el producto escalar $$\left<p(x),q(x)\right>=\int_{-1}^1\left(p(x)q(x)+p^{\prime\prime}(x)q^{\prime\prime}(x)\right)dx.$$ Comprobar que los vectores $p(x)=1+4x+x^2$ y $q(x)=1-x$ son ortogonales.
- Sea $E$ un espacio euclídeo. Demostrar que
$a)\;$ El vector $0$ es ortogonal a todos los vectores de $E$
$b)\;$ El vector $0$ es el único que satisface la propiedad anterior.
$c)\:$ Un vector es ortogonal a todos los vectores de un subespacio $F$ de $E$ si, y sólo si es ortogonal a los de una base de $F.$
$d)\;$ Todo subconjunto $S$ de $E$ formado por vectores ostogonales dos a dos y no nulos es linealmente independiente. - Demostrar el teorema de Pitágoras:
Si $x$ e $y$ son vectores de un espacio euclídeo, $x\perp y\Rightarrow \left\|x+y\right\|^2=\left\|x\right\|^2+\left\|y\right\|^2.$
Enunciado
- El producto escalar de los vectores dados es $$\left<p(x),q(x)\right>=\int_{-1}^1\left((1+4x+x^2)(1-x)+0\right)dx=\ldots=0,$$ luego $p(x)$ y $q(x)$ son ortogonales
- $a)\;$ Para todo $x\in E,\;$ $\left<0,x\right>=\left<x-x,x\right>=\left<x,x\right>-\left<x,x\right>=0.$
$b)\;$ Si $x\in E$ es ortogonal a todos los vectores de $E,$ en particular es ortogonal a sí mismo por tanto $\left<x,x\right>=0$ lo cual implica $x=0.$
$c)\;$ Sea $B$ una base del subespacio $F$ y supongamos que $x$ es ortogonal a $B.$ Sea $y\in E.$ Como $B$ es base de $E$ existe un subconjunto $\{v_1,\ldots,v_m\}$ de $B$ tal que $$y=\lambda_1v_1+\cdots+\lambda_mv_m\quad (\lambda_i\in\mathbb{R}).$$ Entonces, y teniendo en cuenta que $x$ es ortogonal a $B:$ $$\left<x,y\right>=\left<x,\lambda_1v_1+\cdots+\lambda_mv_m\right>=\lambda_1\left<x,v_1\right>+\cdots+\lambda_m \left<x,v_m\right>$$ $$=\lambda_1\cdot 0+\cdots+\lambda_m \cdot 0=0\Rightarrow x\text{ es ortogonal a }y.$$ Es decir, $x$ es ortogonal a $F.$ Recíprocamente, si $x$ es ortogonal a $F,$ es trivialmente ortogonal a $B\subset F.$
$d)\;$ Sea $S_1=\{u_1,\ldots,u_p\}$ un subconjuto finito de $S.$ Veamos que es linealmente independiente. En efecto, sea $\alpha_1u_1+\cdots+\alpha_pu_p=0$ con los $\alpha_j\in\mathbb{R}.$ Multiplicando escalarmente la igualdad anterior por $u_i,$ teniendo en cuenta que $u_i$ es ortogonal a los demás vectores de $S_1$ y que $\left\|u_i\right\|\neq 0:$ $$\left<u_i,\alpha_1u_1+\cdots+\alpha_pu_p\right>=\left<u_i,0\right>\Rightarrow \alpha_1\left<u_i,u_1\right>+\cdots +\alpha_p\left<u_i,u_p\right>=0$$ $$\Rightarrow \alpha_i\left<u_i,u_i\right>=0\Rightarrow \alpha_i\left\|u_i\right\|=0\Rightarrow\alpha_i=0.$$ El razonamiento es válido para todo $i=1,\ldots,p$ luego $S_1$ es linealmente independiente, lo cual implica que $S$ también lo es. - Teniendo en cuenta que $\left<x,y\right>=0:$ $$\left\|x+y\right\|^2=\left<x+y,x+y\right>=\left<x,x\right>+\left<y,x\right>+\left<x,y\right>+\left<y,y\right>$$ $$=\left\|x\right\|^2+2\left<x,y\right>+\left\|y\right\|^2=\left\|x\right\|^2+\left\|y\right\|^2.$$
Solución