Dependencia e independencia lineal de vectores

Proponemos ejercicios sobre dependencia e independencia lineal de vectores.

RESUMEN TEÓRICO
  • Definición. Sea $E$ un espacio vectorial sobre el cuerpo $\mathbb{K}$ y sea $$S=\{v_1,v_2,\ldots,v_m\}\subset E.$$ Se dice que los vectores $v_1,v_2,\ldots,v_m$ son linealmente independientes o bien que $S$ es un sistema libre si y sólo si se verifica $$\lambda_1 v_1+\lambda_2 v_2+\ldots+\lambda_mv_m=0\; (\text{con }\lambda_1,\lambda_2,\ldots,\lambda_m\in\mathbb{K})$$ $$\Rightarrow\\{\lambda_1=\lambda_2=\ldots=\lambda_m=0}.$$ Es decir, son linealmente independientes cuando la única manera de verificarse la igualdad $\lambda_1 v_1+\lambda_2 v_2+\ldots+\lambda_mv_m=0$ es para $\lambda_1=\lambda_2=\ldots=\lambda_m=0.$
  • Se dice que los vectores $v_1,v_2,\ldots,v_m$ son linealmente dependientes o bien que $S$ es un sistema ligado si y sólo si no son linealmente independientes. Es decir, cuando para algunos $\lambda_1,\lambda_2,\ldots,\lambda_m\in\mathbb{K}$ no todos nulos se verifica $$\lambda_1 v_1+\lambda_2 v_2+\ldots+\lambda_mv_m=0.$$
  • Teorema. Se verifica:
    $(a)$ El vector cero no puede pertenecer a un sistema libre.
    $(b)$ Todo subsistema de un sistema libre es libre.
    $(c)$ Todo supersistema de un sistema ligado es ligado.
    $(d)$ Un sistema es ligado si y sólo si existe un vector del sistema que es combinación lineal de los demás.
  • Definición. De manera general, si $E$ un espacio vectorial sobre el cuerpo $\mathbb{K}$ y $S$ una familia cualquiera de vectores de $E$ (finita o no), se dice que $S$ es libre (o linealmente independiente) si toda subfamilia finita lo es.
    Análogamente, se dice que $S$ es ligada (o linealmente dependiente) si existe al menos una subfamilia finita ligada.
    Enunciado
  1. En el espacio vectorial usual $\mathbb{R}^2$ analizar si $v_1=(2,-1),\;v_2=(3,2)$ son linealmente independientes.
  2. En el espacio vectorial usual $\mathbb{R}^3$ analizar si son linealmente independientes los vectores $v_1=(1,2,-1),\;v_2=(2,-1,-3),\;v_3=(-3,4,5).$
  3. Sean $u,v,w$ vectores linealmente independientes en un espacio vectorial real $E.$ Demostrar que $u+v,u-v,u-2v+w$ también son linealmente independientes.
  4. Sea $p(x)\in\mathbb{R}[x]$ un polinomio de grado $2.$ Demostrar que el sistema de vectores $S=\{p(x), p'(x),p^{\prime\prime}(x)\}$ es libre.
  5. En el espacio vectorial real $E=\mathcal{F}(\mathbb{R},\mathbb{R})$ de las funciones de $\mathbb{R}$ en $\mathbb{R}$ demostrar que los siguientes vectores son linealmente independientes los vectores $f(x)=e^{2x},\;g(x)=x^2,\;h(x)=x.$
  6. Demostrar que en todo espacio vectorial cualquier vector no nulo es linealmente independiente.
  7. Demostrar que el sistema $S=\{f_k(x)=\operatorname{sen} kx:k=1,2,\ldots, n\}$ es libre en $E=\mathcal{F}(\mathbb{R},\mathbb{R}).$
  8. Demostrar que $S=\{1,x,x^2,\ldots,x^n,\ldots\}$ es un sistema libre en $\mathbb{R}[x].$
  9. Demostrar las siguientes propiedades:
    (a) El vector cero no puede pertenecer a un sistema libre.
    (b) Todo subsistema de un sistema libre es libre.
    (c) Todo supersistema de un sistema ligado es ligado.
    (d) Un sistema es ligado si y sólo si existe un vector del sistema que es combinación lineal de los demás.
  10. En el espacio vectorial $\mathcal{F}(\mathbb{R},\mathbb{R}),$ demostrar que los vectores $f(x)=\operatorname{sen}x,$ $g(x)=\cos x$ y $h(x)=x,$ son linealmente independientes.
  11. Demostrar que las funciones $f_k(x)=x^{\alpha_k}$ ($k=1,\ldots,n$) con $\alpha_{k}\in\mathbb{R},$ y $\alpha_i\neq\alpha_j$ si $i\neq j$, son linealmente independientes.
  12. Se consideran las funciones $$f_k:\mathbb{R}\to \mathbb{R},\quad f_k(x)=e^{r_k x}$$ con $k=1,\ldots n,$ $r_k\in\mathbb{R}$ y $n\geq 2.$ Demostrar que estas funciones son linealmente independientes $\Leftrightarrow$ $r_i\neq r_j$ para todo $i\neq j.$
  13. Demostrar que la familia infinita $\mathcal{F}=\{f_i(x)=\cos^kx:k=1,2,\ldots\}$ es libre en el espacio vectorial real de las funciones definidas en el intervalo $[0,\pi/2].$
  14. Para cada $n\in \mathbb{Z}_{>0}$ se considera la función $f_n:[0,1]\to \mathbb{R}$: $$f_n(x)=\left \{ \begin{matrix}{0}&\text{si}& 0\leq x\leq \dfrac{1}{n+1}\\2n(n+1)x-2n & \text{si}& \dfrac{1}{n+1} < x<\dfrac{1}{2}\left(\dfrac{1}{n}+\dfrac{1}{n+1}\right)\\1 & \text{si}& x=\dfrac{1}{2}\left(\dfrac{1}{n}+\dfrac{1}{n+1}\right)\\-2n(n+1)x+2n+2&\textsf{si}& \dfrac{1}{2}\left(\dfrac{1}{n}+\dfrac{1}{n+1}\right) < x <\dfrac{1}{n}\\0&\textsf{si}&\dfrac{1}{n}\leq x\leq 1\end{matrix}\right.$$ Demostrar que el sistema $S=\{f_n:n\in \mathbb{Z}_{>0}\}$ es libre.
    Solución
  1. La igualdad $\lambda_1(2,-1)+\lambda_2(3,2)=(0,0)$ equivale al sistema $$\left \{ \begin{matrix} 2\lambda_1+3\lambda_2=0 \\ -\lambda_1+2\lambda_2=0.\end{matrix}\right.$$
    Sumando a la primera ecuación la segunda multiplicada por $2$ obtenemos $7\lambda_2=0$ o bien, $\lambda_2=0.$ Sustituyendo en la segunda deducimos $\lambda_1=0.$ Es decir, $v_1,v_2$ son linealmente independientes.
  2. La igualdad $\lambda_1v_1+\lambda_2v_2+\lambda_3v_3=0$ equivale al sistema $$H:\;\left \{ \begin{matrix} \lambda_1+2\lambda_2-3\lambda_3=0 \\2 \lambda_1-\lambda_2+4\lambda_3=0\\-\lambda_1-3\lambda_2+5\lambda_3=0.\end{matrix}\right.$$ Escalonamos el sistema $$H\sim \left \{ \begin{matrix} \lambda_1+2\lambda_2-3\lambda_3=0 \\\quad -5\lambda_2+10\lambda_3=0\\\;\quad-\lambda_2+\;\;\;2\lambda_3=0\end{matrix}\right.\sim \left \{ \begin{matrix} \lambda_1+2\lambda_2-3\lambda_3=0 \\\;\quad-\lambda_2+\;\;\;2\lambda_3=0.\end{matrix}\right.$$ El sistema lineal homogéneo $H$ es indeterminado, es decir tiene soluciones distintas de la trivial $\lambda_1=\lambda_2=\lambda_3=0.$ Concluimos que los vectores $v_1,v_2,v_3$ no son son linealmente independientes.
  3. La igualdad $\lambda_1(u+v)+\lambda_2(u-v)+\lambda_3(u-2v+w)=0$ equivale a la igualdad $(\lambda_1+\lambda_2+\lambda_3)u+(\lambda_1-\lambda_2-2\lambda_3)v+\lambda_3w=0.$ Por hipótesis $u,v,w$ son linealmente independientes lo cual implica $$ \left \{ \begin{matrix} \lambda_1+\lambda_2+\lambda_3=0 \\\lambda_1-\lambda_2-2\lambda_3=0\\\lambda_3=0.\end{matrix}\right.$$ Resolviendo obtenemos $\lambda_1=\lambda_2=\lambda_3=0$, de lo cual deducimos que los vectores $u+v,u-v,u-2v+w$ son linealmente independientes.
  4. Como $p(x)$ es de grado $2,$ es de la forma $p(x)=ax^2+bx+c,$ con $a,$ $b,$ $c$ reales y $a\neq 0.$ Tenemos, $$\begin{aligned} &\lambda_1p(x)+\lambda_2p'(x)+\lambda_3p^{\prime\prime}(x)=0\\&\Rightarrow \lambda_1(ax^2+bx+c)+\lambda_2(2ax+b)+\lambda_3(2a)=0\\
    &\Rightarrow a\lambda_1 x^2+(b\lambda_1+2a\lambda_2)x+c\lambda_1+b\lambda_2+2a\lambda_3=0,
    \end{aligned}$$ lo cual proporciona el sistema: $$
    \left \{
    \begin{array}{rcrcrcr}
    a \,\lambda_1 & & & & & = & 0 \\
    b \,x_1 & + & 2a\,\lambda_2 & & & = & 0 \\
    c \,\lambda_1 & + & b \,\lambda_2 & + & 2a\,\lambda_3 & = & 0.
    \end{array}
    \right .
    $$ Dado que $a\neq 0,$ deducimos fácilmente $\lambda_1=\lambda_2=\lambda_3=0.$
  5. Supongamos que $\lambda_1e^{2x}+\lambda_2x^2+\lambda_3x=0.$ Esta igualdad es una igualdad de funciones, por tanto se ha de verificar para todo $x\in\mathbb{R}.$ Dando a $x$ los valores $0,1,2$ obtenemos el sistema $$\left \{ \begin{matrix} \lambda_1=0 \\e^2\lambda_1+\lambda_2+\lambda_3=0 \\ e^4\lambda_1+4\lambda_2+2\lambda_3=0.\end{matrix}\right.$$ Resolviendo, obtenemos $\lambda_1,\lambda_2,\lambda_3=0$, es decir las funciones dadas son linealmente independientes.
  6. Sea $v\neq 0$ un vector de un espacio vectorial dado $E.$ Supongamos que ocurriera $\lambda v=0$ para un $\lambda\neq 0.$ Entonces: $$\lambda v=0\Rightarrow \lambda^{-1}(\lambda v)=0\Rightarrow (\lambda^{-1}\lambda)v=0\Rightarrow 1v=0\Rightarrow v=0,$$ lo cual es absurdo. Se deduce que $\{v\}$ es sistema libre.
  7. Lo demostraremos aplicando el método de inducción. El sistema es libre para $n=1$. Efectivamente, la función $f_1(x)=\operatorname{sen} x$ no es el vector nulo de $E$, por tanto $\{f_1\}$ es libre.
    Supongamos que el sistema $\{\operatorname{sen} x,\operatorname{sen} 2x,\ldots,\operatorname{sen} (n-1)x\}$ es libre. Veamos que también lo es el sistema $\{\operatorname{sen} x,\operatorname{sen} 2x,\ldots,\operatorname{sen} nx\}.$ Consideremos la igualdad $$\lambda_1\operatorname{sen} x+\lambda_2 \operatorname{sen} 2x+\ldots+\lambda_n\operatorname{sen} nx=0.\quad (1)$$ Derivando obtenemos: $$\lambda_1\cos x+2\lambda_2 \cos 2x+\ldots+n\lambda_n\cos nx.\quad (2)$$ Derivando de nuevo: $$-\lambda_1\operatorname{sen} x-2^2\lambda_2 \operatorname{sen} 2x-\ldots-n^2\lambda_n\operatorname{sen} nx=0.\quad (3)$$ Sumando a la igualdad (3) la (1) multiplicada por $n^2:$ $$(n^2-1)\lambda_1\operatorname{sen} x+(n^2-2^2)\lambda_2 \operatorname{sen} 2x+\\\ldots+(n^2-(n-1)^2)\lambda_{n-1}\operatorname{sen} (n-1)x=0.$$ Por hipótesis de inducción $$(n^2-1)\lambda_1=(n^2-2^2)\lambda_2=\ldots=(n^2-(n-1)^2)\lambda_{n-1}=0.$$ Esto implica que $\lambda_1=\lambda_2=\ldots=\lambda_{n-1}=0.$ Sustituyendo estos $\lambda_i$ en (1) queda $\lambda_n\operatorname{sen} nx=0.$ Dando a $x$ el valor $\pi/2n$ queda $\lambda_n\operatorname{sen} (\pi/2)=\lambda_n=0.$
    Es decir, $S=\{f_k(x)=\operatorname{sen} kx:k=1,2,\ldots, n\}$ es sistema libre en $E.$
  8. Sea $\{x^{k_1},\ldots,x^{k_m}\}$ un subconjunto finito de $S.$ Dado que los exponentes $k_i$ son distintos dos a dos, de la igualdad $$\lambda_1x^{k_1}+\cdots+\lambda_mx^{k_m}=0,$$ se deduce por el principio de igualdad de polinomios que $\lambda_i=0$ para todo $i=1,\ldots,m.$ Concluimos que $S$ es sistema libre.
  9. (a) Sea el sistema $S=\{0,v_2,\ldots ,v_m\}.$ Se verifica la igualdad $1\cdot 0+0v_2+\ldots +0v_m=0$ lo cual implica que $S$ es ligado.
    (b) Sea $S=\{v_1,\ldots, v_p,v_{p+1},\ldots,v_m\}$ sistema libre. Veamos que el subsistema $S_1=\{v_1,\ldots, v_p\}$ también es libre. Efectivamente, si fuera ligado existirían escalares $\lambda_1,\ldots,\lambda_p$ no todos nulos tales que $\lambda_1v_1+\ldots +\lambda_pv_p=0.$ Esto implicaría que $\lambda_1v_1+\ldots +\lambda_pv_p+0v_{p+1}+\ldots +0v_m=0$ no siendo nulos todos los escalares: $S$ sería ligado, lo cual es absurdo.
    (c) Si el supersistema fuera libre, por lo demostrado en (b) el sistema sería libre, lo cual es absurdo.
    (d) Supongamos que el sistema $S=\{v_1,v_2,\ldots ,v_m\}$ es ligado. Entonces existen escalares $\lambda_1,\lambda_2,\ldots,\lambda_m$ no todos nulos tal que $\lambda_1v_1+\lambda_2v_2+\ldots +\lambda_mv_m=0.$ Podemos suponer sin pérdida de generalidad que $\lambda_1\neq 0.$ Entonces $$\lambda_1v_1=-\lambda_2v_2-\ldots -\lambda_mv_m=0\Rightarrow v_1=-(\lambda_1^{-1}\lambda_2)v_2-\ldots -(\lambda_1^{-1}\lambda_m)v_m.$$ Es decir, existe un vector del sistema que es combinación lineal de los demás. Recíprocamente, supongamos que existe un vector de del sistema (por ejemplo $v_1$) que es combinación lineal de los demás, entonces $v_1$ es de la forma $v_1=\lambda_2v_2+\ldots+\lambda_nv_m$ lo cual implica $1\cdot v_1-\lambda_2v_2-\ldots -\lambda_nv_m=0$: el sistema es ligado.
  10. Supongamos que $\lambda_1\operatorname{sen}x+\lambda_2\cos x+\lambda_3x=0.$ Esta igualdad es una igualdad de funciones, por tanto se ha de verificar para todo $x\in\mathbb{R}.$ Dando a $x$ los valores $0,\pi/4,\pi/2,$ obtenemos el sistema $$\left \{ \begin{matrix} \lambda_2=0 \\\dfrac{\sqrt{2}}{2}\lambda_1+\dfrac{\sqrt{2}}{2}\lambda_2+\dfrac{\pi}{4}\lambda_3=0 \\ \lambda_1+\dfrac{\pi}{2}\lambda_3=0,\end{matrix}\right.$$ que proporciona la única solución, $\lambda_1=\lambda_2=\lambda_3=0$, es decir las funciones dadas son linealmente independientes.
  11. Consideremos una combinación lineal de los vectores dados, igualada a la función cero: $$\lambda_1x^{\alpha_1}+\lambda_2x^{\alpha_2}+\ldots+\lambda_nx^{\alpha_n}=0.$$ Dando a $x$ los valores $1,2,2^2,\ldots,2^{n-1},$ obtenemos el sistema lineal:$$\left \{ \begin{matrix}
    \lambda_1+\lambda_2+\ldots+\lambda_n=0\\
    \lambda_12^{\alpha_1}+\lambda_22^{\alpha_2}+\ldots+\lambda_n2^{\alpha_n}=0\\
    \lambda_12^{2\alpha_1}+\lambda_22^{2\alpha_2}+\ldots+\lambda_n2^{2\alpha_n}=0\\
    \ldots\\
    \lambda_12^{(n-1)\alpha_1}+\lambda_22^{(n-1)\alpha_2}+\ldots+\lambda_n2^{(n-1)\alpha_n}=0.
    \end{matrix}\right.\quad (*)$$ La matriz $M$ del sistema es:$$M=\begin{bmatrix}
    1 & 1 & \ldots & 1\\
    2^{\alpha_1} & 2^{\alpha_2} & \ldots & 2^{\alpha_n} \\
    2^{2\alpha_1} & 2^{2\alpha_2} &\ldots & 2^{2\alpha_n}\\
    \vdots&&&\vdots \\
    2^{(n-1)\alpha_1} & 2^{(n-1)\alpha_2} &\ldots & 2^{(n-1)\alpha_n}
    \end{bmatrix},$$ es decir una matriz de Vandermonde. Su determinante es por tanto,$$\det (M)=\left(2^{\alpha_n}-2^{\alpha_{n-1}}\right)\left(2^{\alpha_n}-2^{\alpha_{n-2}}\right)\cdots \left(2^{\alpha_{3}}-2^{\alpha_1}\right)\left(2^{\alpha_2}-2^{\alpha_1}\right).$$ Por hipótesis los números $\alpha_i$ son distintos dos a dos, luego $\det (M)\neq 0.$ Esto implica que el sistema lineal homogéneo $(*)$ sólo tiene la solución trivial $\lambda_1=\ldots=\lambda_n=0.$ En consecuencia, las funciones dadas son linealmente independientes.
  12. $\Rightarrow)$ Supongamos que dos de los números $r_k$ fueran iguales (sin pérdida de generalidad, supongamos que $r_1=r_2$), entonces, $$1e^{r_1x}+(-1)e^{r_2x}+0e^{r_3x}+\cdots +e^{r_nx}=0\quad \forall x\in\mathbb{R},$$ no siendo nulos todos los escalares, luego $e^{r_1x},e^{r_2x},\ldots,e^{r_nx}$ serían linealmente dependientes, en contradicción con la hipótesis.
    $\Leftarrow)$ Demostremos esta implicación por inducción respecto a $n.$ Veamos que es cierta para $n=2.$ Supongamos que $r_1\neq r_2$ y consideremos la igualdad de funciones $\lambda_1e^{r_1x}+\lambda_2e^{r_2x}=0.$ Dando a $x$ los valores $0$ y $1,$ obtenemos $$\left \{ \begin{matrix} \lambda_1+\lambda_2=0\\e^{r_1}\lambda_1+e^{r_2}\lambda_2=0,\end{matrix}\right.$$ y el determinante de la matriz del sistema es $D=e^{r_2}-e^{r_1}.$ Pero la función exponencial es inyectiva y $r_1\neq r_2,$ luego $D\neq 0.$ Esto implica que $\lambda_1=\lambda_2=0$ y por tanto $e^{r_1x}$ y $e^{r_2x}$ son linealmente independientes.
    Supongamos ahora que la propiedad es cierta para $n,$ y consideremos las $n+1$ funciones: $$e^{r_1 x},\;e^{r_2 x},\;\ldots,\;e^{r_n x},\;e^{r_{n+1} x}\text{ con }r_i\neq r_j\text{ si }i\neq j.$$ Escribamos una combinación lineal de las funciones anteriores igualada a la función nula: $$\lambda_1e^{r_1 x}+\lambda_2e^{r_2 x}+\cdots+\lambda_ne^{r_n x}+\lambda_{n+1}e^{r_{n+1} x}=0.$$ Dividiendo al igualdad anterior entre $e^{r_{n+1} x}:$
    $$\lambda_1e^{(r_1-r_{n+1}) x}+\lambda_2e^{(r_2 -r_{n+1})x}+\cdots+\lambda_ne^{(r_n-r_{n+1}) x}+\lambda_{n+1}=0.\quad (*)$$Derivando la igualdad anterior:
    $$\begin{aligned}&\lambda_1(r_1-r_{n+1})e^{(r_1-r_{n+1}) x}+\lambda_2(r_2 -r_{n+1})e^{(r_2 -r_{n+1})x}\\
    &+\cdots+\lambda_n(r_n-r_{n+1})e^{(r_n-r_{n+1}) x}=0.\end{aligned}$$Dado que los $n$ números $r_j-r_{n+1}$ ($j=1,\ldots,n$) son distintos dos a dos, se deduce de la hipótesis de inducción que$$\lambda_1(r_1-r_{n+1})=0,\:\lambda_2(r_2-r_{n+1})=0,\;\ldots,\;\lambda_n(r_n-r_{n+1})=0,$$lo cual implica que $\lambda_1=\ldots=\lambda_n=0.$ Sustituyendo estos escalares en la igualdad $(*),$ queda $\lambda_{n+1}=0.$ Hemos demostrado que la propiedad es cierta para $n+1.$
  13. Bastará demostrar que para cada $n=1,2,\ldots$ la familia finita $\mathcal{F}_n=\{f_1,f_2,\ldots,f_n\}$ es libre. Sea la igualdad $$\lambda_1\cos x+\lambda_2\cos^2x+\cdots+\lambda_n\cos^nx=0\qquad \forall x\in [0,\pi/2].$$ La aplicación $g:[0,\pi/2]\to [0,1]$ dada por $g(x)=t=\cos x$ sabemos que es una biyección, en consecuencia, la igualdad $\lambda_1t+\lambda_2t^2+\cdots+\lambda_nt^n=0$ se ha de verificar para todo $t\in[0,1].$ Queda por tanto una ecuación polinómica con infinitas raíces, lo cual implica que el primer miembro ha de ser el polinomio nulo, es decir $\lambda_1$ $=$ $\lambda_2$ $=$ $\ldots$ $=$ $\lambda_n$ $=$ $0.$
  14. Ver Sistema libre de infinitas funciones troceadas
Esta entrada ha sido publicada en Álgebra y etiquetada como , , , . Guarda el enlace permanente.