Puntos críticos de $g(x,y)=p(f(x))+p(f(y))$

    Enunciado
  1. Sea $f:\mathbb{R}\to \mathbb{R}$ una función derivable tal que $f'(x)>0\;\;\forall{x}\in \mathbb{R}.$ Supongamos que $\lim_{x \to{+}\infty}{f(x)=+\infty}$ y $\lim_{x \to{-}\infty}{f(x)=0}.$ Demostrar que $f(x)>0\;\;\forall{x}\in \mathbb{R}$ y que dado $b>0$ existe un único $a\in \mathbb{R}$ tal que $f(a)=b.$
  2. Sea $p(x)$ un polinomio de grado $3$ (con coeficientes reales) y con tres raíces reales distintas y positivas. Sea $\alpha$ una raíz de $p'(x)$ (derivada de $p$). Demostrar que $\textrm{signo}\;[p(\alpha)]=-\textrm{signo}\;[p»(\alpha)].$ Probar además que si $\beta\neq \alpha$ es otra raíz de $p’$ entonces $\textrm{signo}\;[p»(\alpha)]=-\textrm{signo}\;[p»(\beta)].$
  3. Sea $g(x,y)=p(f(x))+p(f(y))$ siendo $p$ un polinomio cumpliendo las hipótesis del apartado 2 y $f$ una función cumpliendo las hipótesis del apartado 1. Calcular los puntos críticos de $g(x,y).$
  4. Clasificar los puntos críticos obtenidos en 3.
  5. Calcular los máximos y mínimos de $g(x,y)$ bajo la restricción $f(x)-f(y)=0.$

    (Propuesto en examen, Cálculo, ETS de Ing. de Montes, UPM).

    Solución
  1. Por hipótesis $f'(x)>0$ para todo $x\in\mathbb{R}$, lo cual implica que $f$ es estrictamente creciente en todo $\mathbb{R}$. Supongamos que existiera un $x_0\in\mathbb{R}$ tal que $f(x_0)\leq 0$ entonces, existe un $x_1\in \mathbb{R}$ con $f(x_1)<f(x_0)$. Elijamos $\epsilon=-f(x_1)>0$. Dado que $f(x)<f(x_1)$ para todo $x<x_1$ se verifica $\left|f(x)\right|>\epsilon$ lo cual va en contra de la hipótesis $\lim_{x \to{-}\infty}{f(x)=0}.$ Hemos demostrado pues que $f(x)>0$ para todo $x\in\mathbb{R}.$

    Sea $b>0.$ De las hipótesis $\lim_{x \to{+}\infty}{f(x)=+\infty}$ y $\lim_{x \to{-}\infty}{f(x)=0}$ deducimos que existen números reales $x_1,x_2$ con $x_1<x_2$ tales que $f(x_1)<b<f(x_2).$ Como $f$ es derivable en $\mathbb{R}$, la función $f:[x_1,x_2]\to \mathbb{R}$ es continua. Por el teorema de los valores intermedios, existe $a\in(x_1,x_2)$ tal que $f(a)=b.$ Este $a$ es único debido al crecimiento estricto de $f.$

  2. Sean $a_1,a_2,a_3$ con $a_1<a_2<a_3$ las tres raíces distintas de $p(x).$ Por el teorema de Rolle, las dos raíces $\alpha<\beta$ de $p'(x)$ están en los intervalos $(a_1,a_2)$ y $(a_2,a_3)$ respectivamente. Supongamos que $p(\alpha)>0$ y $p»(\alpha)>0.$ Entonces $p$ tendría un mínimo local en $\alpha$ con $p(\alpha)>0.$

    Por otra parte, la función $p:[a_1,a_2]\to \mathbb{R}$ es continua, y por el teorema de Weierstrass ha de tener un máximo y mínimo absolutos en $[a_1,a_2].$ Al ser $0=p(a_1)=p(a_2)<p(\alpha)$ el máximo absoluto se obtendría en un $\gamma\in (a_1,a_2)$ y en consecuencia $p'(\gamma)=0$ con $\gamma\neq \alpha$, lo cual es absurdo pues $p’$ sólo tiene una raíz en $(a_1,a_2).$ Análogos razonamientos para $p(\alpha)<0,p^{\prime\prime}(\alpha)<0.$ También análogo razonamiento para $\alpha\in(a_2,a_3).$ Podemos pues concluir que $\textrm{signo}\;[p(\alpha)]=-\textrm{signo}\;[p»(\alpha)].$

    Las únicas raíces de $p'(x)$ son $\alpha$ y $\beta$ por tanto, $p'(x)$ se puede expresar en la forma $p'(x)=\lambda (x-\alpha)(x-\beta)$ con $\lambda\in \mathbb{R}$, por tanto

    $\left \{ \begin{matrix} p^{\prime\prime}(x)=\lambda(2x-\alpha-\beta)\\p»(\alpha)=\lambda(\alpha-\beta)\\p^{\prime\prime}(\beta)=\lambda(\beta-\alpha).\end{matrix}\right.$

    Como $\alpha\neq \beta$ se concluye que $\textrm{signo}\;[p»(\alpha)]=-\textrm{signo}\;[p»(\beta)].$

  3. Teniendo en cuenta que $f'(x)\neq 0$ para todo $x\in\mathbb{R}:$

    $$\left \{ \begin{matrix} \dfrac{{\partial g}}{{\partial x}}=p'(f(x))f'(x)=0\\\dfrac{{\partial g}}{{\partial y}}=p'(f(y))f'(y)=0\end{matrix}\right. \Leftrightarrow \left \{ \begin{matrix} p'(f(x))=0\\p'(f(y))=0\end{matrix}\right. \Leftrightarrow \left \{ \begin{matrix} f(x)=\alpha\;\vee\;\;f(x)=\beta\\ \wedge\\f(x)=\alpha \;\vee\; f(x)=\beta.\end{matrix}\right.$$

    Por el apartado 1 existen únicos $\alpha_1,\beta_1\in\mathbb{R}$ tales que $f(\alpha_1)=\alpha$ y $f(\beta_1)=\beta.$ Como $\alpha<\beta$ y $f$ es estrictamente creciente, además se cumple $\alpha_1<\beta_1.$ Los puntos críticos de $g$ son por tanto

    $(\alpha_1,\alpha_1),\;(\alpha_1,\beta_1),\;(\beta_1,\alpha_1),\;(\beta_1,\beta_1).$

  4. En lo que sigue suponemos $f\in\mathcal{C}^2(\mathbb{R}).$ Las parciales segundas son

    $$\left \{ \begin{matrix} \displaystyle\begin{aligned} & \dfrac{{\partial^2 g}}{{\partial x^2}}=p^{\prime\prime}(f(x))(f'(x))^2+p'(f(x))f^{\prime\prime}(x)\\& \dfrac{{\partial^2 g}}{{\partial x\partial y}}=0 \\& \dfrac{{\partial^2 g}}{{\partial y^2}}=p^{\prime\prime}(f(y))(f'(y))^2+p'(f(y))f^{\prime\prime}(y).\end{aligned}\end{matrix}\right.$$

    La matriz hessiana en $(\alpha_1,\alpha_1)$ es

    $H(\alpha_1,\alpha_1)=\begin{bmatrix}{p^{\prime\prime}(\alpha)(f'(\alpha_1))^2}&{0}\\{0}&{p^{\prime\prime}(\alpha)(f'(\alpha_1))^2}\end{bmatrix}$

    Análogamente

    $H(\beta_1,\beta_1)=\begin{bmatrix}{p^{\prime\prime}(\beta)(f'(\beta_1))^2}&{0}\\{0}&{p^{\prime\prime}(\beta)(f'(\beta_1))^2}\end{bmatrix}$

    Como $\textrm{signo}\;[p»(\alpha)]=-\textrm{signo}\;[p»(\beta)],$ estas dos matrices son de la forma

    $\begin{bmatrix}{-}&{0}\\{0}&{-}\end{bmatrix}\;,\quad \begin{bmatrix}{+}&{0}\\{0}&{+}\end{bmatrix} \mbox{ (o viceversa)}.$

    Por tanto, en $(\alpha_1,\alpha_1),(\beta_1,\beta_1)$ tenemos máximo y mínimo local (o viceversa). La matriz hessiana en $(\alpha_1,\beta_1)$ es

    $H(\alpha_1,\beta_1)=\begin{bmatrix}{p^{\prime\prime}(\alpha)(f'(\alpha_1))^2}&{0}\\{0}&{p^{\prime\prime}(\beta)(f'(\beta_1))^2}\end{bmatrix}$

    cuyo determinante es menor que cero lo cual implica que en $(\alpha_1,\beta_1)$ tenemos punto de silla. Análogas consideraciones para el punto $(\beta_1,\alpha_1).$

  5. Como $f$ es estrictamente creciente, la condición $f(x)=f(y)$ equivale a $x=y.$ Se trata pues de hallar los máximos y mínimos de la función $h(x)=g(x,x)=2p(f(x)).$ Tenemos

    $$h'(x)=2p'(f(x))f'(x)=0 \Leftrightarrow p'(f(x))=0 \Leftrightarrow $$ $$
    f(x)=\alpha\;\vee\; f(x)=\beta \Leftrightarrow x=\alpha_1 \vee\; x=\beta_1.$$

    La derivada segunda de $h$ es $h^{\prime\prime}(x)=2p^{\prime\prime}(f(x))(f'(x))^2+2p'(f(x))f^{\prime\prime}(x),$ por tanto

    $h^{\prime\prime}(\alpha_1)=2p^{\prime\prime}(\alpha)(f'(\alpha_1))^2\;,\quad h^{\prime\prime}(\beta_1)=2p^{\prime\prime}(\beta)(f'(\beta_1))^2.$

    Usando de nuevo que $\textrm{signo}\;[p»(\alpha)]=-\textrm{signo}\;[p»(\beta)],$ concluimos que en $(\alpha_1,\alpha_1)$ y $(\beta_1,\beta_1)$ hay máximo y mínimo local para $g$ respectivamente (o viceversa).

Esta entrada ha sido publicada en Análisis real y complejo y etiquetada como , , , . Guarda el enlace permanente.