Cálculo TRES

§ 13

Regla de la cadena

Nota

Antes de dar la regla de la cadena en la forma más general tenemos que definir las funciones diferencibles de la forma más general. Hasta ahora sólo se han tratado la diferenciabilidd de funciones con valores escalares (llamadas campos escalares) la siguiente definición generaliza la definición de diferenciabilidad para funciones con valores vectoriales (llamados campos vectoriales).

Definición

Sea $U\ne \emptyset$ un subconjunto abierto de $\mathbb{R}^n$ y $F:U \to \mathbb{R}^m$ una función. Escribamos las funciones coordenadas de $F$ como $$F(p)=(f_1(p),\cdots, f_m(p) )$$ donde cada \(f_i\) es una función que con valores escalares, \(f_i:U \to \mathbb{R}\).

Decimos que la función $F$ es diferenciable en $p_0$ si y sólo si todas las funciones escalares $f_i$, $i=1,\dots, m$, son diferenciables en $p_0$.

Si \(F\) es diferenciable en \(p_0\) definimos la matriz de darivadas parciales de \(F\) en \(p_0\) como: $$ D_{p_0}F=[\partial_{p_j}f_i(p_0)]_{1\leq i \leq m, 1 \leq j \leq n} $$

Notas.

  1. Recordemos que si $f_i$ es diferenciable en $p_0$ entonces todas sus derivadas parciales en $p_0$ existen asi pues la matriz anterior tiene sentido.
  2. El renglón-$i$ de $D_{p_0}F$ es simplemente $\nabla_{p_0}f_i$. Es decir la matriz derivada se obtiene escribiendo en los renglones los gradientes de las funciones coordenadas.
  3. La matriz \(D_{p_0}F\) es una matriz de \(m\times n\) es decir de tamaño \[\textrm{(dimensión codominio)}\times \textrm{(dimensión dominio)}\]

Ejercicio

Para cada una de las siguientes funciones encuentra la matriz de derivadas parciales

  1. $F(x,y)=(xe^y, ye^x)$
  2. $F(x,y)=(xy\cos(x), xy\sen(y))$
  3. $F(x,y)=(xy+x^2,x^2+y^2, x^3+xy+y^3)$
  4. $F(x,y,z)=(xyz, x^2y^2z^2)$
  5. \(F(x,y,z)=(xy, xe^{xy}, \ln(1+x^2z^2))\)
  6. \(F(x,y,z)=(x+y+z, x^2+y^2+z^2, e^{xyz}, \ln(x^2+y^2+z^2))\)

Calculamos $\nabla_p f_1$ y $\nabla_p f_2$ \begin{align*} \nabla_{p}f_1 =& (e^y , xe^y),\\ \nabla_{p}f_2 =& (ye^x, e^x). \end{align*} Por lo tanto la matriz de derivadas parciales está dada por \begin{equation*} D_p F = \begin{pmatrix} e^y & xe^y \\ ye^x & e^x \end{pmatrix}. \end{equation*}

Tenemos que calcular $\nabla_p f_1, \nabla_p f_2, \nabla_p f_3$, \begin{align*} \nabla_p f_1 =& (y + 2x, x),\\ \nabla_p f_2 =& (2x, 2y),\\ \nabla_p f_3 =& (3x^2 + y, x+3y^2), \end{align*} con ello \begin{equation*} D_p F = \begin{pmatrix} y+2x & x\\ 2x & 2y\\ 3x^2+y & x+3y^2 \end{pmatrix}. \end{equation*}

Al igual que en los casos anteriores, primero calculamos los gradientes de las funciones coordenada \begin{align*} \nabla_p f_1 =& (x,y,0),\\ \nabla_p f_2 =& (e^{xy} + xye^{xy}, x^2e^{xy}, 0),\\ \nabla_p f_3 =& (\frac{2xz^2}{1+x^2z^2}, 0, \frac{2zx^2}{1+x^2z^2}), \end{align*} por lo tanto \begin{equation*} D_p F = \begin{pmatrix} y & x & 0\\ e^{xy} + xye^{xy} & x^2e^{xy} & 0\\ \frac{2xz^2}{1+x^2z^2}) & 0 & \frac{2zx^2}{1+x^2z^2}\\ \end{pmatrix}. \end{equation*}

Ejercicio

Supongamos que $F:\mathbb{R}^n \to \mathbb{R}^m$ es una función lineal. Demuestra que, para todo $p_0\in \mathbb{R}^n$, $F$ es diferenciable en $p_0$. Además si \(M\) es la matriz que representa a \(F\) entonces $D_{p_0}F=M$.

Escribimos las funciones coordenadas de \(F\) como \[ F(p)=(f_1(p),\dots, f_m(p)) \] Al ser \(F\) lineal resulta que cada \(f_i:\mathbb{R}^n \to \mathbb{R}\) es una función lineal. Ya que las funciones lineales son diferenciables en todo punto concluimos que \(F\) es diferenciable en todo \(\mathbb{R}^n\).

Continuando con la matriz que representa a \(F\), al ser \(f_i\) lineal existe un vector \((a_{i,1}, \dots,a_{i,m} )\in \mathbb{R}^n \) tal que \begin{equation}\label{Eqn:AuxEjmploFunLineal} f_i(p_1,\dots, p_n)=a_{i,1}p_1+\cdots + a_{i,n}p_n \end{equation} y por lo tanto \(M=[a_{i,j}]_{1\leq i \leq n, 1\leq j \leq m}\).

Finalmente tomando la derivada parcial con respecto a \(p_j\) en \eqref{Eqn:AuxEjmploFunLineal} obtenemos \(\partial_{p_j}f_i=a_{i,j}\) y por lo tanto \(D_{p_0}F=M\).

Ejercicio

Sea $U$ un abierto de $\mathbb{R}^n$ , $F,G:U\to \mathbb{R}^m$ dos funciones y sea $\alpha\in \mathbb{R}$ un escalar. Sea $p_0 \in U$ un punto tal que tanto $F$ como $G$ son diferenciables en $p_0$.

Demuestra que la función $\alpha F+G$ es diferenciable en $p_0$ y $$ D_{p_0}(\alpha F+G)=\alpha D_{p_0}F+D_{p_0}G. $$

Escribimos las funciones coordenadas de \(F\) y \(G\) como \[ F(p)=(f_1(p),\dots, f_m(p)), G(p)=(g_1(p),\dots, g_m(p)) \] Se sigue que las funciones coordenadas de \(\alpha F+G\) son \[ (\alpha F+G)(p)=((\alpha f_1+g_1)(p), \dots, (\alpha f_m+g_m)(p)) \] Ahora:

\(F, G\) diferenciables en \(p_0\) \(\Rightarrow \) para toda \(i\), \(f_i, g_i\) son diferenciables en \(p_0\),

\(\Rightarrow\) \(\alpha f_i+g_i\) es diferenciable en \(p_0\) para toda \(i\),

\(\Rightarrow \) \(\alpha F+G\) es diferenciable en \(p_0\).

Ejercicio

Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^2$, $(x_0,y_0)\in U $ y $F:U \to \mathbb{R}^2 $ una función diferenciable en $(x_0,y_0)$.

Escribamos las funciones coordenadas de $F$ como $F=(f_1,f_2)$. Por simplicidad denotamos por $A$ a la función lineal inducida por la matriz de derivadas parciales $D_{(x_0,y_0)}F$.

  1. Demuestra que, si $(x,y)\ne (x_0,y_0)$: \begin{eqnarray*} & & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{|f_1(x,y)-f_1(x_0,y_0)- \partial_xf_1(x_0,y_0)(x-x_0)- \partial_yf_1(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ &+& \frac{|f_2(x,y)-f_2(x_0,y_0)- \partial_xf_2(x_0,y_0)(x-x_0)- \partial_yf_2(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \end{eqnarray*}
  2. Usando el inciso anterior y el hecho de que las funciones \(f_i\) son diferenciables en \(p_0\) demuestra que $$ \lim_{(x,y)\to (x_0,y_0)} \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} =0. $$

En coordenadas tenemos que \begin{eqnarray*} F(x,y)-F(x_0,y_0)&=&(f_1(x,y), f_2(x,y))-(f_1(x_0,y_0), f_2(x_0,y_0))\\ &=&(f_1(x,y)-f_1(x_0,y_0),f_2(x,y)-f_2(x_0,y_0)) \end{eqnarray*} \begin{eqnarray*} A(x-x_0,y-y_0)&=& (\partial_xf_1(x_0,y_0)(x-x_0)+\partial_y f_1(x_0,y_0)(y-y_0), \\ & &\partial_xf_2(x_0,y_0)(x-x_0)+\partial_y f_2(x_0,y_0)(y-y_0)) \end{eqnarray*} Por lo tanto \(F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0)=(a,b)\) donde \begin{eqnarray*} a= f_1(x,y)-f_1(x_0,y_0) - \partial_xf_1(x_0,y_0)(x-x_0)-\partial_y f_1(x_0,y_0)(y-y_0) \\ b= f_2(x,y)-f_2(x_0,y_0) - \partial_xf_2(x_0,y_0)(x-x_0)-\partial_y f_2(x_0,y_0)(y-y_0) \end{eqnarray*}

Usando que \(\|(a,b)\|\leq |a|+|b|\) obtenemos \begin{eqnarray*} & & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{|a|}{\|(x-x_0,y-y_0)\|}+\frac{|b|}{\|(x-x_0,y-y_0)\|} \\ \end{eqnarray*}

Ahora, \(F\) diferenciable en \((x_0,y_0)\) implica \(f_1,f_2\) diferenciables en \((x_0,y_0)\) por lo que \begin{eqnarray*} & \lim_{(x,y)\to (x_0,y_0)} & \frac{|f_1(x,y)-f_1(x_0,y_0)- \partial_xf_1(x_0,y_0)(x-x_0)- \partial_yf_1(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ & = & 0\\ & \lim_{(x,y)\to (x_0,y_0)}& \frac{|f_2(x,y)-f_2(x_0,y_0)- \partial_xf_2(x_0,y_0)(x-x_0)- \partial_yf_2(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ & = & 0 \end{eqnarray*} Por el inciso anterior \begin{eqnarray*} & 0\leq & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{|f_1(x,y)-f_1(x_0,y_0)- \partial_xf_1(x_0,y_0)(x-x_0)- \partial_yf_1(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ &+& \frac{|f_2(x,y)-f_2(x_0,y_0)- \partial_xf_2(x_0,y_0)(x-x_0)- \partial_yf_2(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \end{eqnarray*} y por la ley del sandwich concluimos \[ \lim_{(x,y)\to (x_0,y_0)}\frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|}=0 \]

Ejercicio

Este ejercicio se puede pensar como el regreso del Ejercicio 13.4.

Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^2$, $p_0=(x_0,y_0)\in U$ y $F:U\to \mathbb{R}^2$.

Supongamos que existe una función lineal $A:\mathbb{R}^2\to \mathbb{R}^2$, tal que \begin{equation}\label{Eqn:GenLimiteEquivalenteDefDif} \lim_{(x,y)\to (x_0,y_0)} \frac{\| F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\| (x-x_0, y-y_0) \|}=0. \end{equation} Denotemos \[ A(x,y)=(a_{1,1}x+a_{1,2}y, a_{2,1}x+a_{2,2}y). \] Demuestra que

  1. Demuestra que, para $i=1,2$ \begin{eqnarray*} & & \frac{|f_i(x,y)-f_i(x_0,y_0)-a_{i,1}(x-x_0)- a_{i,2}(y-y_0)|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \end{eqnarray*}
  2. Concluye del inciso anterior y de la definción de diferenabildad (8.1) que tanto $f_1$ como $f_2$ son diferenciables en $p_0$ y por lo tanto $F$ es diferenciable en $p_0$.

Denotemos \((a,b)=F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0)\). Tomando coordenadas tenemos que \begin{eqnarray*} a= f_1(x,y)-f_1(x_0,y_0)-a_{1,1}(x-x_0)-a_{1,2}(x-x_0)\\ b= f_2(x,y)-f_2(x_0,y_0)-a_{2,1}(x-x_0)-a_{2,2}(x-x_0) \end{eqnarray*} Usando las desigualdades \(|a|\leq \|(a,b)\|, |b|\leq \|(a,b)\|\) llegamos a \begin{eqnarray*} & & \frac{|f_i(x,y)-f_i(x_0,y_0)-a_{i,1}(x-x_0)- a_{i,2}(y-y_0)|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \end{eqnarray*}

Usando \eqref{Eqn:GenLimiteEquivalenteDefDif} y la desigualdad anterior obtenemos \[ \lim_{(x,y)\to 0 } \frac{|f_i(x,y)-f_i(x_0,y_0)-a_{i,1}(x-x_0)- a_{i,2}(y-y_0)|}{\|(x-x_0,y-y_0)\|} =0 \] por lo tanto concluimos que \(f_i\) es diferenciable en \((x_0,y_0)\) (ver Definición 8.1).

Nota

De los Ejercicio 13.4 y Ejercicio 13.5 se puede concluir que \(F:U\to \mathbb{R}^2\) es diferenciable en \(p_0\) sii si y sólo si existe una transformación lineal $A:\mathbb{R}^2\to \mathbb{R}^2$ tal que $$ \lim_{(x,y)\to (x_0,y_0)} \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|}=0 $$ y la matriz que representa \(A\) es la matriz de derivadas parciales \(D_{p_0}F\).

Proposición

Esta proposición generaliza la observación de la Nota 13.6 para varias dimensiones.

Sea $U$ un subconjunto abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$.

$F$ es diferenciable en $p_0$ si y sólo si existe una trandormación lineal $A:\mathbb{R}^n \to \mathbb{R}^m$, tal que $$ \lim_{p\to p_0}\frac{\|F(p)-F(p_0)-A(p-p_0)) \|}{\|p-p_0\|}=0. $$ En tal caso la matriz de derivadas parciales $D_{p_0}F$ es la representación matricial de \(A\).

Sugerencia: copia los pasos de Ejercicio 13.4 Ejercicio 13.5.

Ejercicio

Así como las funciones diferenciables con valores reales admiten una aproximación lineal, (ver ejercicio Proposición 10.3), también así lo hacen las funciones con valores vectoriales.

Sea $U\ne \emptyset $ un abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$ una función diferenciable en $p_0$.

Demuestra que existe una función con valores vectoriales, definida en una bola centrada en $p_0$, $E:B_r(p_0) \to \mathbb{R}^m$ tal que

  1. para todo $p\in B_r(p_0)$, $F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p)$,
  2. $\lim_{p\to p_0}\frac{\| E(p)\|}{\| p-p_0 \|}=0$.

    Sugerencia: define $E(p)=F(p)-F(p_0)-D_{p_0}F(p-p_0)$ y prueba que el límite que se pide es cero.

Concluye que la función \(F\) es continua en \(p_0\).

Al ser \(U\) abierto exsite un \(r>0\) tal que \(B_r(p_0)\subseteq U\). Para \(p\in B_r(p_0)\) definimos \(E(p)=F(p)-F(p_0)-D_{p_0}F(p-p_0)\). Es claro que para \(p\in B_r(p_0)\) se satisface \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] Además \[ \frac{\|E(p)\|}{\|p-p_0\|}=\frac{\|F(p)-F(p_0)-D_{p_0}F(p-p_0)\| \|}{\|p-p_0\|} \] por lo que \(\lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}=0\) se sigue de Proposición 13.9

Antes de probar la continuidad notamos que \(\lim_{p\to p_0}E(p)=0\). Para probar lo anterior usando la ley de multiplicación para límites tenemos: \begin{eqnarray*} 0&=& \lim_{p\to p_0} \| p-p_0\| \lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}\\ &=& \lim_{p\to p_0}\left(\|p-p_0\|\frac{\|E(p)\|}{\|p-p_0\|} \right) \\ &=& \lim_{p\to p_0}\| E(p)\| \end{eqnarray*}

Fnalmente para probar la continuidad de \(F\) primero notamos los siguientes límites \begin{eqnarray*} \lim_{p\to p_0}F(p_0)&=&F(p_0) \\ \lim_{p\to p_0} D_{p_0}F(p-p_0)&=&D_{p_0}F(p_0-p_0)=0 \\ \lim_{p\to p_0} E(p)&=&0 \end{eqnarray*} (la segunda identidad se justifica al ser la función lineal \(D_{p_0}F\) continiua). Si tomamos límite en la identidad \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] y usamos la ley de la suma para límites obtenemos que \begin{eqnarray*} \lim_{p\to p_0}F(p)&=&\lim_{p\to p_0}F(p_0)+\lim_{p\to p_0}D_{p_0}F(p-p_0)+\lim_{p\to p_0}E(p) \\ &=&F(p_0) \end{eqnarray*}

Proposición

Sea $U\ne \emptyset $ un abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$ una función.

Supongamos que existe una bola abierta $B_r(p_0)\subseteq U$, una función $\tilde{E}:B_r(p_0) \to \mathbb{R}^m$ y una función lineal $L:\mathbb{R}^n \to \mathbb{R}^m$ que satisfacen

  1. para $p\in B_r(p_0)$, $F(p)=F(p_0)+L(p-p_0)+\tilde{E}(p)$
  2. $$ \lim_{p \to p_0} \frac{\|\tilde{E}(p)\|}{\|p-p_0\|}=0 $$
Entonces $F$ es diferenciable en $p_0$ y la matriz de derivadas parciales, valuadas en $p_0$, es la matriz que representa a $L$.

Sugerencia: si $\tilde{E}(p)=(\tilde{E}_1(p), \dots, \tilde{E}_m(p))$, primero prueba que las funciones $\tilde{E}_j$ satisfacen las condiciones del ejercicio Proposición 10.4 y de éste ejercicio concluye que cada función coordenada de $F$ es diferenciable en $p_0$.

Primeramente escribimos las funciones coordenadas de las funciones: \begin{eqnarray*} F(p)&=&(f_1,(p),\dots, f_m(p)), \\ L(p)&=&(L_1(p),\dots, L_m(p)), \\ \tilde{E}(p)&=&(\tilde{E}_1(p),\dots, \tilde{E}_m(p)) \end{eqnarray*} Notamos que al ser \(L\) lineal cada una de las funciones coordenadas \(L_i\) es lineal.

Ahora, si escribimos la identidad $F(p)=F(p_0)+L(p-p_0)+\tilde{E}(p)$ en coordenadas obtenemos \(m\) identidades como siguen: \begin{eqnarray*} f_1(p)&=&f_1(p_0)+L_1(p-p_0)+\tilde{E}_1(p) \\ &\vdots & \\ f_m(p)&=&f_m(p_0)+L_m(p-p_0)+\tilde{E}_m(p) \\ \end{eqnarray*} además usando que \(|\tilde{E}_i(p)|\leq \|\tilde{E}(p)\|\) obtenemos \[ 0\leq \frac{|\tilde{E}_j(p)|}{\|p-p_0\|}\leq \frac{\|\tilde{E}(p)\|}{\|p-p_0\|} \] asi que por la ley del sandwich para límites concluimos \[ \lim_{p\to p_0} \frac{|\tilde{E}_j(p)|}{\|p-p_0\|}=0 \]

Recapitulando tenemos que para cada función coordenada \(f_j\) se cumple \[ f_j(p)=f_j(p_0)+L_j(p-p_0)+\tilde{E}_j(p) \] donde \(L_j\) es una función lineal y \[ \lim_{p\to p_0} \frac{|E_j(p)|}{\|p-p_0\|}=0 \] Es decir, \(f_j\) admite una aproximación lineal en \(p_0\). Por la Proposición 10.4 concluimos que \(f_j\) es diferenciable en \(p_0\).

Por lo tanto toda función coordenada de \(F\) es diferenciable en \(p_0\) lo que nos dice que \(F\) es diferenciable en \(p_0\).

En cuanto a la matriz de derivadas parciales, de nuevo por la Proposición 10.4 \(L_j=\nabla_{p_0} f_j\). Por lo tanto la matriz que representa a \(L\) tiene por renglones los gradientes \(\nabla_{p_0}f_j\), \(j=1,\dots,m\), por lo que \(L=D_{p_0}F\).

Teorema

Sean $U \subset \mathbb{R}^n$ y $V\subseteq \mathbb{R}^m$ subconjuntos abiertos y $G:V \to \mathbb{R}^n$, $F:U \to \mathbb{R}^k$ tal que $G(V)\subseteq U$ (para que $F\circ G$ esté bien definida). Supongamos que $q_0\in V$, $G$ es diferenciable en $q_0$ y $F$ es diferenciable en $G(q_0)$.

Entonces $F\circ G$ es diferenciable en $q_0$ y $$ D_{q_0}(F\circ G)=(D_{G(q_0)}F)(D_{q_0}G) $$ donde en la última igualdad se tiene multiplicación de matrices.

Ejercicio

Este ejercicio es una preparación para dar una prueba de la regla de la cadena.

Considera las funciones $G: \mathbb{R}^3 \to \mathbb{R}^2$, $F:\mathbb{R}^2 \to \mathbb{R}^2$ dadas por \begin{eqnarray*} G(x,y,z)&=&(g_1(x,y,z),g_2(x,y,z)), \\ F(u,v)&=&(f_1(u,v), f_2(u,v) ) \end{eqnarray*} donde \begin{eqnarray*} g_1(x,y,z)&=&xy,\\ g_2(x,y,z)&=&yz, \\ f_1(u,v)&=&u^2-v^2,\\ f_2(u,v)&=&u+v. \end{eqnarray*} Define $H:\mathbb{R}^3 \to \mathbb{R}^2$ por $H(x,y,z)=F(G(x,y,z))$.

  1. Calcula $\partial_x g_i, \partial_yg_i, \partial_z g_i$, $i=1,2,3$, $\partial_u f_j.\partial_v f_j$, $j=1,2$.
  2. Escribe las funciones coordenadas de $H$ como $$H(x,y,z)=(h_1(x,y,z), h_2(x,y,z))$$ Calculando directamente la composición, encuentra las fórmulas para $h_1$ y $h_2$.
  3. Calcula las parciales $\partial_x h_i,\partial_y h_i, \partial_z h_i$, $i=1,2$.
  4. Usando los incisos anteriores prueba que, para $i=1,2$: \begin{eqnarray*} \partial_x h_i(x,y,z)&=& \partial_u f_i(g_1(x,y,z),g_2(x,y,z)) \partial_x g_1(x,y,z) \\ &+& \partial_v f_i(g_1(x,y,z),g_2(x,y,z)) \partial_x g_2(x,y,z) \end{eqnarray*} Si hacemos abuso de notación y pensamos a las variables $u$ y $v$ como dependientes de $x,y$ y $z$ de la siguiente forma: $u(x,y,z)=g_1(x,y,z), v(x,y,z)=g_2(x,y,z)$, lo anterior también se escribe: \begin{eqnarray*} \frac{\partial h_i}{\partial x}&=& \frac{\partial f_i}{\partial u} \frac{\partial u}{\partial x} + \frac{\partial f_i}{\partial v} \frac{\partial v}{\partial x} \end{eqnarray*}

Ejercicio

Este ejercicio generaliza el anterior, observando que las fórmulas para $F$ y $G$ no son absolutamente necesarias.

Considera funciones clase $C^1$, $G:\mathbb{R}^3 \to \mathbb{R}^2$ y $F:\mathbb{R}^2 \to \mathbb{R}^2$ y $H=F \circ G$.

  1. Escribe las funciones coordenadas de las funciones como \begin{eqnarray*} G(x,y,z)&=&(g_1(x,y,z),g_2(x,y,z))\\ F(u,v)&=&(f_1(u,v), f_2(u,v))\\ H(x,y,z)&=&(h_1(x,y,z), h_2(x,y,z)) \end{eqnarray*} Prueba que $$ h_i(x,y,z)=f_i(g_1(x,y,z), g_2(x,y,z)) $$
  2. Dejando las coordenadas $y$ y $z$ fija y usando el primer caso de la regla de la cadena, prueba que $$ \partial_x h_i =\partial_u f_i \partial_x g_1+ \partial_v f_i \partial_x g_2 $$
  3. Componiendo las funciones tenemos \begin{eqnarray*} H(x,y,z)&=&F(G(x,y,z))\\ &=&(f_1(G(x,y,z)),f_2(G(x,y,z))) \\ &=& (f_1(g_1(x,y,z),g_2(x,y,z)), f_2(g_1(x,y,z),g_2(x,y,z))) \end{eqnarray*} de donde sale el resultado.

    Fijamos \(y,z\) y definimos la curva \(\gamma(x)=(g_1(x,y,z),g_2(x,y,z))\). Se sigue que \begin{eqnarray*} \partial_xh_i&=& \frac{d f_i(\gamma(x))}{dx}\\ &=&\langle \nabla_{(u,v)} f , \gamma'(x)\rangle \\ &=& \partial_u f \partial_x g_1+ \partial_vf \partial_x g_2 \end{eqnarray*}

Ejercicio

Este ejercicio prueba el caso general de la regla de la cadena, con la hipótesis extra de que tanto $F$ como $G$ son funciones clase $C^1$ en sus respectivos dominios.

  1. Escribe las funciones coordendas de $F$ y $G$ como: $$ F(p)=(f_1(p), \dots, f_k(p)), \, p\in U \subset \mathbb{R}^n, $$ $$ G(q)=(g_1(q), \dots, q_n(q)), \, q\in V\subset \mathbb{R}^m. $$ Denotemos $H=F\circ G$. Entonces tenemos, para $q\in V$ $$ H(q)=(f_1(g_1(q), \dots, g_n(q)), \dots,f_k(g_1(q), \dots, g_n(q)) ) $$ Fija una función coordenada de $H$, digamos $$ h_{i_0}(q):=f_{i_0}(g_1(q), \dots, g_n(q)) $$ Denotemos las entradas de $q$ como $q=(q_1,\dots, q_m)$ y las de $p$ como $p=(p_1,\dots, p_n)$. Fija $j_0\in \{1,\dots, m\}$ y considera la función que se obtiene de $h_{i_0}$ dejando todas las coordenadas $q_1,\dots, q_m$ fijas, excepto la $q_{j_0}$. Usa el primer caso de la regla de la cadena para probar $$ \partial_{q_{j_0}}h_{i_0}(q)= \sum_{i=1}^n \partial_{p_i}f_{i_0}( g_1(q), \dots, g_n(q)) \partial_{q_{j_0}}g_i(q) $$
  2. Usando el ejercicio anterior y la definición de producto de matrices, prueba que $$ D_{q}H=(D_{g(q)}F)(D_qG) $$
  3. Concluye que $H$ es una función de clase $C^1$.

Ejercicio

Este ejercicio prueba la regla de la cadena, en el caso más general.

Sean $U \subset \mathbb{R}^n$ y $V\subseteq \mathbb{R}^m$ subconjuntos abiertos y $G:V \to \mathbb{R}^n$, $F:U \to \mathbb{R}^k$ tal que $G(V)\subseteq U$ (para que $F\circ G$ esté bien definida). Supongamos que $q_0\in V$, $G$ es diferenciable en $q_0$ y $F$ es diferenciable en $G(q_0)$.

ComposicionFun
  1. Denota $p_0=G(q_0)$. Usando que $F$ es diferenciable en $p_0$, prueba que podemos escribir, para $p$ cercano a $p_0$: $$ F(p)=F(p_0)+ D_{p_0}F (p-p_0) +\|p-p_0\| K(p) $$ con $K(p)$ una función continua con \(K(p_0)=0\).
  2. AproxLineal

  3. Ahora prueba que, para $q$ cercano a $q_0$: $$ F(G(q))= F (G (q_0))+ (D_{p_0}F)( G(q)-G(q_0)) + \|G(q)-G(q_0)\| K(G(q)) $$
  4. Usando que $G$ es diferenciable en $q_0$ prueba que, para $q$ cercano a $q_0$ $$ G(q)-G(q_0)=D_{q_0}G(q-q_0)+ \| q-q_0\|\tilde{K}(q) $$ donde $\tilde{K}$ es una función continua con $\tilde{K}(q_0)=0$.
  5. Concluye que, para $q \ne q_0$ y cerca de $q_0$ \begin{eqnarray*} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|} &\leq & \| (D_{p_0}F)(\tilde{K}(q))\| \\ &+& \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|}\| K(G(q))\| \end{eqnarray*}
  6. Prueba que $$\lim_{q \to q_0} \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|} \|K(G(q))\|=0 $$ y $$ \lim_{q\to q_0} \|(D_{p_0}F)(\tilde{K}(q) \|=0. $$
  7. Usando la Proposición 13.11 concluye que $F\circ G$ es diferenciable en $q_0$ y $$ D_{q_0}F\circ G= (D_{G(q_0)}F)(D_{q_0}G) $$

Usando que \(F\) admite una aproximación lineal podemos escribir \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] para \(p\) cercano a \(p_0\) y donde la función \(E\) satisface \[ \lim_{p\to p_0} \frac{\|E(p)\|}{\|p-p_0\|}=0. \]

Ahora definimos $$ K(p)=\left\{ \begin{array}{cc} \frac{E(p)}{\|p-p_0\|} & p\ne p_0 \\ 0 & p=p_0 \end{array} \right. $$ Es claro que \(K\) está definida para \(p\) cercano a \(p_0\) y es continua para todo \(p\ne p_0\). Además es continua en \(p_0\) pues \[ \lim_{p\to p_0}\|K(p)\|=\lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}=0 \] Finalmente de la definición de \(K\) y la aproximación lineal para \(F\) se sigue, para \( p\ne p_0\) \begin{eqnarray*} F(p)&=&F(p_0)+D_{p_0}F(p-p_0)+E(p)\\ &=&F(p_0)+D_{p_0}F(p-p_0)+\|p-p_0\|\frac{E(p)}{\|p-p_0\|}\\ &=&F(p_0)+D_{p_0}F(p-p_0)+\|p-p_0\|K(p) \end{eqnarray*}

Ya que \(G\) es continua en \(q_0\) (al ser diferenciable en \(q_0\)) si \(q\) está cercano a \(q_0\) entonces \(G(q)\) está cercano a \(G(q_0)=p_0\).

ContinuidadG

Por lo tanto podemos utilizar el inciso (1) para obtener (tomando \(p=G(q)\)) \[ F(G(q))= F (G (q_0))+ (D_{p_0}F)( G(q)-G(q_0)) + \|G(q)-G(q_0)\| K(G(q)) \]

La prueba de que $$ G(q)-G(q_0)=D_{q_0}G(q-q_0)+ \| q-q_0\|\tilde{K}(q) $$ con \(\tilde{K}\) una función continua con \(\tilde{K}(q_0)=0\) es similar al inciso 1.

Ahora, substituyendo $$ G(q)-G(q_0)=D_{q_0}G(q-q_0)+ \| q-q_0\|\tilde{K}(q) $$ en $$ F(G(q))= F (G (q_0))+ (D_{p_0}F)( G(q)-G(q_0)) + \|G(q)-G(q_0)\| K(G(q)) $$ se sigue que \begin{eqnarray*} F(G(q))&= &F (G (q_0))+ (D_{p_0}F)(D_{q_0}G)(q-q_0)\\ &+& \|q-q_0\|(D_{p_0}F)(\tilde{K}(q)) + \|G(q)-G(q_0)\| K(G(q)) \end{eqnarray*} por lo tanto \begin{eqnarray*} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|} &\leq & \| (D_{p_0}F)(\tilde{K}(q))\| \\ &+& \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|}\| K(G(q))\| \end{eqnarray*}

Usando el inciso (3) tenemos (para \(q\ne q_0\)) \begin{eqnarray*} \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}&=&\frac{\| D_{q_0}G(q-q_0)+ \|q-q_0\|\tilde{K}(p)\|}{\|q-q_0\|} \\ &\leq & \frac{\|D_{q_0}G(q-q_0)\|}{\|p-p_0\|}+\frac{\|q-q_0\|\|\tilde{K}(q)\|}{\|q-q_0\|} \\ &\leq & \frac{\|D_{q_0}G(q-q_0)\|}{\|p-p_0\|}+\|\tilde{K}(q)\| \end{eqnarray*} Ahora usamos la desigualdad \(\|D_{q_0}G(q-q_0)\| \leq \|D_{q_0}G\|_2 \|q-q_0\|\) (ver Ejercicio 3.41) llegamos a que \[ \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}\leq \|D_{q_0}G\|_2+\|\tilde{K}(q)\| \] Finalmente llegamos a \begin{eqnarray*} \lim_{q\to q_0 } \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}\|K(G(q))\| &\leq & \lim_{q\to q_0} (\|D_{q_0}G\|_2+\|\tilde{K}(q)\|)\|K(G(q))\| \\ &=&(\|D_{q_0}G\|_2+ \|\tilde{K}(q_0) \|)\|K(p_0)\|=0 \end{eqnarray*}

Ahora, usando que las funciones lineales son continuas tenemos \begin{eqnarray*} \lim_{q\to q_0} \|D_{p_0}F(\tilde{K}(q)) \|=\|D_{p_0}F(\tilde{K}(q_0)) \|=\|D_{p_0}F(0)\|=0. \end{eqnarray*}

Por último ya que \begin{eqnarray*} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|} &\leq & \| (D_{p_0}F)(\tilde{K}(q))\| \\ &+& \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|}\| K(G(q))\| \end{eqnarray*} tomando límite cuando \(q\to q_0\) y el inciso anterior llegamos a \[ \lim_{q\to q_0} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|}=0 \] por Proposición 13.9 concluimos que \(F\circ G\) es diferenciable en \(p_0\) y \[ D_{p_0}F\circ G= (D_{p_0}F)(D_{q_0}G) \]

Ejercicio

  1. Las ecuaciones \[ u=f(x,y,z), x=X(r,s,t), y=Y(r,s,t), z=Z(r,s,t) \] definen a \(u\) como una función de \(r,s,t\). Usando la regla de la cadena calcula \[ \frac{\partial u}{ \partial r},\frac{\partial u}{ \partial s}, \frac{\partial u}{ \partial t}. \]
  2. Las ecuaciones \[ u=f(x,y,z), x=X(r,s), y=Y(r,s), z=Z(r,s) \] definen a \(u\) como una función de \(r,s\). Usando la regla de la cadena calcula \[ \frac{\partial u}{ \partial r},\frac{\partial u}{ \partial s}. \]
  3. Las ecuaciones \[ u=f(x,y), x=X(r,s,t), y=Y(r,s,t) \] definen a \(u\) como una función de \(r,s,t\). Usando la regla de la cadena calcula \[ \frac{\partial u}{ \partial r},\frac{\partial u}{ \partial s},\frac{\partial u}{ \partial t} . \]

Los tres ejercicios se resolverán de manera similar.

Tenemos composición de una función de $\mathbb{R}^3 \to \mathbb{R}^3$ con otra de $\mathbb{R}^3 \to \mathbb{R}$. Por un lado notemos que como función de $x,y,z$ la matriz de derivadas parciales de $u$ es el gradiente $D_{(x,y,z)}u = (\frac{\partial u}{\partial x}, \frac{\partial u}{\partial y}, \frac{\partial u}{\partial z})$. y como función de $r,s,t$ es $D_{(r,s,t)}u = (\frac{\partial u}{\partial r},\frac{\partial u}{\partial s},\frac{\partial u}{\partial t})$. Por otro lado, $u = f(x,y,z) = f(X(r,s,t),Y(r,s,t),Z(r,s,t))$, por lo que usando la regla de la cadena se tiene que $D_{(r,s,t)}u = D_{(X(r,s,t),Y(r,s,t),Z(r,s,t))}f D_{(r,s,t)}(X,Y,Z)$. Ya se mencionó que la matriz de derivadas parciales de $u$, o en su defecto de $f$, es un gradiente, la matriz de derivadas parciales de la función $(X,Y,Z)$ es \begin{equation*} D_{(r,s,t)}(X,Y,Z) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s} & \frac{\partial X}{\partial t}\\ \frac{\partial Y}{\partial r} & \frac{\partial Y}{\partial s} & \frac{\partial Y}{\partial t}\\ \frac{\partial Z}{\partial r} & \frac{\partial Z}{\partial s} & \frac{\partial Z}{\partial t} \end{pmatrix}. \end{equation*} Recordemos que si tenemos el producto de matrices $AB = C$, la entrada $i,j$ de la matriz $C$ se obtiene de multiplicar la i-ésima matriz fila de $A$ por la j-ésima matriz columna de $B$, por lo tanto \begin{align*} \frac{\partial u}{\partial r} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial r},\\ \frac{\partial u}{\partial s} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial s},\\ \frac{\partial u}{\partial t} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial t} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial t} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial t},\\ \end{align*}

En este caso tenemos la composición de una función de $\mathbb{R}^3 \to \mathbb{R}$ con una de de $\mathbb{R}^2 \to \mathbb{R^3}$, sin embargo el procedimiento es similar. $u$ como función de $x,y,z$ tiene gradiente $(\frac{\partial u}{\partial x},\frac{\partial u}{\partial y},\frac{\partial u}{\partial z})$, en tanto que como función de $r,s$ tiene gradiente $(\frac{\partial u}{\partial r},\frac{\partial u}{\partial s})$. La matriz de derivadas parciales de la función $(X,Y,Z)$ ahora está dada por \begin{equation*} D_{(r,s,t)}(X,Y,Z) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s}\\ \frac{\partial Y}{\partial r} & \frac{\partial Y}{\partial s}\\ \frac{\partial Z}{\partial r} & \frac{\partial Z}{\partial s}\\ \end{pmatrix}, \end{equation*} por lo tanto \begin{align*} \frac{\partial u}{\partial r} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial r},\\ \frac{\partial u}{\partial s} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial s},\\ \end{align*}

Finalmente trabajamos con la composición de una función de $\mathbb{R}^2 \to \mathbb{R}$ y otra de $\mathbb{R}^3 \to \mathbb{R}^2$. El gradiente de $u$ respecto a las variables $x,y$ es $(\frac{\partial u}{\partial x},\frac{\partial u}{\partial y})$ y el gradiente respecto a las variables $r,s,t$ es $(\frac{\partial u}{\partial r},\frac{\partial u}{\partial s},\frac{\partial u}{\partial t})$. La matriz de derivadas parciales de la función $(X,Y)$ está dada por \begin{equation*} D_{(r,s,t)}(X,Y) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s} & \frac{\partial X}{\partial t}\\ \frac{\partial X}{\partial r} & \frac{\partial Y}{\partial s} & \frac{\partial Y}{\partial t} \end{pmatrix}. \end{equation*} Utilizando la regla de la cadena y la fórmula para el producto de matrices tenemos \begin{align*} \frac{\partial u}{\partial r} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r},\\ \frac{\partial u}{\partial s} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s},\\ \frac{\partial u}{\partial t} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial t} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial t}. \end{align*}

Ejercicio

Considera las funciones $F:\mathbb{R}^3\to \mathbb{R}^2$ y $G:\mathbb{R}^3\to \mathbb{R}^3$ dadas por $$ F(x,y,z)=(x^2+y+z, 2x+y+z^2), \quad G(u,v,w)=(2uv^2w^2,w^2\sen(v),u^2e^v) $$

  1. Encuentra la matriz de derivadas parciales $D_{(x,y,z)}F$ y $D_{(u,v,w)}G$.
  2. Define $H=F\circ G$. Usa la regla de la cadena para calcular la matriz derivada parciales $D_{(u,0,w)}H$.

  1. Las matrices de derivadas parciales se obtienen colocando en la i-ésima fila el gradiente de la i-ésima función coordenada. De esta forma \begin{align*} D_{(x,y,z)}F =& \begin{pmatrix} 2x & 1 & 1\\ 2 & 1 & 2z \end{pmatrix},\\ D_{(u,v,w)}G =& \begin{pmatrix} 2v^2w^2 & 4uvw^2 & 4uv^2w\\ 0 & w^2\cos(v) & 2w\sen(v)\\ 2ue^v & u^2e^v & 0 \end{pmatrix}, \end{align*}
  2. Primero calculamos $G(u,0,w) = (0,0,u^2)$. Por la regla de la cadena $D_{(u,0,w)}H = D_{G(u,0,w)}F D_{(u,0,w)}G$, evaluamos cada una de las matrices en el punto dado para obtener \begin{align*} D_{(u,0,w)}G =& \begin{pmatrix} 0 & 0 & 0\\ 0 & w^2 & 0\\ 2u & u^2 & 0 \end{pmatrix}, D_{G(u,0,w)}F =& \begin{pmatrix} 0 & 1 & 1\\ 2 & 1 & 2u^2 \end{pmatrix}, \end{align*} al multiplicar estas matrices se deduce que \begin{equation*} D_{(u,0,w)}H = \begin{pmatrix} 0 & 1 & 1\\ 2 & 1 & 2u^2 \end{pmatrix} \begin{pmatrix} 0 & 0 & 0\\ 0 & w^2 & 0\\ 2u & u^2 & 0 \end{pmatrix} = \begin{pmatrix} 2u & w^2 + u^2 & 0\\ 4u^3 & w^2+2u^4 & 0 \end{pmatrix}. \end{equation*}

Ejercicio

Considera la función $G:\mathbb{R}^2 \to \mathbb{R}^2$ dada por $$ G(x,y)=(x+y,2x-y ) $$

  1. Encuentra una función lineal, $f:\mathbb{R}^2 \to \mathbb{R}$ tal que, si $h=f\circ G$, entonces $$ \partial_x h(x,y)=2, \quad \partial_y h(x,y)=1 $$
  2. Encuentra una función clase $C^1$, $f:\mathbb{R}^2 \to \mathbb{R}$ tal que, si $h=f\circ G$, entonces $$ \partial_x h(x,y)=2x+y, \quad \partial_y h(x,y)=x-y $$

Ejercicio

  1. Considera la función $I:\mathbb{R}^3\to \mathbb{R}^3$ dada por $I(x,y,z)=(x,y,z)$. Demuestra que $$ D_{(x,y,z)}I=\left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] $$
  2. Encuentra todas las funciones diferenciables en $\mathbb{R}^3$, $F:\mathbb{R}^3 \to \mathbb{R}^3$, para las cuales $$ D_{(x,y,z)}F=\left[ \begin{array}{ccc} x & 0 & 0 \\ 0 & y & 0 \\ 0 & 0 & x \end{array} \right] $$
  3. Sean $p,q,r:\mathbb{R}\to \mathbb{R}$ funciones continuas en todo $\mathbb{R}$. Encuentra todas la funciones diferenciables, $G:\mathbb{R}^3 \to \mathbb{R}^3$, para las cuales $$ D_{(x,y,z)}G=\left[ \begin{array}{ccc} p(x) & 0 & 0 \\ 0 & q(y) & 0 \\ 0 & 0 & r(z) \end{array} \right] $$

Ejercicio

Sean $G:\mathbb{R}^m \to \mathbb{R}^n$, una función de clase $C^1$ en $\mathbb{R}^m$, con funciones coordenadas $G(q)=(g_1(q),\dots, g_n(q))$ y sea $f:\mathbb{R}^n \to \mathbb{R}$ una función de clase $C^1$ en $\mathbb{R}^n$ y sea $h=f\circ G$. Usa la regla de la cadena para demostrar que el gradiente de $h$ es una combinación lineal de los gradientes de las $g_k$, en específico: $$ \nabla_{q_0} h= \sum_{k=1}^n \partial_{p_k}f(G(q_0)) \nabla_{q_0}g_k $$ nota que $\partial_{p_k}f(g(q_0))$ es escalar y $\nabla_{q_0}g_k$ es vector.