Cálculo TRES

§ 14

Teorema de Taylor y Hessianos

Definición

Una forma cuadrática, en $n$ variables, es una función de la forma $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ Por ejemplo, en dos variables $x$ y $y$, una forma cuadrática se ve $$ Q(x,y)=a_{1,1}x^2+a_{1,2}xy+a_{2,1}yx+a_{2,2}y^2 $$ la cual se puede reescribir $$ Q(x,y)=a_{1,1}x^2+(a_{1,2}+a_{2,1})xy+a_{2,2}y^2 $$

Las formás cuadráticas siguen en complejidad, a las funciones constantes y las lineales.

A la matriz $A=[a_{i,j}]$, se le llama la matriz asociada a $Q$.

Ejercicio

Este ejercicio da la razón del nombre de forma cuadrática.

Demuestra que si $Q$ es una forma cuadrática entonces, para toda $\lambda\in \mathbb{R}$ $$ Q(\lambda x_1,\dots, \lambda x_n)=\lambda^2Q(x_1,\dots x_n) $$

\begin{eqnarray*} Q(\lambda x_1,\dots, \lambda x_n)&=&\sum_{i,j=1}^n (\lambda x_i)(\lambda x_j) \\ &=& \sum_{i,j=1}^n \lambda ^2(x_ix_j) \\ &=& \lambda^2Q(x_1,\dots, x_n) \end{eqnarray*}

Ejercicio

Considera la forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$

  1. Prueba que $Q$ se puede escribir $$ Q(x_1,\dots, x_n)= \left[ \begin{array}{ccc} x_1 & \dots & x_n \end{array} \right] \left[ \begin{array}{ccc} a_{1,1} & \dots & a_{1,n} \\ \vdots & \ddots & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{array} \right] \left[ \begin{array}{c} x_1 \\ \vdots\\ x_n \end{array} \right] $$ donde en el lado derecho se entiende como multiplicación de matrices.
  2. Prueba que $Q$ se puede escribir $$ Q(x_1,\dots, x_n)=\langle Ax,x \rangle $$ donde $x$ es el vector $(x_1,\dots, x_n)$ y $A$ es la matriz $$ A=\left[ \begin{array}{ccc} a_{1,1} & \dots & a_{1,n} \\ \vdots & \ddots & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{array} \right] $$

Sólo hacemos el caso de matrices de \(3\times 3\) (para más dimensiones es similar).

\begin{eqnarray*} & & \left[ \begin{array}{cc} x_1 & x_2 & x_3 \end{array} \right] \left[ \begin{array}{ccc} a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{array} \right] \left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] \\ &=& \left[ \begin{array}{cc} x_1 & x_2 & x_3 \end{array} \right] \left[ \begin{array}{c} a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 \\ a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 \\ a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3 \end{array} \right] \\ &=& x_1(a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 )\\ &+& x_2(a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 ) \\ &+& x_3(a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3) \\ &=& \sum_{i,j=1}^3 a_{i,j}x_ix_j \end{eqnarray*}

Sólo hacemos el caso de matrices de \(3\times 3\) (para más dimensiones es similar). Por \(Ax[1], Ax[2], Ax[3]\) denotamos las entradas del vector \(Ax\). Un cálculo directo muestra \begin{eqnarray*} Ax[1]=a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 \\ Ax[2]=a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 \\ Ax[3]=a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3 \end{eqnarray*}

Por lo tanto \begin{eqnarray*} \langle Ax, x \rangle &=&A x[1]x_1+Ax[2]x_2+Ax[3]x_3 \\ &=& (a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 )x_1 \\ &+& (a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3)x_2 \\ &+& (a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3)x_3 \\ &=& \sum_{i,j=1}^3 a_{i,j}x_ix_j \end{eqnarray*}

Ejercicio

Sea \(A\) una matriz de \(n\times n\). Entonces para todos \(x,y\in \mathbb{R}^n\) se cumple la identidad \[ \langle Ax, y \rangle = \langle x, A^t y\rangle \] donde \(A^t\) denota la matriz transpuesta de \(A\).

Por \(A[i,j]\) vamos a denotar la entrada \(i,j\) de la matirz \(A\) y por \(Ax[i]\) denotamos la entrada \(i\) del vector columna \(Ax\).

Con la notación anterior, si \(x=(x_1,\dots, x_n)\) entonces \(Ax[i]\) se escribe como \[ Ax[i]=\sum_{j=1}^n A[i,j]x_j \]

El lado izquiero de la identida es \begin{eqnarray*} \langle Ax,y\rangle &=& \sum_{i=1}^n Ax[i]y_i \\ &=& \sum_{i=1}^n (\sum_{j=1}^n A[i,j]x_j )y_i \\ &=& \sum_{i=1}^n \sum_{j=1}^n A[i,j]x_j y_i \end{eqnarray*}

El lado derecho es \begin{eqnarray*} \langle x, A^t y \rangle &=& \sum_{i=1}^n x_i A^ty[i] \\ &=& \sum_{i=1}^n x_i(\sum_{j=1}^n A^t[i,j]y_j) \\ &=& \sum_{i=1}^n \sum_{j=1}^n A[j,i]x_i y_j \end{eqnarray*}

Comparando ambos obtenemos \(\langle Ax,y\rangle = \langle x,A^ty\rangle\).

Definición

Una matriz cuadrada de $n\times n$, $A=[a_{i,j}]$, se llama simétrica si $a_{i,j}=a_{j,i}$, para todas $i,j=1,\dots, n$.

En términos de la transpuesta una matriz \(A\) es simétrica sii \(A=A^t\).

Ejercicio

Considera una matriz de $n\times n$, $A$ y define la matriz $B=\frac{1}{2}(A+A^t)$, donde $A^t$ denota la matriz transpuesta.

  1. Demuestra que $B$ es una matriz simétrica.
  2. Demuestra que $$ \langle Ax,x\rangle = \langle Bx,x \rangle $$ para todo $x\in \mathbb{R}^n$.

Este ejercicio dice que siempre podemos suponer simétrica a la matriz asociada a una forma cuadrática.

Usando las propiedades de linealidad de la transpuesta obtenemos \begin{eqnarray*} B^t&=&\left( \frac{1}{2}(A+A^t) \right)^t\\ &=& \frac{1}{2}(A^t+(A^t)^t) \\ &=& \frac{1}{2}(A^t+A)\\ &=&B \end{eqnarray*}

Finalmente \begin{eqnarray*} \langle Bx, x \rangle &=&\langle \frac{1}{2}(A+A^t)x,x\rangle \\ &=& \frac{1}{2} \langle Ax+A^tx,x \rangle \\ &=& \frac{1}{2}\left( \langle Ax, x \rangle + \langle A^tx, x \rangle \right)\\ &=& \frac{1}{2} \left( \langle Ax,x \rangle + \langle x,Ax \rangle \right) \\ &=& \frac{1}{2} \left( \langle Ax,x \rangle + \langle Ax ,x \rangle \right) \\ &=& \langle Ax,x\rangle \end{eqnarray*}

donde en la cuarta igualdad usamos el Ejercicio 14.4 y el hecho que \((A^t)^t=A\).

Nota

Dada una forma cuadrática en dimensión 2 \[ Q(x,y)=Ax^2+Bxy+Cy^2 \] la matriz simétrica que representa a \(Q\), es decir la matriz simétrica \(B\) que satisface \(Q(x)=\langle Bx,x\rangle\) se puede tomar como \[ B=\left[ \begin{array}{cc} A & B/2 \\ B/2 & C \end{array} \right] \]

Ejercicio

Considera la matriz de $n\times n$, $A=[a_{i,j}]$.

Demuestra que $A$ es simétrica si y sólo si $\langle Ax,y \rangle=\langle x,Ay \rangle$, para todos $x,y \in \mathbb{R}^n$.

Empecemos por suponer que $A$ es simétrica, es decir, $A^t=A$, además se sabe que para todo $x,y \in \mathbb{R}^n$ se tiene que $\langle Ax,y \rangle = \langle x,A^ty \rangle$, por lo tanto \begin{equation*} \langle Ax,y \rangle = \langle x,A^t y \rangle = \langle x,Ay \rangle. \end{equation*}

Supongamos ahora que se satisface la identidad descrita anteriormente. Empecemos por notar que la entrada $a_{ij}$ de la matriz $A$ se puede obtener como \begin{equation*} a_{ij} = \langle Ae_j,e_i \rangle, \end{equation*} donde $e_i,e_j$ son vectores canónicos. De esta manera \begin{equation*} a_{ij}=\langle Ae_j,e_i \rangle = \langle e_j,Ae_i \rangle = a_{ji}, \end{equation*} para cada $1\leq i,j \leq n$, por lo que $A$ es una matriz simétrica.

Ejercicio

Considera la forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ Demuestra $$ \langle \nabla Q, (x_1,\dots, x_n) \rangle= 2Q(x_1,\dots, x_n) $$

Definición

Una forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ se llama positiva definida sii:

  1. para toda $(x_1,\dots, x_n)\in \mathbb{R}^n$, $Q(x_1,\dots, x_n) \geq 0$.
  2. si $Q(x_1,\dots, x_n)=0$ entonces $x_1=\dots =x_n=0$.
La forma cuadrática $Q$ se llama definitivamente negativa si $-Q$ es positiva definida.

Definición

Una matriz cuadrada $A=[a_{i,j}]$, es positiva definida sii la forma cuadrática asociada, $$Q(x_1,\dots, x_n)=\sum_{i,j=1}^na_{i,j}x_ix_j$$ es positiva definida.

Usando el Ejercicio 14.3 resulta que una matriz \(A\) es positiva definida sii \(\langle Ax,x \rangle \geq 0\) para toda \(x\in \mathbb{R}^n\).

Una matriz \(B\) es negativa definida si \(-B\) es positiva definida.

La idea es que las matrices positivas definidas juegan el papel de los números positivos. Algunas analogías son: si \(A\) y \(B\) son positivas definidas entonces más adelante se verá que \(A+B\) es positiva definida; si \(A\) es positiva definida e invertible entonces \(A^{-1}\) es positiva definida.

Ejercicio

Considera $D$, una matriz diagonal, cuyas entradas en la diagonalc son $\lambda_1,\dots, \lambda_n$.

Demuestra que $D$ es definitivamente positiva si y sólo si $\lambda_i >0$, para toda $i$.

Demuestra que $D$ es definitivamente negativa si y sólo si $\lambda_i < 0$, para toda $i$.

Primero notamos que si \(D\) es una matriz diagonal entonces su forma cuadrática se ve \begin{eqnarray*} Q(x_1,\dots, x_n)&=&\sum_{i,j=1}^n D[i,j]x_ix_j \\ &=& \sum_{i=1}^n \lambda_i x_i^2 \end{eqnarray*} pues \(D[i,j]= 0\) para todos \(i,j\) con \(i\ne j\) y \(D[i,i]=\lambda_i\).

Ahora, si \(\lambda_j >0\) para toda \(j\) se sigue que \(Q(x_1,\dots, x_n) \geq 0\) para todos \(x_1,\dots, x_n\) y si \(Q(x_1,\dots, x_n)=\sum_{i=1}^n \lambda_i x_i^2=0\) entonces \(x_1=\dots=x_n=0\). Por lo tanto \(D\) se positiva definida.

Si \(\lambda_j< 0 \) para toda \(j\) se prueba de manera similar que \(-D\) es definitivamente positiva por lo que \(D\) es negativa definida.

Ejercicio

Demuestra que si las matrices cuadradas $A$ y $B$ son positiva definidas y $a>0$, entonces la matriz $aA+B$ también es positiva definida.

Si $x \in \mathbb{R}^n$ entonces \begin{equation*} \langle(aA+B)x, x\rangle = a\langle Ax,x \rangle + \langle Bx,x \rangle, \end{equation*} y la expresión del lado derecho siempre es no negativa pues $a>0$ y cada una de las matrices es positiva definida. De aquí también se deduce que si $\langle (aA+B)x,x \rangle =0$ para algún $x \in \mathbb{R}^n$ entonces $\langle Ax,x \rangle = \langle Bx,x \rangle = 0$ y por lo tanto $x = 0$.

Ejercicio

Da un ejemplo de una matriz de $2\times 2$ que no es ni negativa definida ni positiva definida.

Sugerencia: busca entre las matrices triangulares superiores.

Teorema

Sea \(A=[a_{i,j}]_{i,j}\) una matriz de \(n\times n\) simétrica considera su forma cuadrática \[ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j \]

  1. \(Q\) es positiva definida sii todos los valores propios de \(A\) son positivos.
  2. \(Q\) es negativa definida sii todos los valores propios de \(A\) son negativos.

Ya que \(A\) es una matriz simétrica existe una matriz ortogonal \(U\) tal que \(U^tDU=A\), donde \(D\) es una matriz diagonal formada por, \(\lambda_1,\dots, \lambda_n\), los valores propios de \(A\) (contados con multiplicidad).

Entonces \begin{eqnarray*} \langle Ax,x\rangle &=&\langle U^tDU x, x\rangle \\\ &=& \langle DUx,Ux\rangle \\ &=& \langle Dy,y\rangle \\ &=& \sum_{i=1}^n \lambda_i y_i^2 \end{eqnarray*} donde \(y:=Ux\).

De la identidad \(Q(x_1,\dots, x_n)=\sum_{i=1}^n \lambda_i y_i^2 \) se sigue que \(Q\) es positiva definida sii \(\lambda_i >0\) para toda \(i\) y es negativa definida sii \(\lambda_i < 0\) para toda \(i\).

Ejercicio

Sea $Q$ una forma cuadrática definitivamente positiva. Demuestra que existe una constante $k>0$ tal que $$ Q(x_1,\dots, x_n) \geq k \|(x_1,\dots x_n)\|^2 $$ para todo $(x_1,\dots, x_n)\in \mathbb{R}^n$.

Sugerencia: toma $k$ como el mínimo de $Q$ sobre la esfera unitaria de $\mathbb{R}^n$.

Como \(Q\) es polinomio es una función continua por lo que alcanza su valor mínimo en la esfera unitaria, es decir si \[ k=\min \{ Q(x_1,\dots, x_n): \|(x_1,\dots , x_n)\|=1\} \] entonces existe \((z_1,\dots z_n)\) un vector unitario tal que \(Q(z_1,\dots, z_n)=k\). Notamos que \(k>0\) pues si \(k=0\) entonces \(Q(z_1,\dots, z_n)=0\) pero al ser \(Q\) positiva definida debe de pasar que \((z_1,\dots, z_n)=0\), una contradiccíon al ser \((z_1,\dots, z_n)\) unitario.

Si \(y\in \mathbb{R}^n\) es distinto de cero entonces \(y/\|y\| \) está en la esfera unitaria y por lo tanto \[ Q\left(\frac{1}{\|y\|}y_1,\dots, \frac{1}{\|y\|}y_n\right) \geq k \] al ser \(Q\) cuadrática \[ Q\left(\frac{1}{\|y\|}y_1,\dots, \frac{1}{\|y\|}y_n\right)=\frac{1}{\|y\|^2} Q(y_1,\dots, y_n) \] por lo tanto \begin{eqnarray*} \frac{1}{\|y\|^2} Q(y_1,\dots, y_n)\geq k \Rightarrow Q(y_1,\dots, y_n) \geq k \|y\|^2 \end{eqnarray*}

Ejercicio

Considera la matriz de $2\times 2$ $$ B=\left[ \begin{array}{cc} a& b \\ b & c \end{array} \right] $$

  1. Demuestra que $B$ es positiva definida si y sólo si $a>0$ y $ac-b^2 = \det(B) >0$.
  2. Demuestra que $B$ es negativa definida si y sólo si $a < 0$ y $ ac-b^2=\det(B) > 0$

La forma cuadrática asociada a \(B\) es \begin{eqnarray*} Q(x,y)&=& \langle B(x,y), (x,y)\rangle \\ &=& \langle (ax+by,bx+cy),(x,y)\rangle \\ &=& ax^2+2bxy+cy^2 \end{eqnarray*}

\(\Rightarrow ] \) Supongamos que \(B\) es positiva.

Valuando en \((1,0)\) obtenemos \(0< Q(1,0)= a \).

Completando el cuadrado en \(x,y\) tenemos \begin{eqnarray*} Q(x,y)&=& a\left( x^2+ \frac{2b}{a}xy+\frac{c}{a}y^2 \right) \\ &=& a\left( x+ \frac{b}{a}y \right)^2- \frac{b^2}{a^2} y^2+\frac{c}{a}y^2 \\ &=& a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \end{eqnarray*}

Al ser positiva definida \begin{eqnarray*} 0< Q(-b,a)=0+c-\frac{b^2}{a}\Rightarrow 0< ac-b^2 \end{eqnarray*}

\(\Leftarrow ]\) Suppngamos que \(a>0, ac-b^2>0\). De la factorización \[ Q(x,y)= a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \] obtenemos que \(Q(x,y)\geq 0\) para toda \((x,y)\). Ahora, si suponemos que \(Q(x,y)=0\) se sigue \begin{eqnarray*} 0&=& a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \\ &\Rightarrow & 0= a\left( x+ \frac{b}{a}y \right)^2, \quad 0=\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \\ &\Rightarrow & 0=x+ \frac{b}{a}y , \quad 0=(ac - b^2) y^2 \\ &\Rightarrow & 0=x, 0=y. \end{eqnarray*}

Definición

Sea $f:U \to \mathbb{R}$ una función clase $C^2$, definida en un abierto $U$ de $\mathbb{R}^n$. El Hessiano de $f$, en el punto $p_0\in U$, denotado $H_{p_0}f$, es la función cuadrática en $n$ variables definida por $$ H_{p_0}f(x_1,\dots, x_n)=\frac{1}{2}\sum_{i,j=1}^n \partial^2_{i,j}f(p_0) x_ix_j $$ Es decir, es la forma cuadrática asociada a la matriz de segundas derivadas parciales, multiplicada por un factor de $1/2$, es decir $A=(1/2)[\partial_{i,j}^2f(p_0)]_{i,j=1}^n$, evaluadas en $p_0$.

La matriz Hessiana de \(f\), en \(p_0\), se define como la matriz \([\partial_{i,j}f(p_0)]_{i,j}\).

Ejercicio

Demuestra que para toda $f:\mathbb{R}^n \to \mathbb{R}$, función lineal y $p_0\in \mathbb{R}^n$, $H_{p_0}f$ es la función idénticamente cero.

Ejercicio

Sea $A=[a_{i,j}]$ una matriz simétrica, de $n\times n$, y considera $Q$, la forma cuadrática asociada a $A$. Sea $p_0$ cualquier punto en $\mathbb{R}^n$. Demuestra que las funciones $H_{p_0}Q$ y $Q$ son iguales.

Nota: en este ejercicio se ve la razón de poner el $1/2$ en la definición de Hessiano.

Empezaremos trabajando con el caso $n=3$ y después se mostrará el resultado para el caso general. La forma cuadrática asociada a la matriz $A$ está dada por $Q(\overline x)= \langle A\overline x,\overline x \rangle = \overline xA{\overline x}^t$, al desarrollar ésto último tenemos \begin{align*} (x,y,z) \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3}\\ a_{2,1} & a_{2,2} & a_{2,3}\\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix} (x,y,z)^t =& (x,y,z) \begin{pmatrix} a_{1,1}x + a_{1,2}y + a_{1,3}z\\ a_{2,1}x + a_{2,2}y + a_{2,3}z\\ a_{3,1}x + a_{3,2}y + a_{3,3}z\\ \end{pmatrix}\\ =& a_{1,1}x^2 + a_{1,2}xy + a_{1,3}xz + a_{2,1}xy + a_{2,2}y^2 + a_{2,3}yz \\&+ a_{3,1}xz + a_{3,2}yz + a_{3,3}z^2,\\ =& a_{1,1}x^2 + a_{2,2}y^2 + a_{3,3}z^2 + (a_{1,2} + a_{2,1})xy + (a_{1,3}+a_{3,1})xz \\&+ (a_{2,3} + a_{3,2})yz. \end{align*} Ahora se calculan las derivadas parciales, \begin{align*} \partial_x Q =& 2a_{1,1}x + (a_{1,2} + a_{2,1})y + (a_{1,3}+a_{3,1})z,\\ \partial_y Q =& 2a_{2,2}y + (a_{1,2} + a_{2,1})x + (a_{2,3}+a_{3,2})z,\\ \partial_z Q =& 2a_{3,3}z + (a_{1,3} + a_{3,1})x + (a_{2,3}+a_{3,2})y. \end{align*} Calcularemos algunas de las derivadas parciales de orden 2 para obtener la matriz Hessiana \begin{align*} \partial_{xx} Q =& 2a_{1,1},\\ \partial_{yx} Q =& a_{1,2} + a_{2,1} = 2a_{1,2} = 2a_{2,1},\\ \partial_{zx} Q =& a_{1,3} + a_{3,1} = 2a_{1,3} = 2a_{3,1},\\ \end{align*} observe que las últimas igualdades en las líneas 2 y 3 se dan por la simetría de $A$. Si se calculan las derivadas parciales de orden 2 faltantes se observan resultados similares, es más, se obtiene que $\partial_{xy}Q = \partial_{yx}Q$, $\partial_{xz}Q = \partial_{zx}Q$ y $\partial_{yz}Q = \partial_{zy}Q$, lo cual no debe ser sorpresa porque $Q$ es una forma cuadrática y por tanto de clase $C^2$. Con lo anterior concluimos que la matriz Hessiana asociada a $Q$ es \begin{equation*} H= \begin{pmatrix} 2a_{1,1}& 2a_{1,2} & 2a_{1,3} \\ 2a_{2,1}& 2a_{2,2} & 2a_{2,3} \\ 2a_{3,1}& 2a_{3,2} & 3a_{1,3} \end{pmatrix} = 2A, \end{equation*} a la cual corresponde el Hessiano $(x,y,z)(1/2 H)(x,y,z)^t = (x,y,z)A(x,y,z)^t = Q(x,y,z)$, por lo tanto $H_{p_0}Q = Q$.

Note que si $A$ es una matriz simétrica de $n \times n$ entonces la forma cuadrática asociada es \begin{align*} Q_A(x) =& xAx^t,\\ =& \sum_{i,j=1}^n a_{i,j}x_ix_j,\\ =& \sum_{i=j}^n a_{i,j}x_ix_j + \sum_{i\neq j}^n a_{i,j}x_ix_j,\\ =& \sum_{i=1}^n a_{i,i}x_i^2 + \sum_{j < i} 2a_{i,j}x_ix_j, \end{align*} en la que la última igualdad se obtiene del hecho de que $A$ es simétrica y $a_{i,j}x_ix_j + a_{j,i}x_ix_j = 2a_{i,j}x_ix_j = 2a_{j,i}x_ix_j$. Sus derivadas parciales son de la forma \begin{equation*} \partial_{x_i}Q = \sum_{j=1}^n 2a_{i,j}x_j, \end{equation*} por lo que las derivadas parciales de orden 2 son \begin{equation*} \partial_{x_jx_i}Q = 2a_{i,j} = 2a_{j,i}. \end{equation*} y se tiene que $H = 2A$ La conclusión conlleva el mismo razonamiento que en el caso $n=3$. El Hessiano se obtiene de la matriz Hessiana a partir de $x(1/2H)x^t = xAx^t = Q(x)$, por lo que $H_{p_0}=Q$.

Ejercicio

Para las siguientes funciones encuantra $H_{p_0}f$ en el punto dado.

  1. $f(x,y)=e^{x+y}$, $p_0=(0,0)$.
  2. $f(x,y)=\cos(x)\sen(y)$, $p_0=(0,\pi/2)$.
  3. $f(x,y)=\log(x^2+y^2)$, $p_0=(1,1)$.

Teorema

Teorma de Taylor (de segundo grado)

Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^n$ y $f:U \to \mathbb{R}$ una función de clase $C^2$.

Fija $p_0\in U$ arbitrario y $r>0$ tal que $B_r(p_0)\subset U$.

Para toda $h=(h_1,\dots, h_n)$ con $\|h\| < r$, existe un \(0< c < 1 \) tal que \[ f(p_0+h)=f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i + \frac{1}{2}\sum_{i,j=1}^n \partial_{p_i,p_j}^2f(p_0+ c h)h_ih_j \] además también se puede escribir $$ f(p_0+h)=f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i + \frac{1}{2}\sum_{i,j=1}^n \partial_{p_i,p_j}^2f(p_0)h_ih_j +E_{p_0}(h) $$ donde $E_{p_0}$ satisface $\lim_{h\to 0} \frac{|E_{p_0}(h)|}{\|h\|^2}=0$.

Fija \(h\) con \(\|h\|< r\) y define \(g:[-1,1]\to \mathbb{R}\) por \[ g(t)=f(p_0+th) \] Nota que \(g(1)-g(0)=f(p_0+ h)-f(p_0)\). Ahora se aplica el teorema de Taylor a la función de 1-variable \(g\). Entonces existe un \(0< c < t \) tal que \[ g(t)= g(0)+g'(0)t+ \frac{1}{2}g''(c)t^2 \]

Ya que \(g(t)=f(\gamma(t))\) con \(\gamma(t)=p_0+th\) tenemos, por la regla de la cadena \[ g'(t)=\langle \nabla_{\gamma(t)}f,\gamma'(t)\rangle = \sum_{i=1}^n \partial_{p_i}f(p_0+tu) h_i \] en particular \(g'(0)=\sum_{i=1}^n \partial_{p_i}f(p_0)h_i\). Además \begin{eqnarray*} g''(t)&=&\frac{d}{dt}\left( \sum_{i=1}^n \partial_{p_i}f(p_0+th) h_i \right) \\ &=& \sum_{i=1}^n \frac{d}{dt}\left( \frac{\partial f(\gamma(t))}{\partial p_i} \right) h_i\\ &=& \sum_{i=1}^n \left\{ \sum_{j=1}^n \frac{\partial}{\partial p_j}\left( \frac{\partial f(\gamma(t))}{\partial p_i}\right)\frac{ d p_j(t)}{dt} \right\}h_i\\ &=& \sum_{i=1}^n \left\{ \sum_{j=1}^n \frac{\partial^2 f(\gamma(t))}{\partial p_j \partial p_i} h_j \right\}h_i\\ &=& \sum_{i=1}^n \sum_{j=1}^n \partial^2_{p_jp_j }f(p_0+th )h_jh_i \end{eqnarray*} en particular \[ g''(0)=\sum_{i=1}^n \sum_{j=1}^n \partial^2_{p_jp_j }f(p_0)h_jh_i \]

Concuimos \begin{eqnarray*} f(p_0+h)-f(p_0)&=&g(1)-g(0) \\ &=& g'(0)+ \frac{1}{2}g''(c) \\ &=& \sum_{i=1}^n \partial_{p_i}f(p_0)h_i +\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \partial^2_{p_j p_j}f(p_0+ch)h_ih_j\\ \end{eqnarray*} \[ \Rightarrow f(p_0+h)= f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i +\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \partial^2_{p_j p_j}f(p_0+ch)h_ih_j \]

Para el error debemos de probar \(\lim_{h\to 0}\frac{\|E_{p_0}(h)\|}{\|h\|^2}=0\) donde \[ E_{p_0}(h)=f(p_0+h)-f(p_0)-\sum_{i=1}^n \partial_{p_i}f(p_0)h_i -\sum_{i,j=1}^n \partial_{p_j, p_i}f(p_0)h_ih_j \]

Por la primera parte \[ f(p_0+h)-f(p_0)-\sum_{i=1}^n \partial_{p_i}f(p_0)h_i= \sum_{i,j=1}^n \partial_{p_j, p_i}f(p_0+ch)h_ih_j \] por lo que \begin{eqnarray*} E_{p_0}(h)&=&\sum_{i,j=1}^n \partial_{p_j p_i}^2f(p_0+ch)h_ih_j-\sum_{i,j=1}^n \partial_{p_jp_i}^2 f(p_0)h_ih_j \\ &=& \sum_{i,j=1}^n (\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)) h_ih_j \end{eqnarray*}

Finalemente, usando la desigualdad del triángulo y las desigualdades \(|h_i|\leq \|h\|\) llegamos \begin{eqnarray*} \frac{|E_{p_0}(h)|}{\|h\|^2} & \leq & \sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)|\frac{ |h_i||h_j| }{\|h\|^2} \\ &\leq &\sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)| \end{eqnarray*}

Ya que \(f\) es clase \(C^2\), para toda \(i,j\), \(\lim_{h\to 0} \partial_{p_jp_i}^2f(p_0+ch)=\partial_{p_jp_i}^2f(p_0) \) por lo que \begin{eqnarray*} 0\leq \lim_{h\to 0} \frac{|E_{p_0}(h)|}{\|h\|^2}\leq \lim_{h\to 0} \sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)|=0 \end{eqnarray*}

Ejercicio

Para las siguientes funciones, determinar la fórmula de Taylor de segundo orden en los puntos dados.

  1. $f(x,y)=(x+2y)^2$, en $x_0=0$, $y_0=0$.
  2. $f(x,y)=\frac{1}{1+x^2+y^2}$, en $x_0=0$, $y_0=0$.
  3. $f(x,y)=e^{(x-1)^2}\cos(y)$, en $x_0=1$, $y_0=0$.

Definición

Sea $f:U \to \mathbb{R}$, una función diferenciable en el abierto $U\subseteq \mathbb{R}^n$. Decimos que un $p_0\in U$ es un punto crítico o estacionario de $f$ si $\nabla_{p_0}f=0$. Es decir, si todas las derivadas parciales de $f$ se anulan en $p_0$.

Ejercicio

Para las siguientes funciones encuentra sus puntos críticos y determina si el Hessiano en cada uno de ellos es positivo definido, negativo definido o ninguno.

  1. $f(x,y)=x^2-y^2+xy$,
  2. $f(x,y)=x^2+y^2-xy$,
  3. $f(x,y)=e^{1+x^2-y^2}$,
  4. $f(x,y)=x^2-3xy+5x-2y+6y^2+8$,
  5. $f(x,y)=xy+\frac{1}{x}+\frac{1}{y}$.

El gradiente es \(\nabla f=(2x+y,-2y+x)\). Resolviendo el sistema \(2x+y=0, -2y+x=0\) obtenemos una única solución: \(x=0,y=0\).

Las segundas derivadas parciales son \[ \partial_{xx}^2f= 2, \partial_{yy}^2f=-2, \partial_{xy}^2f=1. \] Por lo tanto el Hessiano en cualquier punto \(p\) es \begin{eqnarray*} H_{p}f(x,y)&=& \frac{1}{2}(\partial_{xx}^2f(1,1)x^2+\partial_{xy}^2f(1,1)xy+\partial_{yx}^2f(1,1)yx +\partial_{yy}^2f(1,1)y^2 ) \\ &=& \frac{1}{2}( 2x^2+ xy + yx-2y^2)=x^2+xy-y^2 \end{eqnarray*} La matriz asociada a la forma cuadrática es \[ B=\left[ \begin{array}{cc} 1 & 1 \\ 1 & -1 \end{array} \right] \] Tenemos que \(B[1,1]>0\) pero \(\det(B)=-1-1=-2\). Por el Ejercicio 14.16 \(B\), y por lo tanto \(H_pf\), no es ni positiva definida ni negativa definida.

El gradiente es \(\nabla f=(y-\frac{1}{x^2}, x-\frac{1}{y^2} )\). Resolviendo el sistema \(y-\frac{1}{x^2}=0, x-\frac{1}{y^2} =0\) obtenemos \begin{eqnarray*} y=\frac{1}{x^2}, \quad x=\frac{1}{y^2} \end{eqnarray*} substituyendo llegamos \begin{eqnarray*} y= \frac{1}{\left( \frac{1}{y^2}\right)^2}=y^4 \Rightarrow y(y^3-1)=0 \\ \Rightarrow y=0,y=1. \end{eqnarray*} La solución \(y=0\) se elimina pues no cae dentro del domino de la función. Por lo tanto existe un único punto crítico \(p=(1,1)\).

Las segundas derivadas parciales son \begin{eqnarray*} \partial_{xx}^2f(x,y)&=&\frac{2}{x^3}\\ \partial_{yy}^2f(x,y)&=&\frac{2}{x^3}\\ \partial_{xy}^2f(x,y)&=&1 \end{eqnarray*}

EL Hessiano en \((1,1)\) es \begin{eqnarray*} H_pf(x,y)&=&\frac{1}{2}(\partial_{xx}^2f(1,1)x^2+\partial_{xy}^2f(1,1)xy+\partial_{yx}^2f(1,1)yx +\partial_{yy}^2f(1,1)y^2 )\\ &=& \frac{1}{2} (2x^2+xy+yx+2y^2 )\\ &=& x^2+xy+y^2 \end{eqnarray*}

La matriz asociada es \[ B=\left[ \begin{array}{cc} 1 & 1 \\ 1 & 1 \end{array} \right] \] La entrada \((1,1)\) es \(B[1,1]=1\) pero \(\det(B)=1-1=0\), por lo que \(H_{(1,1)}f\) no es ni positivo definido ni negativo definido.

Ejercicio

Sea $n\geq 2$ un entero y define $f(x,y)=ax^n+cy^n$, donde $a$ y $c$ satisfacen $ac\ne 0$.

  1. prueba que $f$ tiene un único punto crítico;
  2. calcula el Hessiano de $f$ en dicho punto crítico y determina si es positivo definido o definitivamente negativo o ninguno.

Ejercicio

Encuentra los puntos críticos de $$ f(x,y,z)=x^2+y^2+z^2+xy $$ Después calcula el Hessiano en dichos puntos y determina si es positivo definido, definitivamente negativo o ninguno.

Podemos observar que $f$ es una forma cuadrática y por lo tanto coincide con su Hessiano, o bien podemos calcular primero el gradiente y después sus derivadas parciales mixtas de orden 2 para encontrar su matriz Hessiana. \begin{equation*} \nabla f = (2x + y, 2y + x, 2z), \end{equation*} de donde la matriz Hessiana es \begin{equation*} H = \begin{pmatrix} 2 & 1 & 0\\ 1 & 2 & 0\\ 0 & 0 & 2 \end{pmatrix}. \end{equation*} Ahora calculamos sus valores propios \begin{align*} det \begin{pmatrix} 2-\lambda & 1 & 0\\ 1 & 2-\lambda & 0\\ 0 & 0 & 2-\lambda \end{pmatrix} =& (2-\lambda)(2-\lambda)(2-\lambda) - 1(2-\lambda),\\ =& (2-\lambda)^2 - (2-\lambda)\\ =& (2-\lambda)((2-\lambda)^2 -1)\\ =& (2-\lambda)(3-\lambda)(1-\lambda), \end{align*} y podemos afirmar que los v.p. son $\lambda=1,2,3$. Como todos éstos son estrictamente positivos entonces concluimos que el Hessiano es positivo definido.