Una forma cuadrática, en $n$ variables, es una función de la forma $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ Por ejemplo, en dos variables $x$ y $y$, una forma cuadrática se ve $$ Q(x,y)=a_{1,1}x^2+a_{1,2}xy+a_{2,1}yx+a_{2,2}y^2 $$ la cual se puede reescribir $$ Q(x,y)=a_{1,1}x^2+(a_{1,2}+a_{2,1})xy+a_{2,2}y^2 $$
Las formás cuadráticas siguen en complejidad, a las funciones constantes y las lineales.
A la matriz $A=[a_{i,j}]$, se le llama la matriz asociada a $Q$.
Este ejercicio da la razón del nombre de forma cuadrática.
Demuestra que si $Q$ es una forma cuadrática entonces, para toda $\lambda\in \mathbb{R}$ $$ Q(\lambda x_1,\dots, \lambda x_n)=\lambda^2Q(x_1,\dots x_n) $$
\begin{eqnarray*} Q(\lambda x_1,\dots, \lambda x_n)&=&\sum_{i,j=1}^n (\lambda x_i)(\lambda x_j) \\ &=& \sum_{i,j=1}^n \lambda ^2(x_ix_j) \\ &=& \lambda^2Q(x_1,\dots, x_n) \end{eqnarray*}
Considera la forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$
Sólo hacemos el caso de matrices de \(3\times 3\) (para más dimensiones es similar).
\begin{eqnarray*} & & \left[ \begin{array}{cc} x_1 & x_2 & x_3 \end{array} \right] \left[ \begin{array}{ccc} a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{array} \right] \left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] \\ &=& \left[ \begin{array}{cc} x_1 & x_2 & x_3 \end{array} \right] \left[ \begin{array}{c} a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 \\ a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 \\ a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3 \end{array} \right] \\ &=& x_1(a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 )\\ &+& x_2(a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 ) \\ &+& x_3(a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3) \\ &=& \sum_{i,j=1}^3 a_{i,j}x_ix_j \end{eqnarray*}
Sólo hacemos el caso de matrices de \(3\times 3\) (para más dimensiones es similar). Por \(Ax[1], Ax[2], Ax[3]\) denotamos las entradas del vector \(Ax\). Un cálculo directo muestra \begin{eqnarray*} Ax[1]=a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 \\ Ax[2]=a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3 \\ Ax[3]=a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3 \end{eqnarray*}
Por lo tanto \begin{eqnarray*} \langle Ax, x \rangle &=&A x[1]x_1+Ax[2]x_2+Ax[3]x_3 \\ &=& (a_{1,1}x_1+a_{1,2}x_2+ a_{1,3}x_3 )x_1 \\ &+& (a_{2,1}x_1 + a_{2,2}x_2 +a_{2,3}x_3)x_2 \\ &+& (a_{3,1}x_1+a_{3,2}x_2 + a_{3,3}x_3)x_3 \\ &=& \sum_{i,j=1}^3 a_{i,j}x_ix_j \end{eqnarray*}
Sea \(A\) una matriz de \(n\times n\). Entonces para todos \(x,y\in \mathbb{R}^n\) se cumple la identidad \[ \langle Ax, y \rangle = \langle x, A^t y\rangle \] donde \(A^t\) denota la matriz transpuesta de \(A\).
Por \(A[i,j]\) vamos a denotar la entrada \(i,j\) de la matirz \(A\) y por \(Ax[i]\) denotamos la entrada \(i\) del vector columna \(Ax\).
Con la notación anterior, si \(x=(x_1,\dots, x_n)\) entonces \(Ax[i]\) se escribe como \[ Ax[i]=\sum_{j=1}^n A[i,j]x_j \]
El lado izquiero de la identida es \begin{eqnarray*} \langle Ax,y\rangle &=& \sum_{i=1}^n Ax[i]y_i \\ &=& \sum_{i=1}^n (\sum_{j=1}^n A[i,j]x_j )y_i \\ &=& \sum_{i=1}^n \sum_{j=1}^n A[i,j]x_j y_i \end{eqnarray*}
El lado derecho es \begin{eqnarray*} \langle x, A^t y \rangle &=& \sum_{i=1}^n x_i A^ty[i] \\ &=& \sum_{i=1}^n x_i(\sum_{j=1}^n A^t[i,j]y_j) \\ &=& \sum_{i=1}^n \sum_{j=1}^n A[j,i]x_i y_j \end{eqnarray*}
Comparando ambos obtenemos \(\langle Ax,y\rangle = \langle x,A^ty\rangle\).
Una matriz cuadrada de $n\times n$, $A=[a_{i,j}]$, se llama simétrica si $a_{i,j}=a_{j,i}$, para todas $i,j=1,\dots, n$.
En términos de la transpuesta una matriz \(A\) es simétrica sii \(A=A^t\).
Considera una matriz de $n\times n$, $A$ y define la matriz $B=\frac{1}{2}(A+A^t)$, donde $A^t$ denota la matriz transpuesta.
Este ejercicio dice que siempre podemos suponer simétrica a la matriz asociada a una forma cuadrática.
Usando las propiedades de linealidad de la transpuesta obtenemos \begin{eqnarray*} B^t&=&\left( \frac{1}{2}(A+A^t) \right)^t\\ &=& \frac{1}{2}(A^t+(A^t)^t) \\ &=& \frac{1}{2}(A^t+A)\\ &=&B \end{eqnarray*}
Finalmente \begin{eqnarray*} \langle Bx, x \rangle &=&\langle \frac{1}{2}(A+A^t)x,x\rangle \\ &=& \frac{1}{2} \langle Ax+A^tx,x \rangle \\ &=& \frac{1}{2}\left( \langle Ax, x \rangle + \langle A^tx, x \rangle \right)\\ &=& \frac{1}{2} \left( \langle Ax,x \rangle + \langle x,Ax \rangle \right) \\ &=& \frac{1}{2} \left( \langle Ax,x \rangle + \langle Ax ,x \rangle \right) \\ &=& \langle Ax,x\rangle \end{eqnarray*}
donde en la cuarta igualdad usamos el Ejercicio 14.4 y el hecho que \((A^t)^t=A\).
Dada una forma cuadrática en dimensión 2 \[ Q(x,y)=Ax^2+Bxy+Cy^2 \] la matriz simétrica que representa a \(Q\), es decir la matriz simétrica \(B\) que satisface \(Q(x)=\langle Bx,x\rangle\) se puede tomar como \[ B=\left[ \begin{array}{cc} A & B/2 \\ B/2 & C \end{array} \right] \]
Considera la matriz de $n\times n$, $A=[a_{i,j}]$.
Demuestra que $A$ es simétrica si y sólo si $\langle Ax,y \rangle=\langle x,Ay \rangle$, para todos $x,y \in \mathbb{R}^n$.
Empecemos por suponer que $A$ es simétrica, es decir, $A^t=A$, además se sabe que para todo $x,y \in \mathbb{R}^n$ se tiene que $\langle Ax,y \rangle = \langle x,A^ty \rangle$, por lo tanto \begin{equation*} \langle Ax,y \rangle = \langle x,A^t y \rangle = \langle x,Ay \rangle. \end{equation*}
Supongamos ahora que se satisface la identidad descrita anteriormente. Empecemos por notar que la entrada $a_{ij}$ de la matriz $A$ se puede obtener como \begin{equation*} a_{ij} = \langle Ae_j,e_i \rangle, \end{equation*} donde $e_i,e_j$ son vectores canónicos. De esta manera \begin{equation*} a_{ij}=\langle Ae_j,e_i \rangle = \langle e_j,Ae_i \rangle = a_{ji}, \end{equation*} para cada $1\leq i,j \leq n$, por lo que $A$ es una matriz simétrica.
Considera la forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ Demuestra $$ \langle \nabla Q, (x_1,\dots, x_n) \rangle= 2Q(x_1,\dots, x_n) $$
Una forma cuadrática $$ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j $$ se llama positiva definida sii:
Una matriz cuadrada $A=[a_{i,j}]$, es positiva definida sii la forma cuadrática asociada, $$Q(x_1,\dots, x_n)=\sum_{i,j=1}^na_{i,j}x_ix_j$$ es positiva definida.
Usando el Ejercicio 14.3 resulta que una matriz \(A\) es positiva definida sii \(\langle Ax,x \rangle \geq 0\) para toda \(x\in \mathbb{R}^n\).
Una matriz \(B\) es negativa definida si \(-B\) es positiva definida.
La idea es que las matrices positivas definidas juegan el papel de los números positivos. Algunas analogías son: si \(A\) y \(B\) son positivas definidas entonces más adelante se verá que \(A+B\) es positiva definida; si \(A\) es positiva definida e invertible entonces \(A^{-1}\) es positiva definida.
Considera $D$, una matriz diagonal, cuyas entradas en la diagonalc son $\lambda_1,\dots, \lambda_n$.
Demuestra que $D$ es definitivamente positiva si y sólo si $\lambda_i >0$, para toda $i$.
Demuestra que $D$ es definitivamente negativa si y sólo si $\lambda_i < 0$, para toda $i$.
Primero notamos que si \(D\) es una matriz diagonal entonces su forma cuadrática se ve \begin{eqnarray*} Q(x_1,\dots, x_n)&=&\sum_{i,j=1}^n D[i,j]x_ix_j \\ &=& \sum_{i=1}^n \lambda_i x_i^2 \end{eqnarray*} pues \(D[i,j]= 0\) para todos \(i,j\) con \(i\ne j\) y \(D[i,i]=\lambda_i\).
Ahora, si \(\lambda_j >0\) para toda \(j\) se sigue que \(Q(x_1,\dots, x_n) \geq 0\) para todos \(x_1,\dots, x_n\) y si \(Q(x_1,\dots, x_n)=\sum_{i=1}^n \lambda_i x_i^2=0\) entonces \(x_1=\dots=x_n=0\). Por lo tanto \(D\) se positiva definida.
Si \(\lambda_j< 0 \) para toda \(j\) se prueba de manera similar que \(-D\) es definitivamente positiva por lo que \(D\) es negativa definida.
Demuestra que si las matrices cuadradas $A$ y $B$ son positiva definidas y $a>0$, entonces la matriz $aA+B$ también es positiva definida.
Si $x \in \mathbb{R}^n$ entonces \begin{equation*} \langle(aA+B)x, x\rangle = a\langle Ax,x \rangle + \langle Bx,x \rangle, \end{equation*} y la expresión del lado derecho siempre es no negativa pues $a>0$ y cada una de las matrices es positiva definida. De aquí también se deduce que si $\langle (aA+B)x,x \rangle =0$ para algún $x \in \mathbb{R}^n$ entonces $\langle Ax,x \rangle = \langle Bx,x \rangle = 0$ y por lo tanto $x = 0$.
Da un ejemplo de una matriz de $2\times 2$ que no es ni negativa definida ni positiva definida.
Sugerencia: busca entre las matrices triangulares superiores.
Sea \(A=[a_{i,j}]_{i,j}\) una matriz de \(n\times n\) simétrica considera su forma cuadrática \[ Q(x_1,\dots, x_n)=\sum_{i,j=1}^n a_{i,j}x_ix_j \]
Ya que \(A\) es una matriz simétrica existe una matriz ortogonal \(U\) tal que \(U^tDU=A\), donde \(D\) es una matriz diagonal formada por, \(\lambda_1,\dots, \lambda_n\), los valores propios de \(A\) (contados con multiplicidad).
Entonces \begin{eqnarray*} \langle Ax,x\rangle &=&\langle U^tDU x, x\rangle \\\ &=& \langle DUx,Ux\rangle \\ &=& \langle Dy,y\rangle \\ &=& \sum_{i=1}^n \lambda_i y_i^2 \end{eqnarray*} donde \(y:=Ux\).
De la identidad \(Q(x_1,\dots, x_n)=\sum_{i=1}^n \lambda_i y_i^2 \) se sigue que \(Q\) es positiva definida sii \(\lambda_i >0\) para toda \(i\) y es negativa definida sii \(\lambda_i < 0\) para toda \(i\).
Sea $Q$ una forma cuadrática definitivamente positiva. Demuestra que existe una constante $k>0$ tal que $$ Q(x_1,\dots, x_n) \geq k \|(x_1,\dots x_n)\|^2 $$ para todo $(x_1,\dots, x_n)\in \mathbb{R}^n$.
Sugerencia: toma $k$ como el mínimo de $Q$ sobre la esfera unitaria de $\mathbb{R}^n$.
Como \(Q\) es polinomio es una función continua por lo que alcanza su valor mínimo en la esfera unitaria, es decir si \[ k=\min \{ Q(x_1,\dots, x_n): \|(x_1,\dots , x_n)\|=1\} \] entonces existe \((z_1,\dots z_n)\) un vector unitario tal que \(Q(z_1,\dots, z_n)=k\). Notamos que \(k>0\) pues si \(k=0\) entonces \(Q(z_1,\dots, z_n)=0\) pero al ser \(Q\) positiva definida debe de pasar que \((z_1,\dots, z_n)=0\), una contradiccíon al ser \((z_1,\dots, z_n)\) unitario.
Si \(y\in \mathbb{R}^n\) es distinto de cero entonces \(y/\|y\| \) está en la esfera unitaria y por lo tanto \[ Q\left(\frac{1}{\|y\|}y_1,\dots, \frac{1}{\|y\|}y_n\right) \geq k \] al ser \(Q\) cuadrática \[ Q\left(\frac{1}{\|y\|}y_1,\dots, \frac{1}{\|y\|}y_n\right)=\frac{1}{\|y\|^2} Q(y_1,\dots, y_n) \] por lo tanto \begin{eqnarray*} \frac{1}{\|y\|^2} Q(y_1,\dots, y_n)\geq k \Rightarrow Q(y_1,\dots, y_n) \geq k \|y\|^2 \end{eqnarray*}
Considera la matriz de $2\times 2$ $$ B=\left[ \begin{array}{cc} a& b \\ b & c \end{array} \right] $$
La forma cuadrática asociada a \(B\) es \begin{eqnarray*} Q(x,y)&=& \langle B(x,y), (x,y)\rangle \\ &=& \langle (ax+by,bx+cy),(x,y)\rangle \\ &=& ax^2+2bxy+cy^2 \end{eqnarray*}
\(\Rightarrow ] \) Supongamos que \(B\) es positiva.
Valuando en \((1,0)\) obtenemos \(0< Q(1,0)= a \).
Completando el cuadrado en \(x,y\) tenemos \begin{eqnarray*} Q(x,y)&=& a\left( x^2+ \frac{2b}{a}xy+\frac{c}{a}y^2 \right) \\ &=& a\left( x+ \frac{b}{a}y \right)^2- \frac{b^2}{a^2} y^2+\frac{c}{a}y^2 \\ &=& a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \end{eqnarray*}
Al ser positiva definida \begin{eqnarray*} 0< Q(-b,a)=0+c-\frac{b^2}{a}\Rightarrow 0< ac-b^2 \end{eqnarray*}
\(\Leftarrow ]\) Suppngamos que \(a>0, ac-b^2>0\). De la factorización \[ Q(x,y)= a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \] obtenemos que \(Q(x,y)\geq 0\) para toda \((x,y)\). Ahora, si suponemos que \(Q(x,y)=0\) se sigue \begin{eqnarray*} 0&=& a\left( x+ \frac{b}{a}y \right)^2+\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \\ &\Rightarrow & 0= a\left( x+ \frac{b}{a}y \right)^2, \quad 0=\left( c - \frac{b^2}{a}\right) \frac{y^2}{a} \\ &\Rightarrow & 0=x+ \frac{b}{a}y , \quad 0=(ac - b^2) y^2 \\ &\Rightarrow & 0=x, 0=y. \end{eqnarray*}
Sea $f:U \to \mathbb{R}$ una función clase $C^2$, definida en un abierto $U$ de $\mathbb{R}^n$. El Hessiano de $f$, en el punto $p_0\in U$, denotado $H_{p_0}f$, es la función cuadrática en $n$ variables definida por $$ H_{p_0}f(x_1,\dots, x_n)=\frac{1}{2}\sum_{i,j=1}^n \partial^2_{i,j}f(p_0) x_ix_j $$ Es decir, es la forma cuadrática asociada a la matriz de segundas derivadas parciales, multiplicada por un factor de $1/2$, es decir $A=(1/2)[\partial_{i,j}^2f(p_0)]_{i,j=1}^n$, evaluadas en $p_0$.
La matriz Hessiana de \(f\), en \(p_0\), se define como la matriz \([\partial_{i,j}f(p_0)]_{i,j}\).
Demuestra que para toda $f:\mathbb{R}^n \to \mathbb{R}$, función lineal y $p_0\in \mathbb{R}^n$, $H_{p_0}f$ es la función idénticamente cero.
Sea $A=[a_{i,j}]$ una matriz simétrica, de $n\times n$, y considera $Q$, la forma cuadrática asociada a $A$. Sea $p_0$ cualquier punto en $\mathbb{R}^n$. Demuestra que las funciones $H_{p_0}Q$ y $Q$ son iguales.
Nota: en este ejercicio se ve la razón de poner el $1/2$ en la definición de Hessiano.
Empezaremos trabajando con el caso $n=3$ y después se mostrará el resultado para el caso general. La forma cuadrática asociada a la matriz $A$ está dada por $Q(\overline x)= \langle A\overline x,\overline x \rangle = \overline xA{\overline x}^t$, al desarrollar ésto último tenemos \begin{align*} (x,y,z) \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3}\\ a_{2,1} & a_{2,2} & a_{2,3}\\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix} (x,y,z)^t =& (x,y,z) \begin{pmatrix} a_{1,1}x + a_{1,2}y + a_{1,3}z\\ a_{2,1}x + a_{2,2}y + a_{2,3}z\\ a_{3,1}x + a_{3,2}y + a_{3,3}z\\ \end{pmatrix}\\ =& a_{1,1}x^2 + a_{1,2}xy + a_{1,3}xz + a_{2,1}xy + a_{2,2}y^2 + a_{2,3}yz \\&+ a_{3,1}xz + a_{3,2}yz + a_{3,3}z^2,\\ =& a_{1,1}x^2 + a_{2,2}y^2 + a_{3,3}z^2 + (a_{1,2} + a_{2,1})xy + (a_{1,3}+a_{3,1})xz \\&+ (a_{2,3} + a_{3,2})yz. \end{align*} Ahora se calculan las derivadas parciales, \begin{align*} \partial_x Q =& 2a_{1,1}x + (a_{1,2} + a_{2,1})y + (a_{1,3}+a_{3,1})z,\\ \partial_y Q =& 2a_{2,2}y + (a_{1,2} + a_{2,1})x + (a_{2,3}+a_{3,2})z,\\ \partial_z Q =& 2a_{3,3}z + (a_{1,3} + a_{3,1})x + (a_{2,3}+a_{3,2})y. \end{align*} Calcularemos algunas de las derivadas parciales de orden 2 para obtener la matriz Hessiana \begin{align*} \partial_{xx} Q =& 2a_{1,1},\\ \partial_{yx} Q =& a_{1,2} + a_{2,1} = 2a_{1,2} = 2a_{2,1},\\ \partial_{zx} Q =& a_{1,3} + a_{3,1} = 2a_{1,3} = 2a_{3,1},\\ \end{align*} observe que las últimas igualdades en las líneas 2 y 3 se dan por la simetría de $A$. Si se calculan las derivadas parciales de orden 2 faltantes se observan resultados similares, es más, se obtiene que $\partial_{xy}Q = \partial_{yx}Q$, $\partial_{xz}Q = \partial_{zx}Q$ y $\partial_{yz}Q = \partial_{zy}Q$, lo cual no debe ser sorpresa porque $Q$ es una forma cuadrática y por tanto de clase $C^2$. Con lo anterior concluimos que la matriz Hessiana asociada a $Q$ es \begin{equation*} H= \begin{pmatrix} 2a_{1,1}& 2a_{1,2} & 2a_{1,3} \\ 2a_{2,1}& 2a_{2,2} & 2a_{2,3} \\ 2a_{3,1}& 2a_{3,2} & 3a_{1,3} \end{pmatrix} = 2A, \end{equation*} a la cual corresponde el Hessiano $(x,y,z)(1/2 H)(x,y,z)^t = (x,y,z)A(x,y,z)^t = Q(x,y,z)$, por lo tanto $H_{p_0}Q = Q$.
Note que si $A$ es una matriz simétrica de $n \times n$ entonces la forma cuadrática asociada es \begin{align*} Q_A(x) =& xAx^t,\\ =& \sum_{i,j=1}^n a_{i,j}x_ix_j,\\ =& \sum_{i=j}^n a_{i,j}x_ix_j + \sum_{i\neq j}^n a_{i,j}x_ix_j,\\ =& \sum_{i=1}^n a_{i,i}x_i^2 + \sum_{j < i} 2a_{i,j}x_ix_j, \end{align*} en la que la última igualdad se obtiene del hecho de que $A$ es simétrica y $a_{i,j}x_ix_j + a_{j,i}x_ix_j = 2a_{i,j}x_ix_j = 2a_{j,i}x_ix_j$. Sus derivadas parciales son de la forma \begin{equation*} \partial_{x_i}Q = \sum_{j=1}^n 2a_{i,j}x_j, \end{equation*} por lo que las derivadas parciales de orden 2 son \begin{equation*} \partial_{x_jx_i}Q = 2a_{i,j} = 2a_{j,i}. \end{equation*} y se tiene que $H = 2A$ La conclusión conlleva el mismo razonamiento que en el caso $n=3$. El Hessiano se obtiene de la matriz Hessiana a partir de $x(1/2H)x^t = xAx^t = Q(x)$, por lo que $H_{p_0}=Q$.
Para las siguientes funciones encuantra $H_{p_0}f$ en el punto dado.
Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^n$ y $f:U \to \mathbb{R}$ una función de clase $C^2$.
Fija $p_0\in U$ arbitrario y $r>0$ tal que $B_r(p_0)\subset U$.
Para toda $h=(h_1,\dots, h_n)$ con $\|h\| < r$, existe un \(0< c < 1 \) tal que \[ f(p_0+h)=f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i + \frac{1}{2}\sum_{i,j=1}^n \partial_{p_i,p_j}^2f(p_0+ c h)h_ih_j \] además también se puede escribir $$ f(p_0+h)=f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i + \frac{1}{2}\sum_{i,j=1}^n \partial_{p_i,p_j}^2f(p_0)h_ih_j +E_{p_0}(h) $$ donde $E_{p_0}$ satisface $\lim_{h\to 0} \frac{|E_{p_0}(h)|}{\|h\|^2}=0$.
Fija \(h\) con \(\|h\|< r\) y define \(g:[-1,1]\to \mathbb{R}\) por \[ g(t)=f(p_0+th) \] Nota que \(g(1)-g(0)=f(p_0+ h)-f(p_0)\). Ahora se aplica el teorema de Taylor a la función de 1-variable \(g\). Entonces existe un \(0< c < t \) tal que \[ g(t)= g(0)+g'(0)t+ \frac{1}{2}g''(c)t^2 \]
Ya que \(g(t)=f(\gamma(t))\) con \(\gamma(t)=p_0+th\) tenemos, por la regla de la cadena \[ g'(t)=\langle \nabla_{\gamma(t)}f,\gamma'(t)\rangle = \sum_{i=1}^n \partial_{p_i}f(p_0+tu) h_i \] en particular \(g'(0)=\sum_{i=1}^n \partial_{p_i}f(p_0)h_i\). Además \begin{eqnarray*} g''(t)&=&\frac{d}{dt}\left( \sum_{i=1}^n \partial_{p_i}f(p_0+th) h_i \right) \\ &=& \sum_{i=1}^n \frac{d}{dt}\left( \frac{\partial f(\gamma(t))}{\partial p_i} \right) h_i\\ &=& \sum_{i=1}^n \left\{ \sum_{j=1}^n \frac{\partial}{\partial p_j}\left( \frac{\partial f(\gamma(t))}{\partial p_i}\right)\frac{ d p_j(t)}{dt} \right\}h_i\\ &=& \sum_{i=1}^n \left\{ \sum_{j=1}^n \frac{\partial^2 f(\gamma(t))}{\partial p_j \partial p_i} h_j \right\}h_i\\ &=& \sum_{i=1}^n \sum_{j=1}^n \partial^2_{p_jp_j }f(p_0+th )h_jh_i \end{eqnarray*} en particular \[ g''(0)=\sum_{i=1}^n \sum_{j=1}^n \partial^2_{p_jp_j }f(p_0)h_jh_i \]
Concuimos \begin{eqnarray*} f(p_0+h)-f(p_0)&=&g(1)-g(0) \\ &=& g'(0)+ \frac{1}{2}g''(c) \\ &=& \sum_{i=1}^n \partial_{p_i}f(p_0)h_i +\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \partial^2_{p_j p_j}f(p_0+ch)h_ih_j\\ \end{eqnarray*} \[ \Rightarrow f(p_0+h)= f(p_0)+\sum_{i=1}^n \partial_{p_i}f(p_0)h_i +\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \partial^2_{p_j p_j}f(p_0+ch)h_ih_j \]
Para el error debemos de probar \(\lim_{h\to 0}\frac{\|E_{p_0}(h)\|}{\|h\|^2}=0\) donde \[ E_{p_0}(h)=f(p_0+h)-f(p_0)-\sum_{i=1}^n \partial_{p_i}f(p_0)h_i -\sum_{i,j=1}^n \partial_{p_j, p_i}f(p_0)h_ih_j \]
Por la primera parte \[ f(p_0+h)-f(p_0)-\sum_{i=1}^n \partial_{p_i}f(p_0)h_i= \sum_{i,j=1}^n \partial_{p_j, p_i}f(p_0+ch)h_ih_j \] por lo que \begin{eqnarray*} E_{p_0}(h)&=&\sum_{i,j=1}^n \partial_{p_j p_i}^2f(p_0+ch)h_ih_j-\sum_{i,j=1}^n \partial_{p_jp_i}^2 f(p_0)h_ih_j \\ &=& \sum_{i,j=1}^n (\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)) h_ih_j \end{eqnarray*}
Finalemente, usando la desigualdad del triángulo y las desigualdades \(|h_i|\leq \|h\|\) llegamos \begin{eqnarray*} \frac{|E_{p_0}(h)|}{\|h\|^2} & \leq & \sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)|\frac{ |h_i||h_j| }{\|h\|^2} \\ &\leq &\sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)| \end{eqnarray*}
Ya que \(f\) es clase \(C^2\), para toda \(i,j\), \(\lim_{h\to 0} \partial_{p_jp_i}^2f(p_0+ch)=\partial_{p_jp_i}^2f(p_0) \) por lo que \begin{eqnarray*} 0\leq \lim_{h\to 0} \frac{|E_{p_0}(h)|}{\|h\|^2}\leq \lim_{h\to 0} \sum_{i,j=1}^n |\partial_{p_j p_i}^2f(p_0+ch)-\partial_{p_jp_i}^2 f(p_0)|=0 \end{eqnarray*}
Para las siguientes funciones, determinar la fórmula de Taylor de segundo orden en los puntos dados.
Sea $f:U \to \mathbb{R}$, una función diferenciable en el abierto $U\subseteq \mathbb{R}^n$. Decimos que un $p_0\in U$ es un punto crítico o estacionario de $f$ si $\nabla_{p_0}f=0$. Es decir, si todas las derivadas parciales de $f$ se anulan en $p_0$.
Para las siguientes funciones encuentra sus puntos críticos y determina si el Hessiano en cada uno de ellos es positivo definido, negativo definido o ninguno.
El gradiente es \(\nabla f=(2x+y,-2y+x)\). Resolviendo el sistema \(2x+y=0, -2y+x=0\) obtenemos una única solución: \(x=0,y=0\).
Las segundas derivadas parciales son \[ \partial_{xx}^2f= 2, \partial_{yy}^2f=-2, \partial_{xy}^2f=1. \] Por lo tanto el Hessiano en cualquier punto \(p\) es \begin{eqnarray*} H_{p}f(x,y)&=& \frac{1}{2}(\partial_{xx}^2f(1,1)x^2+\partial_{xy}^2f(1,1)xy+\partial_{yx}^2f(1,1)yx +\partial_{yy}^2f(1,1)y^2 ) \\ &=& \frac{1}{2}( 2x^2+ xy + yx-2y^2)=x^2+xy-y^2 \end{eqnarray*} La matriz asociada a la forma cuadrática es \[ B=\left[ \begin{array}{cc} 1 & 1 \\ 1 & -1 \end{array} \right] \] Tenemos que \(B[1,1]>0\) pero \(\det(B)=-1-1=-2\). Por el Ejercicio 14.16 \(B\), y por lo tanto \(H_pf\), no es ni positiva definida ni negativa definida.
El gradiente es \(\nabla f=(y-\frac{1}{x^2}, x-\frac{1}{y^2} )\). Resolviendo el sistema \(y-\frac{1}{x^2}=0, x-\frac{1}{y^2} =0\) obtenemos \begin{eqnarray*} y=\frac{1}{x^2}, \quad x=\frac{1}{y^2} \end{eqnarray*} substituyendo llegamos \begin{eqnarray*} y= \frac{1}{\left( \frac{1}{y^2}\right)^2}=y^4 \Rightarrow y(y^3-1)=0 \\ \Rightarrow y=0,y=1. \end{eqnarray*} La solución \(y=0\) se elimina pues no cae dentro del domino de la función. Por lo tanto existe un único punto crítico \(p=(1,1)\).
Las segundas derivadas parciales son \begin{eqnarray*} \partial_{xx}^2f(x,y)&=&\frac{2}{x^3}\\ \partial_{yy}^2f(x,y)&=&\frac{2}{x^3}\\ \partial_{xy}^2f(x,y)&=&1 \end{eqnarray*}
EL Hessiano en \((1,1)\) es \begin{eqnarray*} H_pf(x,y)&=&\frac{1}{2}(\partial_{xx}^2f(1,1)x^2+\partial_{xy}^2f(1,1)xy+\partial_{yx}^2f(1,1)yx +\partial_{yy}^2f(1,1)y^2 )\\ &=& \frac{1}{2} (2x^2+xy+yx+2y^2 )\\ &=& x^2+xy+y^2 \end{eqnarray*}
La matriz asociada es \[ B=\left[ \begin{array}{cc} 1 & 1 \\ 1 & 1 \end{array} \right] \] La entrada \((1,1)\) es \(B[1,1]=1\) pero \(\det(B)=1-1=0\), por lo que \(H_{(1,1)}f\) no es ni positivo definido ni negativo definido.
Sea $n\geq 2$ un entero y define $f(x,y)=ax^n+cy^n$, donde $a$ y $c$ satisfacen $ac\ne 0$.
Encuentra los puntos críticos de $$ f(x,y,z)=x^2+y^2+z^2+xy $$ Después calcula el Hessiano en dichos puntos y determina si es positivo definido, definitivamente negativo o ninguno.
Podemos observar que $f$ es una forma cuadrática y por lo tanto coincide con su Hessiano, o bien podemos calcular primero el gradiente y después sus derivadas parciales mixtas de orden 2 para encontrar su matriz Hessiana. \begin{equation*} \nabla f = (2x + y, 2y + x, 2z), \end{equation*} de donde la matriz Hessiana es \begin{equation*} H = \begin{pmatrix} 2 & 1 & 0\\ 1 & 2 & 0\\ 0 & 0 & 2 \end{pmatrix}. \end{equation*} Ahora calculamos sus valores propios \begin{align*} det \begin{pmatrix} 2-\lambda & 1 & 0\\ 1 & 2-\lambda & 0\\ 0 & 0 & 2-\lambda \end{pmatrix} =& (2-\lambda)(2-\lambda)(2-\lambda) - 1(2-\lambda),\\ =& (2-\lambda)^2 - (2-\lambda)\\ =& (2-\lambda)((2-\lambda)^2 -1)\\ =& (2-\lambda)(3-\lambda)(1-\lambda), \end{align*} y podemos afirmar que los v.p. son $\lambda=1,2,3$. Como todos éstos son estrictamente positivos entonces concluimos que el Hessiano es positivo definido.