lunes, 15 de diciembre de 2008
lunes, 1 de diciembre de 2008
REGLA DEL TRAPECIO
Corresponde al caso donde , es decir :
donde es un polinomio de interpolación (obviamente de grado 1) para los datos:
Del capítulo anterior, sabemos que este polinomio de interpolación es:
Integrando este polinomio, tenemos que:
![]() | |
![]() | |
![]() | |
![]() | |
![]() |
Por lo tanto, tenemos que:
Que es la conocida Regla del Trapecio. Este nombre se debe a la interpretación geométrica que le podemos dar a la fórmula. El polinomio de interpolación para una tabla que contiene dos datos, es una línea recta. La integral, corresponde al área bajo la línea recta en el intervalo , que es precisamente el área del trapecio que se forma.
Ejemplo 1:
Utilizar la regla del trapecio para aproximar la integral:
Solución.
Usamos la fórmula directamente con los siguientes datos:
Ejemplo 2.
Solución.
Igual que en el ejemplo anterior, sustituímos los datos de manera directa en la fórmula del trapecio. En este caso, tenemos los datos:
Por lo tanto, tenemos que:
La regla del trapecio se puede ampliar si subdividimos el intervalo en
subintervalos, todos de la misma longitud
.
Sea la partición que se forma al hacer dicha subdivisión. Usando propiedades de la integral tenemos que:
Aplicando la regla del trapecio en cada una de las integrales, obtenemos:
Ahora bien, ya que todos los subintervalos tienen la misma longitud h, tenemos que:
Sustituyendo el valor de h y usando la notación sigma, tenemos finalmente:
Esta es la regla del trapecio para n subintervalos. Obviamente, esperamos que entre más subintervalos usemos, mejor sea la aproximación a la integral.
Ejemplo 1:
Aplicar la regla del trapecio para aproximar la integral
si subdividimos en 5 intervalos.
Solución. , y la partición generada es:
Así, aplicando la fórmula tenemos que:
= 1.48065
Cabe mencionar que el valor verdadero de esta integral es de 1.4626…
Así, vemos que con 5 intervalos, la aproximación no es tan mala. Para hacer cálculos con más subintervalos, es conveniente elaborar un programa que aplique la fórmula con el número de subintervalos que uno desee. El lector debería hacer su propio programa y checar con 50, 500, 1000, 10000 y 20000 subintervalos, para observar el comportamiento de la aproximación.
REGLA DE SIMPSON SIMPLE Y COMPUESTA
En análisis numérico, la regla o método de Simpson (nombrada así en honor de Thomas Simpson) es un método de integración numérica que se utiliza para obtener la aproximación de la integral:
.
Derivación de la regla de Simpson
Consideramos el polinomio interpolante de orden dos P2(x), que aproxima a la función integrando f(x) entre los nodos x0 = a, x1 = b y m = (a+b)/2. La expresión de ese polinomio interpolante, expresado a través de la Interpolación polinómica de Lagrange es:
Así, la integral buscada se puede aproximar como:
Error
El error al aproximar la integral mediante la Regla de Simpson es
donde h = (b − a) / 2 y .
Regla de Simpson compuesta
En el caso de que el intervalo [a,b] no sea lo suficientemente pequeño, el error al calcular la integral puede ser muy grande. Para ello, se recurre a la fórmula compuesta del trapecio. Dividiremos el intervalo [a,b] en n subintervalos iguales, de manera que xi = a + ih, donde h = (b −a) / n para i = 0,1,...,n.
Aplicando la Regla de Simpson a cada subintervalo, tenemos:
Sumando las integrales de todos los subintervalos, llegamos a que:
El máximo error viene dado por la expresión
METODO DE GAUSS
El Método de Gauss-Seidel Es una técnica utilizada para resolver sistemas de ecuaciones lineales. El método es llamado de esa manera en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel. El método es similar al método de Jacobi. Es un método indirecto, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:
El método de iteración Gauss-Seidel es
donde
para i=j, o
para
.
y
Esto es también que :
Si
definimos
y
.
Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n. Entonces podemos escribir la fórmula de iteración del método
, i=1,...,n(*)
La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.
Convergencia
TEOREMA
Suponga una matriz Aε R(n,n) es una matriz no singular cumple la condición de
\sum_{1{\leq}\nu{\leq}n, \nu{\neq}\mu} |a_{\mu \nu}| \, " src="http://upload.wikimedia.org/math/6/a/f/6afe2026a96bc9abdf5924512ecdfb61.png" style="border-top-style: none; border-right-style: none; border-bottom-style: none; border-left-style: none; border-width: initial; border-color: initial; vertical-align: middle; "> ó
.
Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi.
Para ver los casos en que converge el método primero mostraremos que se puede escribir de la siguiente forma:
(**)
(el término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de un método iterativo estacionario.
Primeramente debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), para este motivo debemos escribir de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=D(L+I+U),D=diag(). Haciendo los despejes necesarios escribimos el método de esta forma
por lo tanto B=-(L+I)^(-1) U.
Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer x=Bx+c de (**)
Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los vectores propios ui, i= 1,..., n, los cuales son linealmente independientes, entonces podemos escribir el error inicial
(***)
Por lo tanto la iteración converge si y sólo si | λi|<1, i=" 1,">
TEOREMA
Una condición suficiente y necesaria para que un método iterativo estacionario converge para una aproximación arbitraria x^{(0)} es que
donde ρ(B) es el radio espectral de B.
Algoritmo
Se elige una aproximación inicial para .
Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite hasta que xk sea lo suficientemente cercano a xk− 1, donde k representa el número de pasos en la iteración.