4.1. DEFINICION ESPACIOS VECTORIALES Y SUS PROPIEDADES.
Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: escalarse (multiplicarlos por un escalar) y sumarse. Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión.
Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales. La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y complicada.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.
Propiedades del espacio vectorial.
Hay una serie de propiedades que se demuestran fácilmente a partir de los axiomas del espacio vectorial. Algunas de ellas se derivan de la teoría elemental de grupos, aplicada al grupo (aditivo) de vectores: por ejemplo, el vector nulo 0 Є V, y el opuesto -v de un vector v son únicos. Otras propiedades se pueden derivar de la propiedad distributiva, por ejemplo, la multiplicación por el escalar cero da el vector nulo y ningún otro escalar multiplicado por un vector da cero:
Propiedad
Significado
Unicidad del vector nulo
Unicidad del opuesto de un vector
Producto por el escalar cero
0 v = 0. El 0 es el único escalar que cumple esta propiedad.
Producto de un escalar por el vector nulo
a 0 = 0
Opuesto del producto de un vector por un escalar
- (a v) = (-a) v = a (-v)
viernes, 30 de octubre de 2009
3.9 Solucion de un sistema de ecuaciones lineales por la regla de cramer
a) Regla de Cramer
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de Cramer).
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes.
Ejemplo
b) Por inversión de la matriz de coeficientes
Si A·X = B, entonces X = A-1B.
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado.
3.10 Aplicación de las matrices y los determinantes
Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitas de la forma:
donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes. Representación matricial de un s.e.l.
El anterior sistema se puede expresar en forma matricial, usando el producto de matrices de la forma:
De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x n se denomina matriz de coeficientes. También usaremos la matriz ampliada, que representaremos por A', que es la matriz de coeficientes a la cual le hemos añadido la columna del término independiente:
Discusión de un s.e.l.: Teorema de Rouché-Fröbenius Dado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A' y rangos respectivos r y r' se verifican:
1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A')
2. En caso de compatibilidad existen dos posibilidades:
Si r = r' = n (nº de incógnitas) Þ Sistema compatible determinado (una única solución)
Si r = r' < n (nº de incógnitas) Þ Sistema compatible indeterminado (infinitas soluciones)
Al valor n - r se le llama grado de libertad del sistema.
Resolución de un s.e.l.
a) Regla de Cramer
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de Cramer).
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes.
Ejemplo
b) Por inversión de la matriz de coeficientes
Si A·X = B, entonces X = A-1B.
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado.
a) Regla de Cramer
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de Cramer).
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes.
Ejemplo
b) Por inversión de la matriz de coeficientes
Si A·X = B, entonces X = A-1B.
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado.
3.10 Aplicación de las matrices y los determinantes
Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitas de la forma:
donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes. Representación matricial de un s.e.l.
El anterior sistema se puede expresar en forma matricial, usando el producto de matrices de la forma:
De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x n se denomina matriz de coeficientes. También usaremos la matriz ampliada, que representaremos por A', que es la matriz de coeficientes a la cual le hemos añadido la columna del término independiente:
Discusión de un s.e.l.: Teorema de Rouché-Fröbenius Dado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A' y rangos respectivos r y r' se verifican:
1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A')
2. En caso de compatibilidad existen dos posibilidades:
Si r = r' = n (nº de incógnitas) Þ Sistema compatible determinado (una única solución)
Si r = r' < n (nº de incógnitas) Þ Sistema compatible indeterminado (infinitas soluciones)
Al valor n - r se le llama grado de libertad del sistema.
Resolución de un s.e.l.
a) Regla de Cramer
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de Cramer).
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes.
Ejemplo
b) Por inversión de la matriz de coeficientes
Si A·X = B, entonces X = A-1B.
Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es compatible determinado.
Suscribirse a:
Entradas (Atom)